6 месяцев назад История
    README.md

    Getting Started

    VERSIONS

    Ollama 0.3.6 или выше model: llama3.2:3b

    HOW TO

    Можно установить Ollama в Docker или установить ее непосредственно на компьютер.

    Установка на компьютер =============

    Заходим сюда ( https://ollama.com/ ), скачиваем установщик и… устанавливаем.

    ::: REST API WAY :::

    Добавляем модель. Модель здесь и ниже приводится для примера. Найдите нужную на странице с моделями для Ollama.

    curl -X POST http://localhost:11434/api/pull -d ‘{“model”:“llama3.2”}’

    Generate a response

    curl http://localhost:11434/api/generate -d ‘{ “model”: “llama3.2”, “prompt”:“Продюсер группы t.a.T.u.?” }’

    Отключить стрим, ответ одним ответом:

    curl http://localhost:11434/api/generate -d ‘{ “model”: “llama3.2”, “stream”: false, “prompt”:“напиши анекдот” }’

    Chat with a model

    curl http://localhost:11434/api/chat -d '{
       "model": "llama3.2",
       "messages": [
          { "role": "user", "content": "В каком стиле поёт Сергей Жуков?" }
       ]
    }'
    
    >

    Аналогично параметр “stream”: false, можно еще использовать “raw”: true и тд, полное описание параметров https://github.com/ollama/ollama/blob/main/docs/api.md

    References

    Docker hub ollama: https://hub.docker.com/r/ollama/ollama

    Сборка и запуск приложения

    • Для сборки данного проекта необходимо в корневой директории выполнить следующую команду:
    gradle clean build
    

    Работа в Intellij IDEA

    Запуск проекта:

    Run -> Edit configurations -> Add new configuration -> Spring Boot

    • Main class - выбрать AppApplication
    • Сохранить конфигурацию.
    • Запустить сохраненную конфигурацию
    Описание

    Курс по Spring AI с примерами провайдеров Ollama и OpenAI

    Конвейеры
    0 успешных
    0 с ошибкой