# ИИ # Управление языковыми моделями **Технические требования** Настройка HA кластера - критичный раздел, но сейчас пока не актуально. Мне хватило следующего ПК:
ПроцессорIntel Xeon E5-2670 v3 @2.3GHz (даже не средний 😊) Во время обработки грузился на 60%.
ОПВсего 32 Gb На обученной модели во время обработки вопроса в пиках подскакивало только до 17 Gb Просто ollama в фоне - 11 Gb
SSDДля размещения модели deepseek-r1:7b потребовалось 5 Gb
ВидеоНе использовалось, слишком старая. Да, не особо быстро, иногда полного ответа нужно было ждать секунд 30.
ОСWindows
Для построения векторного индекса по одному файлу word размером 100 страниц потребовалось 35 минут. **Запуск модели** Использовал менеджер моделей Ollama [ollama.com](https://ollama.com/) Установщик. Затем управление через cmd.
КомандаОписание
ollama run model\_nameСкачать, установить и запустить модель ``` ollama run deepseek-r1:7b ```
ollama listСписок установленных моделей
ollama rm model\_nameУдаление модели
После запуска по умолчанию [http://localhost:11434/](http://localhost:11434/) запускается API. # Взаимодействие через python **Запрос - ответ в существующую модель** ```python import ollama import requests def chat_with_deepseek(prompt, model="deepseek-r1:7b"): response = ollama.chat( model=model, messages=[{"role": "user", "content": prompt}] ) return response["message"]["content"] def chat_with_deepseek_api(prompt, model="deepseek-r1:7b"): url = "http://localhost:11434/api/chat" data = { "model": model, "messages": [{"role": "user", "content": prompt}], "stream": False # Отключить потоковый вывод } response_api = requests.post(url, json=data) return response_api.json()["message"]["content"] # Пример использования user_input = "Объясни, что такое ООП простыми словами." #response = chat_with_deepseek(user_input) response = chat_with_deepseek_api(user_input) print("Ответ DeepSeek:", response) ``` [Источник RAG](https://tproger.ru/articles/zapuskaem-lokalno-deepseek-r1-dlya-prilozheniya-rag) **Дообучение модели на собственных данных** Дополнительные пакеты ``` python -m pip install ollama llama-index transformers torch sentence-transformers llama-index-llms-ollama ``` Здесь должен был быть код, успешный результат (хотя бы результатик), но... Все уперлось в токенизацию. Напрямую 100 страничный файл оказался бессмысленным, узлов после 30 минутной обработки было создано 0. Причем различные варианты не помогли - простое предоставление файла в свободном форматировании оказалось бессмысленным занятием. Нужно погружаться как минимум в теорию Chunk'ов. Хотя скорее всего потребуется еще много чего. # Книги # Теория LLM Генеративный ИИ относится к алгоритмам, которые могут генерировать новый контент, в отличие от анализа существующих данных или воздействия на них, как более традиционные системы машинного обучения с прогнозированием или искусственного интеллекта. # Промпты