# ИИ
# Управление языковыми моделями
**Технические требования**
Настройка HA кластера - критичный раздел, но сейчас пока не актуально.
Мне хватило следующего ПК:
Процессор | Intel Xeon E5-2670 v3 @2.3GHz (даже не средний 😊) Во время обработки грузился на 60%. |
ОП | Всего 32 Gb
На обученной модели во время обработки вопроса в пиках подскакивало только до 17 Gb
Просто ollama в фоне - 11 Gb
|
SSD | Для размещения модели deepseek-r1:7b потребовалось 5 Gb |
Видео | Не использовалось, слишком старая. Да, не особо быстро, иногда полного ответа нужно было ждать секунд 30. |
ОС | Windows |
Для построения векторного индекса по одному файлу word размером 100 страниц потребовалось 35 минут.
**Запуск модели**
Использовал менеджер моделей Ollama [ollama.com](https://ollama.com/) Установщик. Затем управление через cmd.
Команда | Описание |
ollama run model\_name | Скачать, установить и запустить модель
```
ollama run deepseek-r1:7b
```
|
ollama list | Список установленных моделей |
ollama rm model\_name | Удаление модели |
После запуска по умолчанию [http://localhost:11434/](http://localhost:11434/) запускается API.
# Взаимодействие через python
**Запрос - ответ в существующую модель**
```python
import ollama
import requests
def chat_with_deepseek(prompt, model="deepseek-r1:7b"):
response = ollama.chat(
model=model,
messages=[{"role": "user", "content": prompt}]
)
return response["message"]["content"]
def chat_with_deepseek_api(prompt, model="deepseek-r1:7b"):
url = "http://localhost:11434/api/chat"
data = {
"model": model,
"messages": [{"role": "user", "content": prompt}],
"stream": False # Отключить потоковый вывод
}
response_api = requests.post(url, json=data)
return response_api.json()["message"]["content"]
# Пример использования
user_input = "Объясни, что такое ООП простыми словами."
#response = chat_with_deepseek(user_input)
response = chat_with_deepseek_api(user_input)
print("Ответ DeepSeek:", response)
```
[Источник RAG](https://tproger.ru/articles/zapuskaem-lokalno-deepseek-r1-dlya-prilozheniya-rag)
**Дообучение модели на собственных данных**
Дополнительные пакеты
```
python -m pip install ollama llama-index transformers torch sentence-transformers llama-index-llms-ollama
```
Здесь должен был быть код, успешный результат (хотя бы результатик), но... Все уперлось в токенизацию. Напрямую 100 страничный файл оказался бессмысленным, узлов после 30 минутной обработки было создано 0. Причем различные варианты не помогли - простое предоставление файла в свободном форматировании оказалось бессмысленным занятием. Нужно погружаться как минимум в теорию Chunk'ов. Хотя скорее всего потребуется еще много чего.
# Книги
# Теория LLM
Генеративный ИИ относится к алгоритмам, которые могут генерировать новый контент, в отличие от анализа существующих данных или воздействия на них, как более традиционные системы машинного обучения с прогнозированием или искусственного интеллекта.
# Промпты