Каждый второй стартап сейчас говорит «у нас AI». Обычно это значит: один вызов ChatGPT API и красивый лендинг. В реальных продуктах всё сложнее.
Я встроил LLM в четыре разных продукта: Mixello (генерация кальянных миксов), Радар (классификация лидов), ORYON (кластеризация трендов) и Cartara (AI-интерпретация таро). Вот что я понял.
Prompt engineering — это 10% работы. Остальные 90% — это: как не разориться на токенах, как сделать fallback когда API лежит, как кешировать результаты, как объяснить пользователю что AI ошибся, как не дать модели галлюцинировать в критичных местах.
Главный урок: AI — это не продукт. AI — это инструмент внутри продукта. Пользователю плевать на GPT-4 или Claude. Ему важно, что микс вкусный, лид горячий, а тренд пойман вовремя.
Конкретный пример. В Mixello первая версия просто просила GPT «придумай микс». Результат был случайным. Сейчас это pipeline: валидация ингредиентов → проверка совместимости → генерация с ограничениями → пост-валидация. AI — один шаг из пяти.
Если вы встраиваете AI в продукт — думайте о pipeline, а не о промпте. Промпт поменять легко. Архитектуру — нет.