Все записи
1 мин

AI в реальных продуктах — не как в демо

AIТуториал

Каждый второй стартап сейчас говорит «у нас AI». Обычно это значит: один вызов ChatGPT API и красивый лендинг. В реальных продуктах всё сложнее.

Я встроил LLM в четыре разных продукта: Mixello (генерация кальянных миксов), Радар (классификация лидов), ORYON (кластеризация трендов) и Cartara (AI-интерпретация таро). Вот что я понял.

Prompt engineering — это 10% работы. Остальные 90% — это: как не разориться на токенах, как сделать fallback когда API лежит, как кешировать результаты, как объяснить пользователю что AI ошибся, как не дать модели галлюцинировать в критичных местах.

Главный урок: AI — это не продукт. AI — это инструмент внутри продукта. Пользователю плевать на GPT-4 или Claude. Ему важно, что микс вкусный, лид горячий, а тренд пойман вовремя.

Конкретный пример. В Mixello первая версия просто просила GPT «придумай микс». Результат был случайным. Сейчас это pipeline: валидация ингредиентов → проверка совместимости → генерация с ограничениями → пост-валидация. AI — один шаг из пяти.

Если вы встраиваете AI в продукт — думайте о pipeline, а не о промпте. Промпт поменять легко. Архитектуру — нет.