AI-driven разработка продукта: утопия или реальность

Дата
19 декабря 2023 г.
Статус
Завершено
AI-driven разработка продукта: утопия или реальность

Две мечты об разработке софтверного продукта с помощью GPT-моделей. AI-агенты и виртуальные сотрудники: обзор инструментов. Экосистема AI и Open Source.

Саммари мероприятия

AI-Driven разработка: Когда нейросети начнут писать код за нас?

TL;DR

Максим из студии AIDEA разбирает текущее состояние AI в разработке: от простых копайлотов до автономных агентов. Главная мысль — «волшебной кнопки» пока нет, но мы движемся к модели, где AI-агенты (PM, разработчик, QA) общаются между собой и создают продукт. Open Source модели стремительно догоняют GPT-4, а рутина вроде написания тестов и бойлерплейта уже сегодня должна быть делегирована нейросетям.

Кому будет полезно

  • Разработчикам: Чтобы понять, что учить (архитектуру, а не синтаксис) и как сбросить рутину.
  • CTO и Тимлидам: Чтобы оценить риски безопасности и перспективы внедрения AI-сотрудников.
  • Стартаперам: Чтобы узнать о дешевых Open Source альтернативах GPT-4.
  • Уровень: Любой (от джуна до C-level).

Краткий контекст

  • Спикер: Максим, руководитель студии разработки AIDEA (занимаются кастомной разработкой).
  • Тема: Реальность применения AI в продакшене против «розовых мечтаний».
  • Окружение: Обсуждение инструментов вроде ChatGPT, AutoGPT, Hugging Face и Open Source моделей по состоянию на конец 2023 года.

Ключевые идеи

1. «Розовая мечта» vs Реальность

Что сказали: Мечта «сказал в микрофон — получил готовую систему» пока недостижима. Но есть «менее розовая мечта», реальная в горизонте года: вы пишете промпт -> AI задает уточняющие вопросы (как PM) -> генерирует ТЗ -> делает прототип -> пишет код и тесты. Почему это важно: Это меняет процесс работы. Вместо написания кода разработчик превращается в оператора, который валидирует ТЗ и принимает работу у AI. Как применить: Готовиться к роли архитектора/ревьюера, а не просто «писателя кода». Учиться четко формулировать мысли (промпт-инжиниринг).

2. Проблема контекста и «костыли»

Что сказали: Главное ограничение LLM сейчас — «воображение» (размер контекстного окна). Нейросеть не может загрузить в голову весь проект целиком. Почему это важно: Без понимания всей кодовой базы AI делает ошибки или галлюцинирует. Как применить: Использовать RAG (Retrieval Augmented Generation) и семантический поиск — «костыли», которые позволяют модели искать нужные куски в базе знаний, прежде чем генерировать ответ.

3. Мультиагентные системы (Swarm Intelligence)

Что сказали: Одна модель (даже GPT-4) не может качественно написать сложный софт в одиночку. Но если запустить несколько инстансов и раздать им роли (Ты — PM, ты — Бэкендер, ты — QA), они начинают взаимодействовать, критиковать друг друга и выдают рабочий результат. Почему это важно: Эмерджентность. Качество работы группы агентов выше, чем сумма качеств отдельных моделей. Как применить: Попробовать инструменты вроде AutoGPT или ChatDev, где симуляция софтверной компании создает простые приложения.

4. Победа Open Source AI

Что сказали: Open Source модели дышат в спину гигантам. Отставание открытых моделей от топовой GPT-4 составляет всего пару кварталов. Секретного соуса (как тренировать) больше нет, все упирается только в данные и вычислительные мощности. Почему это важно: Нет жесткой привязки (vendor lock-in) к OpenAI. Можно развернуть модель у себя. Как применить: Использовать Hugging Face для поиска и хостинга моделей. Это как GitHub, но для нейросетей.

5. Рутина уже мертва

Что сказали: До 80% времени разработчика (скучные вещи) можно экономить уже сейчас. Написать тесты, сделать обертку функции, рефакторинг — с этим AI справляется отлично. Почему это важно: Писать такие вещи вручную — экономически невыгодно. Как применить: Если вам нужно выделить функцию в IDE или написать Unit-тест — не пишите руками. Делегируйте это Copilot или GPT.

Примеры и кейсы

  • Twitter по скриншоту: Кейс GPT-4 Vision, когда модели скармливают скриншот интерфейса, и она верстает рабочий клон.
  • Оптимизация функции: Попросили AI оптимизировать функцию. Он нашел самое тяжелое место и просто удалил его. Функция стала работать мгновенно, но перестала делать то, что нужно. Мораль: за AI нужен глаз да глаз.
  • Виртуальные сотрудники: Стартапы создают AI-продажников и аналитиков. Пример: один агент делит рынок на сегменты, другие (младшие аналитики) гуглят данные по каждому сегменту и собирают отчет.

Ошибки и грабли

  • Приватность данных: Если вы скармливаете код в веб-интерфейс ChatGPT (бесплатный или Plus), ваши данные могут использоваться для дообучения модели. Это дыра в безопасности.
    • Как надо: Использовать API (OpenAI не учится на данных из API) или Azure OpenAI (Enterprise контур).
  • Слепое доверие: AI может написать код, который выглядит рабочим и быстрым, но не выполняет бизнес-задачу (см. пример с удалением куска функции).

Что можно сделать уже сегодня

  1. Зарегистрироваться на Hugging Face: Изучить, какие модели доступны, попробовать Space-ы (демки).
  2. Делегировать тесты: Перестать писать boilerplate-тесты руками, использовать AI-генерацию.
  3. Попробовать AutoGPT/BabyAGI: Запустить простую задачу через агентов, чтобы понять принцип их взаимодействия.
  4. Проверить безопасность: Убедиться, что команда не льет проприетарный код и ключи в публичные веб-интерфейсы нейросетей.

Цитаты

«Сделать большую языковую модель, у которой окно памяти вдвое больше, чем у текущей — это не вдвое сложнее, это на два порядка сложнее».

«Имплементация классов — это как японские боевые искусства в школе. Просто физкультура для головы».

Итоговый вывод

Максим утверждает, что AI не заменит разработчиков полностью в ближайшее время, но радикально изменит требования к ним. Навык «написания кода» (имплементация) обесценивается, становясь коммодити. На первый план выходит навык системного проектирования, архитектуры и умение формулировать задачи. Самый разумный шаг сейчас — начать использовать AI для всей скучной работы, чтобы освободить мозг для сложных архитектурных решений.