Gerwin AI: как ИИ-сервис создал надежную инфраструктуру в облаке
15.07.2024Как работает генерация контента для бизнеса
История Gerwin AI началась до информационного бума вокруг генеративных нейросетей — релиз состоялся весной 2022 года. Тогда в инфополе была ранняя версия Midjourney, а до выхода ChatGPT оставалось полгода.
Популярные нейросети рассчитаны на широкую аудиторию, результат их работы часто универсален, и нередко компаниям приходится его адаптировать под решение своих задач. Gerwin AI решает те же задачи, но позволяет получать результат с локальной спецификой страны или даже tone of voice отдельной компании. Сервис обучен на датасетах компаний и поэтому популярен среди предпринимателей. Например, модуль «копирайтинг» учитывает потребности, которые есть у российского бизнеса, и включает 70 сценариев: создание текстов карточек товаров для маркетплейсов, названий и описания для постов и роликов и даже объявлений о продаже недвижимости.
Также Gerwin AI генерирует изображения по описанию. Например, может создавать вертикальные картинки для сториз или, наоборот, — широкоформатные. Обычно такие параметры прописывают на уровне промпта, а у Gerwin AI эта функциональность закреплена в меню.
Цель команды стартапа — сделать Gerwin AI помощником для бизнеса. Это должен быть инструмент, которым пользуются каждый день. Значит, для его работы нужна надежная инфраструктура с высоким аптаймом и возможностью быстро масштабировать вычислительные ресурсы с учетом нагрузки на сервис.
В Gerwin AI встроено 70 готовых шаблонов для работы с текстом
Как строится работа сервиса генеративного контента в облаке
При создании проекта его команда сделала ставку на Cloud Native и отказалась от использования собственного железа, так как на закупку и обслуживание оборудования требовалось много ресурсов. Изначально стартап арендовал серверы в России и использовал S3-хранилище зарубежного провайдера.
Со временем этим сервисам пришлось искать замену: требовалось повысить отказоустойчивость инфраструктуры и решить проблемы с масштабированием вычислительных ресурсов, а провайдер S3 прекратил обслуживание одним днем, поэтому нужно было оперативно искать замену хранилища.
Команда Gerwin AI искала провайдера, у которого можно арендовать и S3-хранилище, и надежную инфраструктуру.
По каким критериям выбрали провайдера
Перед поиском провайдера команда проекта сформировала критерии, на которые обращали внимание в первую очередь:
- Надежность и стабильность виртуальных машин и других облачных сервисов. В Gerwin AI высокие требования к отказоустойчивости решения. Чтобы им соответствовать, нужно быть уверенным в качестве услуг облачного провайдера.
- Запас ресурсов. Возможность гибко масштабировать вычислительные ресурсы — в том числе быстро расширять мощности при росте нагрузки.
- Работа аккаунт-менеджеров и техподдержки. Хорошо, когда отношения между провайдером и клиентом выстраиваются в партнерском ключе.
Команда Gerwin AI выбирала из нескольких крупных российских провайдеров и в итоге остановилась на VK Cloud.
Переезд в новое облако совпал с большим обновлением приложения Gerwin AI. Его готовили четыре месяца, и, по сути, у сервиса началась новая жизнь в новом облаке.
Как работает ИИ-платформа в новом облаке
Сервис Gerwin AI позволяет получить контент, который максимально соответствует запросам бизнеса. Это происходит благодаря тому, что модели обучаются с применением набора данных, важных для генерации контента: начиная от местоположения и рода деятельности организации и заканчивая исчерпывающей информацией о товарах и услугах, информации сайта, ленты ВКонтакте или в Телеграме, статей, данных из файлов. Нейросеть будет учитывать полученные данные для создания контента. При этом доступ к загруженным данным есть только у клиента, который их загрузил. Это помогает персонализировать и актуализировать контент.
Результаты сотрудничества с VK Cloud
Сейчас в VK Cloud Gerwin AI использует виртуальные машины, хранилище S3 и управляемые базы данных. Миграция в облако прошла за два дня.
В результате использования облачных сервисов проект повысил отказоустойчивость и получил необходимые ресурсы с гибким масштабированием для обучения моделей.