Gerwin AI: как ИИ-сервис создал надежную инфраструктуру в облаке

15.07.2024

Как работает генерация контента для бизнеса

История Gerwin AI началась до информационного бума вокруг генеративных нейросетей — релиз состоялся весной 2022 года. Тогда в инфополе была ранняя версия Midjourney, а до выхода ChatGPT оставалось полгода.

Популярные нейросети рассчитаны на широкую аудиторию, результат их работы часто универсален, и нередко компаниям приходится его адаптировать под решение своих задач. Gerwin AI решает те же задачи, но позволяет получать результат с локальной спецификой страны или даже tone of voice отдельной компании. Сервис обучен на датасетах компаний и поэтому популярен среди предпринимателей. Например, модуль «копирайтинг» учитывает потребности, которые есть у российского бизнеса, и включает 70 сценариев: создание текстов карточек товаров для маркетплейсов, названий и описания для постов и роликов и даже объявлений о продаже недвижимости.

Также Gerwin AI генерирует изображения по описанию. Например, может создавать вертикальные картинки для сториз или, наоборот, — широкоформатные. Обычно такие параметры прописывают на уровне промпта, а у Gerwin AI эта функциональность закреплена в меню.

Цель команды стартапа — сделать Gerwin AI помощником для бизнеса. Это должен быть инструмент, которым пользуются каждый день. Значит, для его работы нужна надежная инфраструктура с высоким аптаймом и возможностью быстро масштабировать вычислительные ресурсы с учетом нагрузки на сервис.

В Gerwin AI встроено 70 готовых шаблонов для работы с текстом

Как строится работа сервиса генеративного контента в облаке

При создании проекта его команда сделала ставку на Cloud Native и отказалась от использования собственного железа, так как на закупку и обслуживание оборудования требовалось много ресурсов. Изначально стартап арендовал серверы в России и использовал S3-хранилище зарубежного провайдера.

Со временем этим сервисам пришлось искать замену: требовалось повысить отказоустойчивость инфраструктуры и решить проблемы с масштабированием вычислительных ресурсов, а провайдер S3 прекратил обслуживание одним днем, поэтому нужно было оперативно искать замену хранилища.

Команда Gerwin AI искала провайдера, у которого можно арендовать и S3-хранилище, и надежную инфраструктуру.

По каким критериям выбрали провайдера

Перед поиском провайдера команда проекта сформировала критерии, на которые обращали внимание в первую очередь:

  • Надежность и стабильность виртуальных машин и других облачных сервисов. В Gerwin AI высокие требования к отказоустойчивости решения. Чтобы им соответствовать, нужно быть уверенным в качестве услуг облачного провайдера.
  • Запас ресурсов. Возможность гибко масштабировать вычислительные ресурсы — в том числе быстро расширять мощности при росте нагрузки.
  • Работа аккаунт-менеджеров и техподдержки. Хорошо, когда отношения между провайдером и клиентом выстраиваются в партнерском ключе.

Команда Gerwin AI выбирала из нескольких крупных российских провайдеров и в итоге остановилась на VK Cloud.

Переезд в новое облако совпал с большим обновлением приложения Gerwin AI. Его готовили четыре месяца, и, по сути, у сервиса началась новая жизнь в новом облаке.

Как работает ИИ-платформа в новом облаке

Сервис Gerwin AI позволяет получить контент, который максимально соответствует запросам бизнеса. Это происходит благодаря тому, что модели обучаются с применением набора данных, важных для генерации контента: начиная от местоположения и рода деятельности организации и заканчивая исчерпывающей информацией о товарах и услугах, информации сайта, ленты ВКонтакте или в Телеграме, статей, данных из файлов. Нейросеть будет учитывать полученные данные для создания контента. При этом доступ к загруженным данным есть только у клиента, который их загрузил. Это помогает персонализировать и актуализировать контент.

Результаты сотрудничества с VK Cloud

Сейчас в VK Cloud Gerwin AI использует виртуальные машины, хранилище S3 и управляемые базы данных. Миграция в облако прошла за два дня.

В результате использования облачных сервисов проект повысил отказоустойчивость и получил необходимые ресурсы с гибким масштабированием для обучения моделей.

Источник: https://cloud.vk.com/