YandexGPT: как научить нейросеть сокращать статьи и быть в ней уверенным (на 99%)
Доклад отклонён
Целевая аудитория
Тезисы
Генеративные большие языковые модели (Large Language Model, LLM) - наша новая реальность, которая становится core-технологиях во многих продуктах. То, для чего раньше требовалось собирать развесистый пайплайн из множества ML-моделей и хитрых алгоритмов обработки данных, теперь делается подбором правильного промпта.
Я расскажу про наш опыт обучения YandexGPT для задачи суммаризации статей в Яндекс Браузере и сервисе 300.ya.ru. О том, какие приемы помогли избегать ручных правил, экономить на GPU и что нас ждет в будущем.
Более 7 лет работаю в Яндексе, в настоящее время являюсь руководителем Службы ML-проектов Браузера.
Преподаю в ВШЭ и курирую образовательные программы в Сириусе.
Яндекс
Видео
Другие доклады секции
Нейронные сети, искусственный интеллект