<p>Может ли ИИ чему-то научиться, читая промпт? Вот один из примеров того, что сегодня требуется воспринимать ан-масс на почти бытовом уровне.</p><p>Мы хорошо знаем, что когда ИИ-модель отвечает, она в этот момент не учится, её веса заморожены. Обучение - это отдельная операция, связанная с обратным пересчётом десятков и сотен миллиардов весов, которая потребовала бы непропорционально много ресурсов.</p><p>Давеча пытал ИИ на тему эффективных стратегий промптинга, т.е., стратегий объяснения ему, чего я от него хочу. Когда задача выходит за рамки "расскажи про ...." и подходит хотя бы к "дай прогноз погоды на завтра", дело обрастает толпой условностей: что сначала, поиск, или идти на известный сайт? а надо ли идти на сайт, если прогноз есть прямо в поиске? При этом, рекомендации должны быть достаточно общими, чтобы и прогноз погоды, и пианино на Авито обрабатывались единообразно, и, одновременно, достаточно конкретным, чтобы учесть все общие нюансы.</p><p>Конечно, в какой-нибудь Claude Opus можно засунуть портянку инструкций, не отличимых от полного бреда, размером с небольшой роман (нынче это принято называть "навык"), и он сориентируется. Подозреваю, на деле он просто проигнорит всё, кроме заголовков, потому что как чего делать он и сам знает. Но мы используем более компактные модели и нам приходится включать голову.</p><p>И вот ИИ подкинул мне интересную концепцию, говорит: "заведи в промпте аббревиатуры для моделей поведения и ссылайся на них". И дал красивый пример.<br>Я ему: "постой-ка, научи, как ты это делаешь".<br>Он мне: "ну, вот ты их должен объявить в начале промпта, использовать в однотипных ситуациях, выделять рюшечками и давать по ним обратную связь - он, мол, тогда учится".</p> <a href="https://habr.com/ru/articles/1021108/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1021108#habracut">Читать далее</a>