И вот здесь часто возникает вопрос: почему один и тот же запрос, сформулированный чуть иначе, даёт совсем другой ответ? А иногда — вообще странный или бессмысленный?
Ответ простой: всё дело в формулировке команды. LLM работает именно так — она смотрит на то, как вы задали вопрос, какие слова выбрали, в каком порядке их написали, и только тогда выбирает ответ. Чем точнее команда — тем лучше результат.
Представьте, что вы пришли в магазин и сказали: «Хочу велосипед».
Продавец может продать любой, который ему выгоднее. А если вы скажете: «Мне нужен городской складной велосипед, для мужчины ростом 190 см, с переключателем скоростей, не дороже 500 долларов, чтобы помещался в метро» — продавец уже не сможет втюхать вам что попало. Он подберёт то, что действительно вам подходит. Так и с нейросетью: чем точнее промпт (команда), тем лучше ответ.
Поэтому задача промпт-инженера — уметь формулировать эти самые команды. И не только формулировать, но и обучать нейросеть под конкретную задачу. Если результат оказался неудачным — можно уточнить формулировку, дать дополнительные данные, показать примеры. Это и есть вторая задача промпт-инженера: постоянно дообучать систему под нужды бизнеса.
Ещё один важный фактор — это параметры модели. Помимо самих команд, на результат влияет то, какие настройки применяются. Например, параметр temperature.
Он определяет степень креативности. При низком значении (например, 0.5) ответ будет строгий, логичный, формальный. При высоком (например, 1.2) — текст может получиться неожиданным, живым, с шутками и яркими оборотами.
То есть если задать ИИ: «Напиши текст про выбор велосипеда», на низкой температуре вы получите сухую справку, а на высокой — возможно, даже рэп в стиле популярного рэп батлера.
В зависимости от задачи и контекста, промпт-инженер должен управлять этими параметрами так же, как управляет формулировками команды.
Не переживайте, в будущих уроках мы детально разберем каждый параметр работы ИИ.