Prompt Engineering#

In-context learning#

In-context learning(答えてほしいことを例示してその場でタスクに適応させる)の枠組み

GPT3の提案論文であるLanguage Models are Few-Shot Learnersが初出?

  • Zero-shot Prompting: 例示なしでいきなり質問する

  • One-shot Prompting: 1例を出す

  • Few-shot Prompting: 数個の例を出す

参考#

Chain-of-Thought (CoT)#

思考過程を細かく具体的に書き出させることで精度を高める

“Let’s think step by step”をつけるだけで改善するというzero-shot CoTもある(東大の松尾研の論文)

(出所)Kojima et al. (2022). Large language models are zero-shot reasoners.

ReAct#

行動を提案し、実施結果をもとに思考を重ねていく。それにより回答が改善する

ReAct: Synergizing Reasoning and Acting in Language Models – Google Research Blog

Prompt Principle#

[2312.16171v1] Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4

よいプロンプトの書き方をPrompt principlesとして26の原則にまとめたもの。

例えば

  • 丁寧に話す必要はない(「お願いします」「ありがとうございます」など言う必要はない)

  • 対象読者の情報を組み込む(例:読者はこの分野の専門家である)

  • 対話では複雑なタスクを分割してシンプルな指示にする

  • 否定的な言葉(don’t)は避けて、肯定的な指示(do)を使う

参考文献#