問題:
TransformerのSelf-Attention機構において、QueryベクトルとKeyベクトルの内積(またはScaled Dot-Product)によって計算されるアテンションスコアの主な役割は何ですか?
選択肢:
5秒後に問題演習ページにリダイレクトします。
JavaScript が無効です。こちらから問題ページにアクセスしてください。