自然言語処理学研究室の林 和樹さん(博士後期課程1年)、尾崎 慎太郎さん(博士前期課程2年)、坂井 優介助教が、言語処理学会第32回年次大会にて、それぞれ受賞しました。(2026/3/12)
|
言語処理学会年次大会(言語処理学会第32回年次大会)は、日本における自然言語処理分野の主要な学術会議であり、最新の研究成果の発表および議論を通じて、当該分野の発展を目的として、2026年3月10日〜3月14日にライトキューブ宇都宮にて開催されました。 優秀賞は、言語処理学会年次大会において、発表論文の内容が特に優れていると認められた研究に対して授与されます。選考は委員会により行われ、理事会への報告を経て決定されます。受賞論文は大会にて表彰され、著者には表彰状および副賞が授与されます。 なお、本年度は789件の発表の中から13件が選出されました。 また、委員特別賞は言語処理学会委員による優れたと判断された論文へ送るための賞です。 |
![]() |
- 受賞者 Awardee:
林 和樹(博士後期課程1年)、 尾崎 慎太郎(博士前期課程2年)、 神野 倫行(博士前期課程2年) 上垣外 英剛、 渡辺 太郎 -
受賞研究テーマ Research theme:
"Noisy Channelに基づく生成確率による画像生成評価"
近年の画像生成(T2I)モデルの進展により、生成画像の表現力や多様性は大きく向上している。一方で、長文や複雑な指示を含む生成では、単一指標で出力を評価することが難しく、既存の評価手法は高度化した生成能力に十分対応できていない。本研究では、生成確率に基づくNoisy Channelにより T2I 評価を再定式化し、画像のテキスト整合性と視覚的品質を統一的に捉える確率的評価指標を提案する。提案手法は、LVLM の推論能力を教師強制尤度として用いた整合性評価と、自己回帰型画像生成モデルの尤度による品質評価を組み合わせることで、生成結果間の相対比較に依存せず、各画像を独立に評価できる。検証の結果、提案手法は人手による画像選好と高い整合性を示し、既存のスコアリング手法を一貫して上回る性能を達成した。また、評価観点を切り替えることで、同一の確率的枠組みのもとで多様な人手判断を柔軟に捉えられることを確認した。 - 受賞者のコメント Awardee's voice
引き続き頑張りたいと思います。
- 受賞者 Awardee:
尾崎 慎太郎 (博士前期課程2年), 平岡 達也 (MBZUAI/NAIST), 大竹 啓永 (博士前期課程2年), 大内 啓樹 (NAIST/理研), 磯沼 大 (NII/東北大/東大/理研), Benjamin Heinzerling (理研/東北大), 乾 健太郎 (MBZUAI/東北大/理研), 渡辺 太郎 (NAIST), 宮尾 祐介, 大関 洋平 (東大/NII), 高木 優 (名工大) - 受賞研究テーマ Research theme:
"大規模言語モデルの潜在言語は一貫しているべきか? " - 受賞者のコメント Awardee's voice
博士後期課程に進んでも、引き続き頑張りたいと思います。
-
【受賞③:委員特別賞】
- 受賞者 Awardee:
坂井 優介 - 受賞研究テーマ Research theme:
"単一のhubテキストがCLIPを壊す:hubnessによるクロスモーダル埋め込みの脆弱性特定 "
無関係な多くの事例と高い類似度を示すhub埋め込みは、埋め込みに基づく情報検索や品質評価指標などにおいてノイズとなる。 特に、テキスト・画像のような直接比較できないモダリティ間の類似度計算はCLIPなどの埋め込みに頼る必要があり、hubの存在はモデルの信頼性に影響する。 - 本稿では、クロスモーダル埋め込みモデルの脆弱性を特定するため、hub埋め込みに射影されてしまうhubテキストの探索法を提案する。 画像キャプションの品質評価および画像テキスト検索実験より、単一のhubテキストが各画像ごとに個別に生成したキャプションより高いClipScoreを示し、また、hubテキストの混入により検索性能が大幅に低下することを確認した。
- 著者 Authors:
出口 祥之, 帖佐 克己 (NTT), 坂井 優介 (NAIST)
-
- 受賞者のコメント Awardee's voice
本研究で明らかになった脆弱性は、自然言語処理や画像分野を横断する評価全般に影響を与え得るものであり、非常に意義深い取り組みとなりました。 - また、共同研究として昨年より取り組んできた研究内容を評価していただけたことを、大変嬉しく思います。
- 今後も、このような本質的かつ重要な課題に継続して取り組んでいきたいと考えております。
-
- 外部リンク Links to:
言語処理学会第32回年次大会 https://www.anlp.jp/nlp2026/

