自然言語処理学研究室の大羽 未悠さん(博士後期課程1年)らと坂井 優介助教らの論文が、それぞれ言語処理学会 2024年度論文賞を受賞しました。(2025/3/7)

 言語処理学会(The Association for Natural Language Processing)は、わが国の言語処理の研究成果発表の場として、また国際的な研究交流の場として、1994年4月1日に設立されました。原則年4回の会誌「自然言語処理」の発行、年1回の言語処理学会年次大会の開催を通じて、この分野の学問の発展、応用技術の発展と普及、国際的なレベルでの研究者・技術者・ユーザ相互間のコミュニケーションと人材の育成をはかる機関とすべく活動しています。
 各年の1月から12月に出版された論文から優秀な論文を選定し、論文賞を授与しています。(言語処理学会HPより抜粋)
image

論文賞①

  • 受賞者/著者 Awardees/Authors:
     大羽未悠(博士後期課程1年)、栗林樹生(MBZUAI)、大内啓樹、渡辺太郎

  • 受賞研究テーマ Research theme:
    "言語モデルの第二言語獲得"
     言語モデルの言語転移能力について、人間の第二言語習得に関する知見をもとに、文法項目や学習過程の観点から分析を行った。言語モデルにおける転移の難しさが人間と共通する点もあることなどが示され、人間との類似点および相違点が明らかとなった。

  • 受賞者のコメント Awardee's voice
     この度は2024年度の優秀論文賞を頂戴し、大変光栄に思います。査読や賞選考にご尽力くださった皆様、出版するまでの過程で関わってくださった編集委員や事務局の皆様に感謝申し上げます。
    今回の受賞を励みに、本研究分野の更なる発展に貢献できるよう、研究に取り組んで参ります。

論文賞②

  • 受賞者/著者 Awardees/Authors:
     坂井 優介、上垣外 英剛、林 克彦(東京大学)、渡辺 太郎

  • 受賞研究テーマ Research theme:
    "未知の知識に対する事前学習済み言語モデルが持つ推論能力の調査"
    自然言語処理 Vol.31, No.4, pp. 1427-1457.
     事前学習済み言語モデル (Pre-trained Language Models; PLM) は事前学習時に獲得した言語理解能力や知識によって、既知の事象に対して推論を行うことができる一方、未知の事象に対してはPLMの推論能力のみで解を導き出す必要がある.しかし言語モデルの推論能力のみを評価するには、PLMが事前学習時に記憶した知識と獲得した推論能力を完全に切り分けた分析が必要となり、既存のデータセットで測定するのは、事前学習時の記憶が作用してしまうため困難である。本研究ではPLMの推論能力の分析に、知識グラフ上の既知の関係から欠損している未知の関係を予測するタスクである知識グラフ補完 (Knowledge Graph Completion; KGC) を対象 とする。KGCにおいて埋め込みに基づく従来手法は推論のみから欠損箇所を予測する一方、近年利用されているPLMを用いた手法では事前学習時に記憶したエンティティに関する知識も利用している。そのため KGCは記憶した知識の利用と推論による解決との両側面を有することから、PLMが記憶する知識の影響を測るのに適したタスクである。我々はKGCに対し知識と推論による性能向上を切り分けて測定するための評価方法及びそのためのデータ構築手法を提案する。本研究ではPLMが事前学習時にエンティティに関する知識の記憶により推論を行っている箇所を明らかにし、PLMに備わっている未知の事象に対する推論能力も同時に学習していることを示唆する結果が得られた。

  • 受賞者のコメント Awardee's voice
     言語処理学会論文賞を受賞することができ、大変嬉しく思っております。本論文は私が博士課程で取り組んでいた主研究をジャーナルとしてまとめたものであり、読み応えのある良い論文に仕上がったと感じています。
    また、共著者の皆様には手厚いサポートをいただき、本当にありがとうございました。今後もインパクトのある研究を発表していけるよう頑張ります。

  • 外部リンク Links to:
     言語処理学会 HP: https://www.anlp.jp/
     言語処理学会 受賞ページ: https://www.anlp.jp/award/ronbun.html

>> 自然言語処理学研究室 Natural Language Processing lab