自然言語処理学研究室の芳賀 あかりさん(博士後期課程1年)らが、BabyLM Challenge 2024においてOutstanding Paper Awardを受賞しました。
Akari HAGA et al. received the Outstanding Paper Award at BabyLM Challenge 2024. (2024/11/15)

 BabyLM Challengeは、子どもが言語を習得する際に接するとされている1億単語以下のデータを用い、言語モデルを効果的に訓練することを目指す共有タスクで、2024年11月15-16日にマイアミで開催されました。この共有タスクは、データ効率の向上や低リソース言語のモデリング手法の開発を促進し、人間の言語習得の効率性を理解することを目的としています。Outstanding Paper Awardは、革新的または独創的である論文や、言語モデルと心理言語学の研究テーマの間に新しい重要なつながりを築いた論文に対して授与される賞です。 image
BabyLM Challenge was held  as the shared task for CoNLL 2024 in Miami, FLorida, Nov. 15-16, 2024. The goal of this shared task is to encourage researchers with an interest in pretraining and/or cognitive modeling to focus their efforts on optimizing pretraining given data limitations inspired by human development.
This award is given to the submissions that are innovative or unusual, or make novel and significant connections between language modeling and psycholinguistics research topics. (cited from its HP)
  • 受賞者/著者 Awardees/Authors:
     芳賀 あかり(博士後期課程1年)、深津 聡世(東大)、大羽 未悠(博士後期課程1年)、Arianna Bisazza(フローニンゲン大学)、大関洋平(東大) / Akari HAGA, Akiyo FUKATSU, Miyu OBA, Arianna BISAZZA, Yohei OSEKI
    image
    From left: Dr. OSEKI, HAGA, OBA, Dr. BISAZZA

  • 受賞テーマ Research theme:
     "BabyLM Challenge: Exploring the Effect of Variation Sets on Language Model Training Efficiency"
     子ども向けの発話に含まれ、子供の言語習得を促進させることが知られている「Variation sets」という発話集合が、言語モデルの学習にも効果を示すのかを分析しました。その結果、Variation setsが言語モデルの文法と意味理解の学習に貢献する可能性を示しました。

  • 受賞者のコメント Awardee's voice
     このたびは、栄誉ある賞をいただき、大変嬉しく思います。ご指導・サポートいただきました共著者の皆様や、研究室を超えた共同研究の実現を後押ししてくださいました先生方に、心より感謝申し上げます。今回の受賞を励みに、今後も一層研究に邁進してまいります。

  • 外部リンク Links to:
     BabyLM Challenge HP: https://babylm.github.io/

>> 自然言語処理学研究室 Natural Language Processing lab