コロキアムB発表

日時: 9月14日(木)2限目(11:00-12:30)


会場: L1

司会: 遠藤 新
西田 悠人 M, 2回目発表 自然言語処理学 渡辺 太郎, 中村 哲, 上垣外 英剛
title: Generating Diverse Translation with Perturbed k-Nearest-Neighbor Machine Translation
abstract: Generating multiple translation candidates would enable users to choose the one that satisfies their needs. Although there have been work on diversified generation, there exists room for improving the diversity mainly because the previous methods do not address the overcorrection problem---the model underestimates a prediction that is largely different from the training data, even if that prediction is likely. This paper proposes methods that generate more diverse translations by introducing perturbed k-nearest neighbor machine translation (kNN-MT). Our methods expand the search space of kNN-MT and help incorporate diverse words into candidates by addressing the overcorrection problem. Our experiments show that the proposed methods alleviate the overcorrection problem and drastically improve candidate diversity.
language of the presentation: Japanese
発表題目: 摂動を加えたkNN機械翻訳による多様な翻訳候補の生成
発表概要: 機械翻訳システムが入力された文に対して複数の多様な訳の候補を出力することは、翻訳の後編集に活用できるなどの点から重要である。 しかし、標準的な方法で訓練されたニューラル機械翻訳モデルでは、翻訳候補の多様性を低下を引き起こす過剰修正という現象が生じることが知られている。 そこで、本研究では、訳文を生成する際に類似する翻訳例を検索して用いる機械翻訳手法であるkNN機械翻訳が、過剰修正の問題を緩和するという性質に着目してkNN機械翻訳を応用した手法を提案する。 提案法では、kNN機械翻訳による翻訳候補の生成時に摂動を加えることによって、通常は候補に入らないようなトークンを確率的に考慮できるため、翻訳候補の多様化が期待できる。 実験の結果、提案法によって過剰修正が緩和され翻訳候補の多様性が向上することを示した。
 
芳賀 あかり M, 2回目発表 自然言語処理学 渡辺 太郎, 中村 哲, 上垣外 英剛
title: Automatic Guided Image Captioning with Constrained Beam Search
abstract: Image captioning often generates captions with words that have nothing to do with the image. To solve this problem, a method has been proposed to generate a caption with words related to the image given in advance, but its automatic determination method has not been discussed. In this study, we propose a method to determine words to be included in captions by ranking labels (object names) output by object detectors based on a combination of their confidence and saliency scores. We compared the words obtained by the proposed method with those in manually generated correct captions, and found that about half of the automatically extracted words were included in the captions. Furthermore, human evaluation showed that many of the words that were not included in the caption were related to the image to the extent that the caption could be generated.
language of the presentation: Japanese
発表題目: 画像キャプショニングのための制約語の抽出法
発表概要: 従来の画像キャプショニングには画像とは無関係の語を含むキャプションをしばしば生成するという問題がある.これを解決するため,画像に関連する語をあらかじめ与えた上でキャプションを生成する手法が提案されているが,その自動決定法については議論がされていない.本研究では,物体検出器が出力するラベル(物体名)をその信頼度スコアと顕著性スコアを組み合わせてランキングすることでキャプションに含めるべき語を決定する手法を提案する.提案法で得た単語と人手生成の正解キャプション中の単語を比較した結果,自動抽出した単語のうち半数程度はキャプションに含まれていた.さらに人手評価を行ったところ,キャプションには含まれない単語であっても,その多くはキャプション生成が可能な程度に画像に関連した語であることがわかった.
 
富村 勇貴 M, 2回目発表 自然言語処理学 渡辺 太郎, 中村 哲, 上垣外 英剛
title: Improved Accuracy of Coreference Resolution Model for Long Documents
abstract: In this research, we focused on the low accuracy of the conventional coreference resolution model for long sentences, and after analyzing CoNLL2012, a representative data set used for coreference analysis models, we checked how the model accuracy was affected by changing the learning rate for long sentences and by data augmentation. We also discuss our future approach based on the fact that the accuracy of the model has been improved, especially for long sentences, by the seq2seq coreference resolution model of the latest study.
language of the presentation: Japanese
発表題目: **長文に対する共参照解析モデルの精度改善 ***
発表概要: *本研究では, 長文に対する従来の共参照解析モデルの精度が低いことに着目し, 共参照解析モデルに用いられる代表的なデータセットであるCoNLL2012の分析を行った後, 長文に対する学習率の変更やData Augumantationによりモデルの精度にどのような影響があるかを確かめた. また, 最新の研究のseq2seqな共参照解析モデルによって, 特に長文に対してモデルの精度が改善されたということから, 今後のアプローチについて述べる. ***
 
白井 尚登 M, 2回目発表 自然言語処理学 渡辺 太郎, 中村 哲, 上垣外 英剛
title: Linguistic Knowledge in Pre-trained Vision-and-Language Models
abstract: This research targets machine learning models that have learned visual and linguistic information. We are going to analyze how learning images affects the acquisition of linguistic knowledge. We present the analysis results of the encoder-only model and discuss future prospects.
language of the presentation: Japanese
発表題目: 事前学習済みVision-and-Languageモデルが獲得した言語知識の分析
発表概要: 本研究では視覚と言語情報を学習した機械学習モデルを対象にし, 画像を学習することが言語知識の獲得にどう影響を与えるかについて分析を行っている. Encoder-onlyモデルの分析結果について発表し, 今後の展望について述べる.