柏木潔 | 1151034: M, 2回目発表 | 松本裕治, 鹿野清宏, 新保仁, 小町守 |
title: Estimating omitted information of opinions for customer reviews
abstract: Customer reviews can be useful for purchasing items and developing items. But, recently, as users of web shopping are increased, the number of reviews is enormous and it is difficult to get desired information eficiently. To solve this problem, there are many studies of opinion mining. But these studies eliminate opinion if there is an evaluation and isn't an aspect. So, in my study, I proposed the method to estimate aspects and get opinions widely even if they are omitted. language of the presentation: Japanese 発表題目: カスタマーレビュー文書における省略された評価情報の推定 発表概要: 商品に対するレビュー文書は、商品の購入や商品開発における参考意見として、貴重な情報源となっている.しかし、近年Webショッピングの利用者の増加に伴い、レビュー文書の数は膨大なものとなり、求めている情報を効率良く得ることが困難となっている.その解決策として、意見情報や評判情報の抽出の研究が盛んに行われているが、これまでの研究では評価値があっても属性値が記述されていない場合は抽出対象から除外されてきた。そこで本研究では属性値が省略されている場合でも、その属性値を推定することでより網羅的に意見情報や評判情報を抽出することを目的とする。 | ||
澤井悠 | 1151054: M, 2回目発表 | 松本裕治, 鹿野清宏, 新保仁, 小町守 |
title: Detecting verb selecting errors of ESL writing using mostly large-scale native corpus
abstract: "Verb selection" is quite difficult for ESL learners, as we can see the distribution of error tags appeared in various learners' English corpora. In a recent study, using semantic features such as the predicate-argument structure has proven to be effective for detecting verb selecting errors(Liu et al., 2010). Those previous works, however, have not used a large-scale native corpus which is proven to be effective in other grammar error detection task (Gamon, 2008), and not performed the evaluation on public test-set. In this presentation, we propose a new detecting technique for detecting verb selecting errors which is based on the recent work of (Gamon, 2008) for detecting and correcting determiner and preposition errors. A preliminary experiment on public ESL corpus has shown the performance of our baseline system based simply on n-gram language model. language of the presentation: Japanese 発表題目: 大規模ネイティブコーパスを主に用いた英語学習者作文中の動詞選択誤りの検出 発表概要: 様々な学習者コーパス中の誤り種別の分布から,動詞選択はどのような習熟度の英語学習者にとっても難しいタスクであることがわかる. これまで,動詞選択誤り検出・訂正タスクに対しては,意味的素性(述語項構造)の有効性が示されている[Liu et al., 2010]. しかし先行研究では,(1)学習者コーパスに比べ容易に利用できる,大規模なネイティブコーパスの有効性[Gamon, 2008]を活かしていないこと, (2)各手法の比較が可能な公開テストデータでの評価に欠けているという問題がある. 本研究では,前置詞・冠詞誤り検出で有効なGamonによる手法に基づく,動詞選択誤り検出手法を提案する. そして,一般公開されているデータセットに対する評価を行う. | ||
高橋弘志 | 1151062: M, 2回目発表 | 松本裕治, 鹿野清宏, 新保仁, 小町守 |
title: Extraction of Rumor Corrective Information from Twitter posts
abstract: Twitter, the microblogging service has become a popular information source. On Twitter, users can share topics by reposting other user's posts. But after the Great East Japan Earthquake, many rumors have been posted and spreaded. To prevent spreading of rumors, some researchers have extracted tweets which tend to the uncertainty of rumors as Rumor Corrective Information. But they can extract tweets only indlude "デマ". So I will solve this problem by using users relation and extract more Rumor Corrective Indormation. language of the presentation: Japanese 発表題目: Twitterの投稿からの流言訂正情報の抽出 発表概要: マイクロブログの一種であるTwitterは情報交換の手段として活発に利用されている.Twitterでは再投稿機能によって話題の共有,拡散が行われるが,東日本大震災直後には多くのデマや流言も拡散された.流言の拡散を防止するために,流言の不確かさについて言及した投稿を「流言訂正情報」とし,流言に関するツイートの集合からこれを抽出する研究が行われている.しかし従来の研究には,「デマ」などの特定の単語を含む流言訂正情報しか抽出できないという問題があった.本研究では,ユーザ間の関係をはじめとした情報を利用することによってこの問題を解決し,より多くの流言訂正情報を抽出することを目的とする. | ||
三谷亮介 | 1151102: M, 2回目発表 | 松本裕治, 鹿野清宏, 新保仁, 小町守 |
title:An automatic method for collecting a new word sense and its example for constructing new natural language processing resources.
abstract:To get a new word sense for existing word is important in natural language processing. In particular,In opnion mining task,A vocabrary of word sense effects a system performance directly. But,the work find a new sense needs a lot of human effort. We are going to try to find a new word sense automaticaly to use a changing word usage over the time. And,We will comepare the poformance of it with some existing WSD methods. language of the presentation: Japanese | ||