| 升屋 結女 | M, 1回目発表 | サイバネティクス・リアリティ工学 | 清川 清 | 安本 慶一 | 内山 英昭 | Perusquia Hernandez Monica | 平尾 悠太朗 |
|
title: Development and Evaluation of a Near Work Restriction System for Children
abstract: The progression of myopia in children has become a serious global social issue, with prolonged near work and insufficient outdoor activity identified as primary causes. This study aims to develop and evaluate a system enabling children to voluntarily and enjoyably reduce near work. Specifically, it uses a web camera and eye tracker to monitor eye movements, presenting mini-games utilizing projection mapping during near work to promote eye movements that may suppress myopia. Evaluation experiments measure eye position and convergence angle during near work with and without the mini-game, comparing and verifying whether eye strain from near work returns to its original state. This aims to clarify the system's effectiveness as an intervention method for suppressing children's near work. language of the presentation: Japanese 発表題目: 小児のための近業抑制システムの開発・評価 発表概要: 小児の近視進行は、世界的に深刻な社会問題となっており、その主な原因として長時間の近業作業や屋外活動の不足が指摘されている。本研究では、子どもが主体的かつ楽しく近業作業を抑制できるシステムの開発と評価を目的とする。具体的には、Webカメラとアイトラッカーを用いて目の動きをモニタリングし、近業作業中にプロジェクションマッピングを活用したミニゲームを提示することで、近視を抑制可能な眼運動を促す。評価実験では、ミニゲーム実施時と非実施時の近業作業における眼位や輻輳角を測定し、近業による眼の負荷が元の状態に戻るかどうかを比較・検証する。これにより、子どもの近業抑制に効果的な介入手法としての有効性を明らかにすることを目指す。 | |||||||
| 松本 敬 | M, 1回目発表 | サイバネティクス・リアリティ工学 | 清川 清 | 向川 康博 | 内山 英昭 | Perusquia Hernandez Monica | 平尾 悠太朗 |
|
title: Proposal of a Pseudo-haptics Method Using 3D Reverse-Phi Illusion Effect
abstract: Pseudo-haptics is a low-cost, versatile method that can express tactile sensations using only vision without physical devices. The currently mainstream C/D ratio manipulation method presents a sense of weight or speed by shifting the actual position of an object from its virtual position, but the effectiveness decreases when the discrepancy is large. Therefore, this research aims to overcome this problem and realize a new pseudo-haptic presentation by utilizing the Reverse-Phi illusion, which makes objects appear to move even when they are still. language of the presentation: Japanese 発表題目: 3次元Reverse-Phi錯視効果を用いたPseudo-haptics手法の提案 発表概要: Pseudo Haptics(擬似触覚)は、物理デバイスなしで視覚だけで触覚を表現できる低コストで汎用的な手法である。現状主流のC/D比操作は、対象物の実際の位置と仮想位置をずらして重量感や速度感を提示するが、乖離が大きいと効果が低下する問題がある。そこで本研究では、静止していても動いて見えるReverse-Phi錯視を利用することで、この問題を補い新たな擬似触覚提示を実現することを目指す。 | |||||||
| 森下 詠心 | M, 1回目発表 | サイバネティクス・リアリティ工学 | 清川 清 | 加藤 博一 | 内山 英昭 | Perusquia Hernandez Monica | 平尾 悠太朗 |
|
title: Investigation of the Effect of Pseudo-Haptic Feedback Using the Infinite Motion Illusion on Perceived Resistance
abstract: Pseudo-haptics is a technique that induces haptic and force sensations through the manipulation of visual feedback, and conventional approaches based on Control/Display (C/D) ratio modification have been extensively studied. However, these methods inherently introduce a mismatch between the user’s actual input and the displayed movement, which can lead to discomfort and reduced controllability. This issue becomes particularly pronounced in environments such as AR, where the user’s real hand motions are directly visible. To address this limitation, we propose a new pseudo-haptic method that employs the infinite motion illusion, which induces perceived motion solely through luminance changes, enabling the presentation of haptic illusions without introducing positional discrepancies. We are currently preparing an evaluation experiment in a 2D cursor-control environment to investigate the fundamental effectiveness and perceptual strength of the proposed method. language of the presentation: Japanese 発表題目: 無限運動錯視を用いた疑似触覚提示が主観的抵抗感に及ぼす影響の調査 発表概要: Pseudo-hapticsは、視覚的フィードバックの操作によって触覚や力覚の錯覚を生じさせる技術であり、C/D比(Control/Display ratio:手の実際の操作量に対する画面上の動きの比率)を用いた従来手法が広く研究されてきた。しかし、この手法は実際の操作量と画面上の動きの不一致を伴うため、違和感や操作性の低下を招きやすく、特に自分の手の動きが可視なAR環境等では効果が弱まるという課題がある。そこで本研究では、位置の不一致を生じさせず触覚錯覚を提示する新たな方法として、輝度変化のみで動きを知覚させる無限運動錯視を利用したPseudo-haptics手法を提案する。現在は、本手法の基礎的な効果を検証するため、2Dカーソル操作環境における感覚強度の評価実験を準備している。 | |||||||
| 氷見 和 | M, 1回目発表 | ソーシャル・コンピューティング | 荒牧 英治 | 渡辺 太郎 | 若宮 翔子 | 西山 智弘 | |
|
title: Performance Evaluation of Summary Generation that Mimics Individual Physicians’ Writing Styles
abstract: In clinical practice, authoring medical documents, such as discharge summaries, accounts for a substantial portion of healthcare professionals’ workload, and large language models (LLMs) are expected to support this process. The style and content of summaries, however, vary across physicians, while previous studies have typically evaluated summarization without considering such physician-specific writing differences. In real-world clinical settings, it is desirable that generated documents reflect individual physician characteristics, such as their specialty. Therefore, in this study, we evaluate whether an LLM can imitate physician-specific writing styles via in-context learning (ICL). As data, we use a comparable corpus in which multiple physicians independently summarized the same clinical documents in their own styles, and we evaluate generated summaries from two perspectives, namely style similarity (ROUGE-L, BLEU) and content similarity (BERTScore, agreement of medical entities). Our experiments show that providing example summaries written by a specific physician in the ICL context enables the LLM to generate personalized summaries that are closer to that physician in both style and content. These findings suggest that, by supplying physician-authored summaries as context, it is possible to realize medical document summarization that reflects the characteristics of individual physicians. language of the presentation: Japanese 発表題目: 医師個人に向けたパーソナライズド文書生成の評価 発表概要: 臨床現場において,退院サマリをはじめとする医療文書の作成は,医療従事者の業務時間の大きな割合を占めており,大規模言語モデル(LLM)による作成支援が期待されている.作成される要約においては,医師ごとにスタイルおよびコンテンツが異なるが,従来の研究ではこれらの書き方の違いを考慮しない評価であった.しかし,臨床現場では,担当している診療科など,個々の医師の特性を反映した文書生成が望まれる.そこで本研究では,LLMがIn-Context Learning(ICL)で医師特有の書き方を模倣できるのかを評価した.材料には,同一の医療文書に対し,複数医師がそれぞれの書き方で要約したコンパラブルコーパスを使用し,評価は,スタイルの類似度(ROUGE-L,BLEU)とコンテンツの類似度(BERTScore,医療エンティティの一致度)の2つの観点で行った.その結果,ICLに特定医師の要約例を提示することで,スタイルとコンテンツの両面でその医師にパーソナライズド要約が生成可能であることを示した.本研究の発展として,医師が作成した要約を与えることで,その医師の特性を反映させた医療文書要約の実現が期待される. | |||||||
| 田代 勇希 | M, 1回目発表 | ソーシャル・コンピューティング | 荒牧 英治 | 渡辺 太郎 | 若宮 翔子 | 西山 智弘 | |
|
title: Evaluating Normalization Methods for Japanese Medical Terms
abstract: With the advancement of Large Language Models (LLMs), there are growing expectations for Real-World Data (RWD) analysis utilizing clinical documents to understand disease pathology, discover new treatments, and develop pharmaceuticals. Clinical documents contain lexical variations such as typos and abbreviations; thus, term normalization is essential for their secondary use in clinical research. However, comprehensive evaluation of normalization methods targeting Japanese medical text remains insufficient, and the effectiveness of LLMs has not been fully clarified. Furthermore, considering real-world deployment, inference time is crucial, yet few studies have evaluated both performance and inference time simultaneously. In this study, we comprehensively evaluated medical term normalization methods using Japanese resources in terms of both accuracy and inference time. Specifically, we compared dictionary-based, machine learning, Bi-encoder, and LLM-based methods, assessing Accuracy and inference time per disease name entry for normalizing disease names in case reports and radiology reports. The results showed that a method re-ranking the output of a Bi-encoder model fine-tuned on a Japanese medical dictionary using an LLM achieved the highest accuracy (Accuracy@1), while the dictionary-based method was the fastest in inference time. This study clarifies the trade-off between accuracy-oriented methods and inference time-oriented methods for practical operation, providing guidelines for selecting methods suitable for clinical application. Future work is expected to address the optimization of LLM fine-tuning methods and the reduction of inference time. language of the presentation: Japanese 発表題目: 日本語医療用語に対する様々な正規化手法の評価 発表概要: 大規模言語モデル(LLM)の性能向上に伴い,病院内に蓄積された文書を利用し,病態の理解,新たな治療法の発見・医薬品の開発などを目指すリアルワールドデータ解析への期待が高まっている. 病院内文書には誤字や略語などの表記揺れが存在し,臨床研究などでの二次利用には用語の正規化が必要である. しかし,日本語医療テキストを対象とした正規化手法の包括的評価は十分に行われておらず,LLMの有効性も明らかになっていない. さらに,実運用を考慮すると推論時間も重要だが,性能と推論時間を同時に評価した研究は限られている. 本研究では,日本語リソースを用いた医療用語の正規化手法を,精度および推論時間の両面から包括的に評価した. 具体的には,辞書,機械学習,Bi-encoder,LLMベース手法を比較対象とし,症例報告および読影レポート中の病名正規化について,Accuracy・病名エントリごとの推論時間を比較した. 評価の結果,日本語医療辞書でファインチューニングしたBi-encoderモデルの出力結果をLLMでリランキングする手法が最高精度(Accuracy@1)を示し,推論時間では辞書ベース手法が最速であった. 本研究は,精度重視の手法と実運用を意識した推論時間重視の手法とのトレードオフを明示し,臨床応用に適した手法選択の指針を提供する. 今後は,LLMのファインチューニング手法の最適化や推論時間短縮の検討が期待される. | |||||||
| 古里 祥大 | M, 1回目発表 | ソフトウェア設計学 | 飯田 元 | 松本 健一 | 柏 祐太郎 | Reid Brittany | |
|
title: Revisiting Bug Priority
abstract: In modern software development, a large number of bugs are reported on a daily basis. To maintain development efficiency under limited resources, rapid and appropriate bug management is essential. Bug priority tags are one mechanism used to support this process; however, prior studies over the past decade have argued that priority tags are not effectively utilized in real-world development environments. In contrast, the importance of priority tags has grown in recent years due to the acceleration of software release cycles. This study aims to re-examine the role and impact of bug priority tags in development by analyzing and comparing their usage in 2014 and 2024. language of the presentation: Japanese 発表題目: バグ優先度の再検討に向けて 発表概要: ソフトウェア開発の現場では日々大量のバグが報告されており、限られたリソースの中で効率的に開発を進めるためには、迅速かつ適切なバグの管理が必要不可欠である。 その一手法としてバグ優先度タグが利用されているが、過去10年の先行研究では、優先度タグは実際の開発現場では十分に活用されていないと指摘されてきた。 一方で、現代ソフトウェア開発の現場では、開発リリースサイクルの高速化により優先度タグの重要性が以前より増している。 本研究では、2014年と2024年の優先度タグの使用実態を分析し、比較することで開発におけるバグ優先度タグの影響を再検討することを目的とする。 | |||||||
| 渡邊 幹 | M, 1回目発表 | ソフトウェア設計学 | 飯田 元 | 松本 健一 | 柏 祐太郎 | Reid Brittany | |
|
title: Towards Leveraging Program Invariant Changes for Just-In-Time Defect Detection
abstract: In recent years, research has been conducted on just-in-time defect prediction, which predicts whether defects are present in changes each time a developer commits. While many existing methods extract static metrics from source code, they cannot detect cases where even small changes significantly alter software behavior and introduce defects. This research proposes dynamic metrics that capture program runtime behavior at the variable level, aiming to detect anomalies at the behavioral level that were previously missed by conventional methods. language of the presentation: Japanese 発表題目: プログラム不変条件の変化を活用したジャストインタイム欠陥検出に向けて 発表概要: 近年,開発者がコミットを行う度に変更に欠陥が含まれているかを予測するJIT欠陥予測研究が行われている.既存手法の多くはソースコードから静的メトリクスを抽出しているが,小規模な変更でもソフトウェアの振る舞いが大きく変化し欠陥となるケースを検出できない.本研究では,プログラムの実行時動作を変数レベルで捉える動的メトリクスを提案し,従来手法では見逃されていた振る舞いレベルの異常の検出を目指す. | |||||||
| 八鍬 海 | M, 1回目発表 | ヒューマンAIインタラクション | Sakriani Sakti | 安本 慶一 | 大内 啓樹 | Faisal Mehmood | Bagus Tris Atmaja |
|
title: Accuracy and impact assessment of AI-based text emotion and subjectivity adjustment
abstract: This study proposes an approach based on self-other identification in dialogue to mitigate polarization. The researchers examine the self-other identification ability of dialogue by adjusting the emotion and subjectivity of text using LLM. The method is Self-Other Integration, which integrates in-group and out-groups into the self, creating an internal dialogue, based on the Common Ingroup Identity Model. Experiments evaluated the accuracy of speaker detection using LLM. LLM is capable of text-based speaker detection for 2-5 speakers. In the accuracy assessment of the self-other integration transformation, "Two-person dialogue" was the most difficult, as LLMs tend to keep conflicts between two people separate and fail to integrate them. Multiple people tended to integrate them as "internal variations," showing high accuracy in individualization in multi-party dialogues (three or more people). The conclusion is that there is high accuracy in individualization in multi-party dialogues but difficulty integrating opposing two-party structures. Future work plans include improving integration performance through prompt design and additional learning. language of the presentation: Japanese 発表題目: AIによるテキストの感情および主観性の調整の正確性と影響評価 発表概要: 本研究は、二極化を軽減するため、LLMを用いてテキストの感情と主観性を調整し、対話における自己・他者同定能力を検証した 。手法は、内集団と外集団を自己に統合する自己・他者統合であり、共通内集団アイデンティティモデルに基づいている 。実験では、LLMによる話者検出の精度を評価した 。2〜5話者のテキストベースの話者検出は可能であった 。自己・他者統合変換の精度評価では、2人対話が最も難しく、LLMは対立を分離し統合に失敗する傾向があった 。多人数対話(3人以上)では、LLMはそれを内部の変動として統合する傾向があり、高い精度を示した 。結論として、多人数対話での個性化は高精度だが、2人対話での統合の難しさが示された 。今後はプロンプト設計や追加学習による性能改善などを計画している 。 | |||||||
| HU HONGWEI | M, 1回目発表 | ヒューマンAIインタラクション | Sakriani Sakti | 加藤 博一 | 大内 啓樹 | Faisal Mehmood | Bagus Tris Atmaja |
|
title: *** Speech-driven Facial Expression Generation ***
abstract: *** Realizing high-fidelity speech-driven facial animation demands the ability to independently manipulate facial expressions without altering the subject's identity. This study introduces a novel self-supervised framework for disentangling facial "Identity" and "Expression" from large-scale, unlabeled data. Addressing the limitations of existing models in achieving fine-grained, label-free control, we propose a dual-encoder architecture constrained by mutual information minimization and consistency losses. This approach aims to autonomously isolate attributes to enable continuous facial editing. Preliminary results demonstrate robust image reconstruction and a highly smooth latent space that supports natural expression interpolation. While full disentanglement remains an ongoing challenge, our method offers a promising direction for interpretable and controllable facial synthesis. *** language of the presentation: *** English *** | |||||||
| ZHANG YUTING | M, 1回目発表 | ヒューマンAIインタラクション | Sakriani Sakti | 渡辺 太郎 | 大内 啓樹 | Faisal Mehmood | Bagus Tris Atmaja |
|
title: *** Exploring Speech Embeddings for Dialectal Speech: Case Studies on English and Japanese ***
abstract: *** Dialectal variation is a primary source of phonetic variability in speech processing. Distinctive dialectal classification is a challenging task due to the complexity and diversity of dialects, which are shaped by a confluence of factors including geographical isolation social-economic environments and cultural backgrounds. While recent studies indicate that self-supervised (SSL)pre-trained models demonstrate remarkable performance in transfer learning for various speech tasks, their distinction difference in low-resource speech, particularly dialect speech remains unexplored. To bridge this gap, this research explores a comparative analysis of the application of speech embedding techniques for dialect identification in two linguistically divergent languages, English and Japanese, to evaluate the cross-lingual generalization capabilities of these embeddings. This research aims to provide insights into the nature of dialect-specific information captured by such representations. language of the presentation: *** English *** | |||||||
| 林 正悟 | M, 1回目発表 | ユビキタスコンピューティングシステム | 安本 慶一 | 向川 康博 | 諏訪 博彦 | 松井 智一 | |
|
title: Construction of a 3D Space for Generating Synthetic Data to Improve Indoor Activity Recognition Accuracy
abstract: In recent years, the importance of indoor human behavior recognition technology has grown significantly for elderly monitoring and smart home control. Improving recognition accuracy requires large amounts of training data, but collecting data in real environments is difficult due to privacy concerns and involves significant costs for filming and environment setup. Therefore, this research aims to improve recognition accuracy by automatically generating 3D indoor spaces from 2D floor plans and utilizing behavior data collected in virtual environments as a substitute for real-world data. Specifically, segmentation processing is first applied to the floor plan to generate a file describing each room's structure and coordinate information. Next, using this file as input, a 3D space generation tool is employed to automatically reconstruct the indoor environment, including furniture placement. Data simulating human actions is then generated within this reconstructed virtual space and utilized as training data. To evaluate the effectiveness of virtual data in improving accuracy, the following experiments are conducted. First, baseline accuracy is measured using videos captured in an actual smart home environment for a model that has not been trained on smart home data. Next, the model is fine-tuned using behavior data generated in the virtual space, and accuracy is measured again on the same videos. Comparing these two results quantitatively verifies the extent to which virtual data contributes to improving behavior recognition accuracy in real-world environments. language of the presentation: Japanese 発表題目: 宅内行動認識精度の向上に向けた疑似データ生成のための3次元空間の構築 発表概要: 近年、高齢者の見守りやスマートホーム制御において、室内での人の行動認識技術の重要性が高まっている。行動認識の精度向上には大量の学習データが必要であるが、実環境でのデータ収集はプライバシー保護の観点から困難であり、また撮影や環境構築に多大なコストを要する。そこで本研究では、2D間取り図から3D室内空間を自動生成し、仮想環境で収集した行動データを実世界のデータの代用として活用することで、行動認識精度の向上を目指す。具体的には、まず間取り図に対してセグメンテーション処理を施し、各部屋の構造や座標情報を記述したファイルを生成する。次に、このファイルを入力として3D空間生成ツールを用い、家具配置を含む室内環境を自動的に再構築する。再構築された仮想空間内で人の行動を模擬したデータを生成し、これを学習データとして活用する。評価では、仮想データによる精度向上効果を検証するため、以下の実験を行う。まず、スマートホーム環境の学習を行っていないモデルに対し、実際のスマートホームで撮影した動画を用いてベースライン精度を測定する。次に、仮想空間で生成した行動データによりモデルをファインチューニングし、同一の動画で再度精度を測定する。これら2つの結果を比較することで、仮想データが実環境における行動認識精度の向上にどの程度寄与するかを定量的に検証する。 | |||||||
| 前地 和華 | M, 1回目発表 | ユビキタスコンピューティングシステム | 安本 慶一 | 向川 康博 | 諏訪 博彦 | 松井 智一 | |
|
title: Privacy-preserving Activity Recognition
abstract: In recent years, point cloud data obtained from depth sensors has garnered attention as a method for privacy-preserving activity recognition. This is because it can abstract motion features without containing detailed visual information about individuals or their environments. However, it is not yet fully understood which specific elements within a point cloud contribute to activity recognition and which lead to personal identification.In this study, we aim to establish a framework that extracts only the features necessary for activity recognition while removing privacy-sensitive information from point clouds in real-time. To lay the groundwork, in addition to an activity recognition model, we construct a personal identification model capable of detecting individual-specific structures and behavioral habits contained in the point clouds, thereby isolating and evaluating their respective influences. Through this approach, we intend to gain insights into achieving privacy protection in point cloud-based activity recognition and advance the development of secure and highly anonymous systems. language of the presentation: Japanese 発表題目: プライバシー保護を考慮した行動認識 発表概要: 近年、深度センサから得られる点群データは、個人や環境の細かな外観情報を持たずに動作の特徴だけを抽象化できる点から、プライバシーに配慮した行動認識手法として注目されている。しかし、点群中のどの要素が行動認識に寄与し、どの要素が個人識別につながるのかは十分に理解されていない。本研究では、点群からプライバシーに関わる情報をリアルタイムに除去しつつ、行動認識に必要な特徴のみを抽出する枠組みの確立を目指す。そのための基盤として、行動認識モデルに加えて、点群に含まれる個人特有の構造や動作の癖を検出する個人識別モデルを構築し、両者の影響を切り分けて評価する。これにより、点群ベースの行動認識におけるプライバシー保護の実現に向けた知見を得るとともに、安全で匿名性の高い行動認識システムの開発を進める。 | |||||||
| 椋本 純 | M, 1回目発表 | ユビキタスコンピューティングシステム | 安本 慶一 | 清川 清 | 諏訪 博彦 | 松井 智一 | |
|
title: Evaluation of a System to Motivate Annotation for In-home Daily Activity Recognition
abstract: We evaluate a novel system to foster voluntary activity annotation by residents, with the aim of advancing activity recognition in the home. Accurate AI-powered activity recognition in smart homes require manual labeling (annotation) by residents, which maintaining motivation is difficult. To address this issue, a previous research has proposed a new system which utilizes techniques from behavioral economics such as nudging and gamification. Its key features include virtual agents with 3D avatars, tracking contributions, and rewarding for achievements. However, the system has not been completely implemented and many of its effectiveness is not evaluated. We evaluate the system by completing it and testing it through an experiment. language of the presentation: Japanese | |||||||
| 森近 拓生 | M, 1回目発表 | 光メディアインタフェース | 向川 康博 | 清川 清 | 藤村 友貴 | 北野 和哉 | |
|
title: Transferring Scene Features for Robust 3D Reconstruction across Lighting Environment
abstract: 3D reconstruction, which recovers 3D shapes from imagery, has witnessed substantial advancements in the field of computer vision, However, a persistent challenge remains: existing models often fail to account for heterogeneous illumination conditions. Consequently, this study proposes a robust and versatile framework designed to achieve high-fidelity 3D reconstruction, even under varying lightning environments. Specifically, we propose a method that utilizes diffusion-based image-to-image translation to normalize illumination across images with heterogeneous lighting conditions, while preserving structural consistency. As a preliminary investigation, we propose an application of diffusion models that conditions on depth images as an intermediate representation to eliminate factors such as color and texture, retaining only pure structural information. language of the presentation: Japanese 発表題目: 照明環境の異なる画像に対する三次元再構成モデルの性能改善 発表概要: 画像から三次元形状を復元する三次元再構成は,コンピュータビジョン分野において近年著しい発展を遂げているタスクである。しかし,既存のモデルは,照明環境が異なる画像を用いた再構成を想定しておらず,依然として課題が残されている。そこで本研究では,照明環境が異なる画像に対しても高品質な三次元再構成が可能な,ロバストで汎用性の高い手法の確立を目指す。具体的には,照明環境の異なる画像に対し,拡散モデルを用いたImage-to-Image変換により,構造的な一貫性を保持しつつ画像の照明環境を統一する手法を提案する。現在までの進捗として,色調やテクスチャといった要素を排除し,純粋な形状情報のみを持つ中間表現として深度画像を条件とした拡散モデルの適用法を提案する。 | |||||||
| YUAN YUAN | M, 1回目発表 | 光メディアインタフェース | 向川 康博 | 安本 慶一 | 藤村 友貴 | 北野 和哉 | |
|
title: Verification of Show-through Model for Historical Documents via Hyperspectral Imaging
abstract: Show-through is a common problem in Japanese historical documents, caused by aged and thin paper fibers that allow back-side text to appear on the front. This phenomenon is undesirable in digitization of the documental heritage that one would like to remove. In this research, the show-through phenomenon is analyzed in the hyperspectral domain, evaluating its feasibility for show-through separation. We used black, gray, and white mounts to vary the intensity of show-through and observed its characteristics. These results provide important insight for constructing a show-through model in the hyperspectral domain and for visualizing back-side image from one piece of paper in the future. language of the presentation: Japanese 発表題目: 分光計測を用いた古文書の裏写りモデルの検証 発表概要: 日本の古文書では,紙質が経年劣化して薄くなることにより,裏面の文字が表面に透けて見える「裏写り」がしばしば発生する.この現象は文化財のデジタル化において望ましくなく,可読性を向上させるためには除去が求められる.本研究では,裏写りをハイパースペクトル領域で分析し, その分離の可能性を評価した.また,実験で黒・灰・白の台紙を用いて裏写りの強さを変化させ,その特性を観測した.本研究を通して,今後はハイパースペクトル領域における裏写りモデルの構築や,1枚の古文書から裏面文字を可視化するのが期待できる. | |||||||
| 宮川 甫哉 | M, 1回目発表 | 光メディアインタフェース | 向川 康博 | 林 優一 | 藤村 友貴 | 北野 和哉 | |
|
title: Non-line-of-sight imaging using laser speckle and 2DGS
abstract: Non-line-of-sight imaging technology, which captures objects located in regions not directly visible from the camera, is expected to find applications such as early detection of blind-spot objects in autonomous driving and non-destructive inspection in confined spaces. However, existing methods that use pulsed laser or holography technologies require additional devices and configurations such as SPAD (Single-Photon Avalanche Diode) sensors and interferometric light sources. Therefore, this study proposes a non-line-of-sight imaging method that uses only a continuous-wave laser. When coherent light is irradiated onto a rough surface, a speckled scattering pattern called speckle is generated. By observing on a relay wall the speckle generated from a hidden object and optimizing the shape of the hidden object, represented by 2DGS (2D Gaussian Splatting), so that it is consistent with the physical model, we reconstruct the hidden object. At present, I am creating a simulation of the speckle wavefront scattered from a planar surface at an arbitrary angle. language of the presentation: Japanese 発表題目: レーザースペックルと2DGSを用いた非視線方向撮影 発表概要: カメラから直接見えない場所にある物体を撮影する非視線方向撮影技術は, 自動運転における死角物体の早期検知や, 狭い空間内での非破壊検査などの応用が期待されている. しかし, パルスレーザーやホログラフィ技術を用いる既存の手法では, SPAD(Single-Photon Avalanche Diode)センサーや干渉光源など追加の機器や構成が必要である. そこで, 本研究は連続波レーザーのみを用いた非視線方向撮影手法を提案する. コヒーレント光を粗面へ照射すると, スペックルと呼ばれる斑点状の散乱パターンが生じる. 隠れた物体から生じるスペックルを中継壁で観測し, 物理モデルと整合するよう2DGS(2D Gaussian Splatting)で表される隠れた物体の形状を最適化することで, 隠れた物体を再構成する. 現在は, 平面から任意の角度で散乱されるスペックル波面のシミュレーションを作成中である. | |||||||
| 東堤 瑞花 | M, 1回目発表 | 数理情報学 | 池田 和司 | 藤原 幸一 | 久保 孝富 | 日永田 智絵 | LI YUZHE |
|
title: Extracting autonomic nervous states from monkey ECG with CEBRA toward drug side-effect detection
abstract: Drug-induced convulsions occurring during clinical drug testing pose a significant risk to monkeys, making early detection essential. This study investigated whether latent representations of R–R interval (RRI) data obtained from monkey ECGs can distinguish normal circadian variations from pharmacological changes within the latent space. A method incorporating time-of-day information as an auxiliary variable was used to learn the latent structure. Latent embeddings obtained from CEBRA were visualized using time-of-day, event information, and heart rate variability (HRV) indices, and structural changes were compared across experimental conditions. In the non-treated condition, the latent space exhibited a clear periodic structure with smooth trajectories reflecting circadian rhythms and HRV fluctuations. In contrast, under drug-administration conditions, the periodic structure was distorted, showing changes that likely correspond to abnormal physiological states. These findings suggest that latent representations based on RRI and time-of-day information can spatially separate physiological circadian variations from pharmacological effects. Future work will focus on developing anomaly detection methods utilizing deviations within and from the latent structure for early detection or prediction of convulsions. language of the presentation: Japanese 発表題目: 薬剤副作用検出に向けたCEBRAを用いたサル心電図からの自律神経状態抽出 発表概要: 薬剤の臨床試験において発生する薬物誘発性痙攣はサルに重大なリスクをもたらすため、その早期検出が求められる。本研究では、サル心電図から得られる心拍間隔(RRI)の潜在表現構造を解析することで、正常な概日変動と薬理作用による変化を潜在空間上で区別できるかを検討した。解析には、時刻情報を補助的に用いて潜在構造を学習する手法を採用した。 得られた潜在表現を時間帯・イベント情報・HRV指標により可視化し、実験条件間での構造変化を評価した。その結果、薬剤非投与条件では潜在空間に明瞭な周期構造が形成され、概日リズムやHRV変動を反映した滑らかな軌道が確認された。一方、薬剤投与条件では周期構造の歪みが生じ、異常状態に対応すると考えられる構造変化が認められた。 以上より、RRIと時刻情報に基づく潜在表現は、生理的な概日変動と薬理作用による変化を空間的に分離し得る可能性が示唆された。今後は潜在構造からの逸脱を用いた異常検知手法の開発を目指す。 | |||||||
| ZHANG XINYU | M, 1回目発表 | 数理情報学(計算神経科学) | 池田 和司☆ | 川鍋 一晃 | 杉本 徳和 | ||
|
title: Independent Contributions of Shape Similarity and Learning-Dependent Semantic Similarity to Neural Activity During Object Recognition
abstract: This study aims to investigate how visual shape similarity and learned semantic similarity will independently contribute to the temporal dynamics of brain activity during object recognition. Previous studies often rely on participants’ pre-existing categorical knowledge, which may introduce uncontrolled individual differences. To address this limitation, this study will define semantic categories experimentally and require participants to learn them during the procedure. Shape similarity will be computed from grayscale object images based on pixel overlap, and semantic similarity will be based on assigned meaning labels. Representational dissimilarity matrices (RDMs) will be constructed separately from shape similarity or semantic similarity, which will be used to control shape and semantic attribute within the stimulation pair. Participants will be asked to answer the shape or sematic similarity of the stimulation pair according to instruction, while Electroencephalography (EEG) is recorded. Planned analyses will examine Event Related Potential (ERP) components (N200, P300, N400) and apply representational similarity analysis (RSA) to evaluate how ERP time courses correspond to the shape and semantic RDMs, thereby clarifying their distinct contributions to object recognition. language of the presentation: Japanese 発表題目: 形状類似性と学習依存な意味類似性が物体分類時の脳活動に与える独立的寄与 発表概要: 本研究は,物体認識過程において,視覚的な形状類似性と,学習によって形成される意味類似性が,脳活動の時間的ダイナミクスにどのように独立して寄与するのかを明らかにすることを目的とする.先行研究の多くは,被験者が既にもっているカテゴリー知識に依存しており,その結果,個人差を十分に統制できないという問題がある.本研究ではこの問題に対処するため,意味カテゴリーを実験的に定義し,被験者に実験中にその意味カテゴリーを学習させる. 形状類似性は,グレースケール化した物体画像のピクセルの重なりに基づいて算出し,意味類似性は付与した意味ラベルに基づいて算出する.これらから形状類似度と意味類似度のそれぞれに対する類似度行列(RDM)を構築し,刺激ペアの形状属性と意味属性を独立に制御するために用いる.実験では,被験者は提示された刺激ペアについて,指示に従い「形状が似ているか」または「意味が似ているか」を判断し,その間に脳波を記録する. 解析では,N200,P300,N400 といった事象関連電位成分を検討するとともに,事象関連電位の時間的推移が形状RDMおよび意味RDMとどのように対応するかを評価するためにRepresentational Similarity Analysis(RSA)を適用する.これにより,物体認識における形状と意味の独立した寄与を明確化することを目指す. | |||||||
| 李 玹炅 | M, 1回目発表 | 数理情報学(コミュニケーション学) | 池田 和司☆ | 岩田 具治 | 田中 佑典 | ||
|
title: Robustness Evaluation of Few-shot Learning via Clustering-based Extraction of Spurious Attributes
abstract: Few-shot learning models can achieve high recognition performance from only a small number of labeled examples, yet their predictions are often affected by non-essential factors such as background color or imaging conditions that happen to co-occur with class labels. These factors can induce spurious correlations and make the models fragile under distribution shifts. This research explicitly treats such potentially misleading factors as spurious attributes and aims to design Few-shot learning models that can suppress their influence across different data types and structures. At the current stage, we construct an artificial handwritten character image dataset in which background colors are systematically varied, and implement a method that applies clustering to image feature vectors to automatically extract common patterns such as background colors as candidate attributes. Using the attribute information derived from clustering, we then construct Few-shot tasks in which only the attribute distribution is intentionally changed between training and evaluation episodes, and analyze differences in robustness to spurious attributes by comparing a standard Prototypical Networks baseline trained with conventional episodic sampling against models that incorporate the extracted attributes into task design and learning. In future work, we plan to extend this approach to other visual patterns and graph-structured data, with the goal of realizing spurious-robust Few-shot learning across diverse data structures beyond images and text. language of the presentation: Japanese 発表題目: クラスタリングに基づくスプリアス属性抽出によるFew-shot学習の頑健性評価 発表概要: Few-shot学習モデルは、少数の教師データから高い認識性能を示す一方で、背景色や撮影条件など、ラベルと偶然に結び付いた本質的でない要因に予測が引きずられ、分布の変化に対して脆くなることが知られている。本研究では、このように疑似相関を引き起こす可能性のある要因をスプリアス属性として明示的に扱い、データの種類や構造が変化してもその影響を抑制できるFew-shot学習モデルの設計を目指す。現在は、背景色を系統的に変化させた人工的な手書き文字画像データセットを構成し、その上で画像特徴ベクトルに対するクラスタリングを用いて背景色などの共通パターンを属性候補として自動抽出する手法を実装している。さらに、得られたクラスタリング由来の属性情報を用いて、学習時と評価時で属性分布のみを意図的に変化させたFew-shotタスクを構成し、標準的なエピソードサンプリングで訓練したPrototypical Networksとの比較を通じて、スプリアス属性に対する頑健性の違いを分析する。今後は、背景色以外の視覚パターンやグラフ構造などへの適用を進め、画像やテキストに特化しない多様なデータ構造に対してスプリアス頑健なFew-shot学習を実現することを目指す。 | |||||||
| 馬場 珠希 | M, 1回目発表 | 脳・行動モデリング | 田中 沙織 | 清川 清 | CAI LIN | 荻島 大凱 | |
|
title: Eye movement characteristics of individuals with ADHD during gameplay
abstract: While traditional ADHD questionnaires have been criticized for lacking consistency and ecological validity, video game performance has been suggested as a potentially comparable method for evaluating psychological traits. In particular, prior studies have reported that eye movements in scrolling games reflect attentional control. Based on this, the present study hypothesizes that ADHD-related saccadic patterns can be detected from eye-tracking data recorded during gameplay. Individuals with ADHD are expected to exhibit an increased number of unnecessary saccades, difficulties in inhibiting saccades, and greater variability in fixation location, velocity, and accuracy. Therefore, the aim of this study is to investigate the feasibility of predicting ADHD using performance data from Flappy Bird in combination with eye-movement metrics, with a specific focus on saccades as the primary indicator informed by previous research. language of the presentation: Japanese 発表題目: ゲームプレイ中のADHD傾向者における眼球運動の特徴 発表概要: 従来のADHD質問紙は、一貫性や生態学的妥当性の欠如が指摘されており、一方でビデオゲームのパフォーマンスは、心理的特性を評価するための代替的手法として有望視されている。特に、スクロール型ゲームにおける眼球運動が注意制御を反映することが先行研究により報告されている。これに基づき、本研究では、ゲームプレイ中に取得されたアイトラッキングデータからADHD特有のサッケード(衝動性眼球運動)パターンを検出できると仮定する。ADHD傾向を持つ個人は、不要なサッカードの増加、サッケード抑制の困難さ、固視位置・速度・精度のばらつきの増大を示すと予測される。したがって本研究の目的は、フラッピーバードのプレイデータと眼球運動指標を組み合わせることで、特にサッケードに注目しつつ、ADHDの予測可能性を検討することである | |||||||
| 東 青空 | M, 1回目発表 | 脳・行動モデリング(計算神経科学) | 田中 沙織☆ | 川鍋 一晃 | 杉本 徳和 | 荻島 大凱 | |
|
title: Input Optimization of Optogenetic Neural Stimulation via Reservoir Computing
abstract: Recent progress in the field of optogenetics has allowed the neuroscience researchers to manipulate specific neuronal populations with millisecond precision to investigate causal circuit mechanisms. Despite these advances, there still remains the inverse problem of an input optimization—determining the exact stimulation pattern that will drive a neural circuit into a desired target activity. Even in computational brain models where the entire neural wiring diagram is known, identifying the optimal input signals remains challenging. The difficulty lies in the complex non-linear dynamical relationships between input and output neurons. Here, we propose a reservoir computing system to solve this input optimization problem. Reservoir computing is a machine learning framework that excels at processing temporal data and modeling chaotic, non-linear dynamical systems with low training complexity. Uniquely, the reservoir’s high-dimensional recurrent connectivity allows it to act as a latent dynamical space, effectively learning the inverse transfer function of the biological network through computationally efficient readout training. We plan to experimentally validate this framework using computational brain model of a fruitfly called FlyWire. This framework should provide a robust theoretical basis for optogenetic control with a possible capability of closed-loop dynamical control. language of the presentation: English | |||||||
| 門谷 拓能 | M, 1回目発表 | 自然言語処理学 | 渡辺 太郎 | Sakriani Sakti | 上垣外 英剛 | 坂井 優介 | |
|
title: Architecture-Specific Evaluation of LLM-Generated Code Optimizations on x86 CPUs
abstract: Recent large language models (LLMs) are increasingly used to generate not only correct programs but also “optimized” code that claims to outperform compiler-optimized baselines. However, it remains unclear on which CPU architectures these optimizations are truly effective, and in what situations they instead degrade performance or even break numerical correctness. In this work, we conduct an architecture-specific evaluation of LLM-generated code optimizations using PolyBench C kernels on several x86 CPU nodes available at NAIST. For each kernel, we automatically graft LLM-generated C code into the original harness, compile it with different compilers and optimization flags, and run it on CPUs with different SIMD capabilities such as AVX2 and AVX-512. We then compare execution time and numerical outputs with the original implementation, and analyze when and why the LLM-generated variants outperform or underperform the -O3 baseline. We further categorize typical optimization patterns suggested by the LLM (e.g., loop unrolling, tiling, manual vectorization) and discuss how their effectiveness depends on the underlying CPU architecture, outlining directions toward a more systematic benchmark for LLM-generated code in our future work. language of the presentation: Japanese 発表題目: LLM生成コード最適化のアーキテクチャ別性能評価 発表概要: 本発表では,各CPUアーキテクチャごとにLLM生成コードの最適化効果を評価した結果を報告する.近年の大規模言語モデル(LLM)は,コンパイラ最適化済みコードより高速だと主張する最適化版Cコードを生成できるようになっているが,その効果がどのアーキテクチャでどの程度現れるのか,逆に性能劣化や数値誤差を引き起こすケースは何かといった点は十分に整理されていない.本研究では,PolyBench Cを対象として,LLMが生成した最適化コードを元のハーネスに自動的に組み込み,複数のコンパイラ・最適化フラグを用いてビルドした上で,AVX2やAVX-512などSIMD機能の異なる複数のx86 CPUノード上で実行し,元実装と比較して実行時間および数値的一致性を評価する.発表では,LLM生成コードが-O3ベースラインを上回る条件,アーキテクチャの違いに依存した性能差,性能が悪化する典型パターンを示すとともに,LLMが提示するループ展開やタイル化,手動ベクトル化といった最適化パターンが各アーキテクチャでどのように振る舞うかを議論し,今後構築していく体系的なベンチマーク基盤の方向性についても述べる. | |||||||
| ZHAO HANFU | M, 1回目発表 | 自然言語処理学 | 渡辺 太郎 | Sakriani Sakti | 上垣外 英剛 | 坂井 優介 | |
|
title: The Geometry of Self-Correction: On-Policy Consistency for Robust and Efficient LLM Adaptation
abstract: Current post-training paradigms for Large Language Models, predominantly relying on static Supervised Fine-Tuning (SFT), suffer from a fundamental structural pathology: they treat learning as passive imitation rather than active adaptation. This "off-policy" approach frequently induces catastrophic forgetting by forcing models to traverse large distances in probability space, shattering prior knowledge representations to accommodate new data. This work presents a unified theoretical framework arguing that robust learning requires on-policy consistency—training the model on its own generated trajectories rather than external ground truth. Mathematically, we demonstrate that on-policy updates naturally follow the path of "least resistance," implicitly minimizing the Kullback-Leibler (KL) divergence between the new and original policy. This acts as a geometric conservation law, preserving general intelligence while acquiring specific skills. This mechanism mirrors the cognitive process of human learning: we do not master complex reasoning merely by memorizing textbook answers (off-policy), but by attempting problems, making specific errors, and correcting our own internal logic (on-policy). By operationalizing this "guided practice" via methods that apply dense teacher supervision to student-generated data, we bridge the gap between the stability of Reinforcement Learning and the efficiency of Supervised Learning. language of the presentation: English | |||||||