Spaces:
Sleeping
Sleeping
initial commit
Browse files- anlp2025.npz +3 -0
- anlp2025.tsv +778 -0
- app.py +64 -0
- poetry.lock +0 -0
- prepare_pool.py +17 -0
- pyproject.toml +23 -0
- requirements.txt +3 -0
- scrape.py +27 -0
anlp2025.npz
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:eaa1f373da6533b07ea6142a8a8266ae85175c4e86b4a5cc5dcd008b6ec2c2c1
|
3 |
+
size 5576968
|
anlp2025.tsv
ADDED
@@ -0,0 +1,778 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
A1-1 LLMのアテンションヘッドに着目したジェイルブレイク攻撃の分析と防御手法の提案
|
2 |
+
A1-2 Decoding the Mind of Large Language Models: A Quantitative Analysis of Thought Processes and Biases
|
3 |
+
A1-3 有害性評価と巻き戻しによる LLM の有害コンテンツ生成回避
|
4 |
+
A1-4 大規模言語モデルによる自己説明の忠実性は改善するか?
|
5 |
+
A1-5 検索拡張生成が信頼度に及ぼす影響:医療分野における分析
|
6 |
+
A1-6 手動設計の敵対的プロンプト手法の体系的分類
|
7 |
+
B1-1 自然言語における冪則と統語構造の関係の再考
|
8 |
+
B1-2 自然言語推論への応用を志向したセマンティックパージングの性能評価
|
9 |
+
B1-3 CCG 統語解析器 lightblue と定理証明器 wani によるJSeM Verbs データセットの自動推論
|
10 |
+
B1-4 一般化交差効果に対する型理論的アプローチ
|
11 |
+
B1-5 日本語話し言葉における形態素の出現数に対する統計的不定性の評価
|
12 |
+
B1-6 証明ステップの逆形式化とステップ間の構造解析を通じた形式証明の自然言語翻訳
|
13 |
+
C1-1 Toward Argument Structure Parsing in German: A Rule-Based Approach with Linguistic Annotations
|
14 |
+
C1-2 日本語創造性ベンチマークの構築
|
15 |
+
C1-3 The KISTEC: 日本の大学生の発話データに基づく英語学習者話し言葉コーパスの構築
|
16 |
+
C1-4 SNSからの重要意見抽出のためのデータセット構築及びLLMによる分類検証
|
17 |
+
C1-5 Swallowコーパスv2: 教育的な日本語ウェブコーパスの構築
|
18 |
+
C1-6 日本経済新聞記事オープンコーパス』と『日本語話し言葉コーパス』語義と読みの対応表の作成
|
19 |
+
D1-1 ガウス過程による埋め込み点集合の時間遷移のモデル化
|
20 |
+
D1-2 Transformerデコーダモデルを利用した日本語意味役割において,特徴量抽出位置およびAttention Maskの形状が与える影響
|
21 |
+
D1-3 Enhancing Fake News Detection through Consistency Contrastive Learning with MLP-Mixer
|
22 |
+
D1-4 ベイズ教師なし文境界認識
|
23 |
+
D1-5 テキストの埋め込み表現に基づくデータ増強を用いた X(旧 Twitter)における日本語の皮肉検出
|
24 |
+
D1-6 大規模言語モデルに対するチューニング手法の調査:内部のアクセス性に基づく分類と比較
|
25 |
+
E1-1 クレオールは計量的に峻別できるか?
|
26 |
+
E1-2 対象言語・対象単語を選ばない汎用的な文法化度の定量化手法
|
27 |
+
E1-3 文書筆記過程の分析に関わる墨跡の濃淡変化箇所推定手法の性能評価
|
28 |
+
E1-4 大規模言語モデルを用いた発掘調査報告書からの考古学情報抽出
|
29 |
+
E1-5 近世・近代・現代日本語テキストに対する場所参照表現抽出
|
30 |
+
E1-6 スタイロメトリによるコプト語文献の著者帰属の再検討
|
31 |
+
P1-1 訳出の同時性に特化した評価データを用いた同時音声翻訳モデルの評価と分析
|
32 |
+
P1-2 大規模反応データベースを用いた文字列化した化学反応の基盤モデル構築
|
33 |
+
P1-3 情報抽出による質の高い新規用途アイデアの獲得
|
34 |
+
P1-4 大規模言語モデルを用いた電子カルテのSOAP作成支援システムの開発
|
35 |
+
P1-5 大規模言語モデルの非対称的意思決定特性:プロスペクト理論要素の実証分析
|
36 |
+
P1-6 BERTを用いた誤訳検出とLLMを用いた誤訳訂正による特許翻訳の自動後編集
|
37 |
+
P1-7 テキスト生成における最小ベイズリスク復号の理論的な理解に向けて
|
38 |
+
P1-8 Domain-Aware Adaptation for Unsupervised Machine Translation
|
39 |
+
P1-9 JParaCrawl Chinese v2.0: クラウドソーシングを用いた日中対訳コーパスの構築
|
40 |
+
P1-10 Towards Modular Fine-tuning of LLM-based Multilingual Neural Machine Translation
|
41 |
+
P1-11 順送り訳データに基づく英日同時機械翻訳の評価
|
42 |
+
P1-12 Towards Scene Text Translation for Complex Writing Systems
|
43 |
+
P1-13 翻訳と言い換え ''(ソース)入力文:(ターゲット)入力文''の学習の有効性
|
44 |
+
P1-14 Adapting Multilingual Models for Specialized Translation through Mixed Fine-tuning
|
45 |
+
P1-15 フィールドワークデータによるジンポー語機械翻訳
|
46 |
+
P1-16 BART 文章校正モデルにおけるコピー機構の有用性の検証
|
47 |
+
P1-17 複数のLLMを活用した機械翻訳のための協力デコーディング
|
48 |
+
P1-18 mBART for Supervised Gloss-Free Sign Language Translation: Integrating RGB and Facial Keypoint Images
|
49 |
+
P1-19 ニューラルかな漢字変換システム Zenzai
|
50 |
+
P1-20 低資源言語のニュース機械翻訳のためのLLM を用いた合成対訳データの生成
|
51 |
+
P1-21 対訳データを用いた大規模言語モデルの継続事前訓練による特許請求項翻訳
|
52 |
+
P1-22 AoGu: A Japanese-English literary parallel corpus from Aozora Bunko and Project Gutenberg
|
53 |
+
P1-23 修辞構造に基づく分割統治型LLM翻訳
|
54 |
+
P1-24💻 Word order of subject, object, oblique, and verb
|
55 |
+
Q1-1 書き手の孤独感を予測できるか?
|
56 |
+
Q1-2 BCCWJ-WLSP-LUW:『��代日本語書き言葉均衡コーパス』に対する長単位語義情報アノテーション
|
57 |
+
Q1-3 JETHICS: 日本語道徳理解度評価用データセット
|
58 |
+
Q1-4 説得力および納得度の推定に向けたWebディベートデータセットの構築
|
59 |
+
Q1-5 改正後法令文翻訳のための疑似三つ組コーパスの構築
|
60 |
+
Q1-6 Fine-Grained Error Annotations for Sentence Simplification by Large Language Models
|
61 |
+
Q1-7 小説テキストに対する登場人物アノテーション
|
62 |
+
Q1-8 技能者インタビュー対話コーパス (EIDC) v.2.0: コツ発話の同定に向けた相互行為アノテーション
|
63 |
+
Q1-9 沿革情報を用いた企業名変遷の構造化
|
64 |
+
Q1-10 タンパク質立体構造データと紐づけたコーパス作成の試み
|
65 |
+
Q1-11 BCCWJ-Metaphorにおける比喩表現認定と情報付与作業手順
|
66 |
+
Q1-12 Evaluating Large Language Models in Mongolian
|
67 |
+
Q1-13 短単位版「関西弁コーパス」の構築と予備的分析
|
68 |
+
Q1-14 日英対訳ジオパージングデータセット ATD-Para
|
69 |
+
Q1-15 大規模言語モデルを用いた物語分析データセットの効率的構築:日本語物語の話者推定を例として
|
70 |
+
Q1-16 Zero pronoun annotation in Malay and beyond
|
71 |
+
Q1-17 ゲーム内テキスト抽出におけるOCRの性能評価―レイアウトと解像度の影響に着目して―
|
72 |
+
Q1-18 Tabidachi: 旅行代理店タスク対話コーパス
|
73 |
+
Q1-19 大規模画像言語モデルは物体の裏側を認識できるか?物体の見えない部分の認識を問うタスクの提案
|
74 |
+
Q1-20 「現代日本語書き言葉均衡コーパス」の拡張―BCCWJ2の構築―
|
75 |
+
Q1-21 SciGA: 学術論文における Graphical Abstract 設計支援のための統合データセット
|
76 |
+
Q1-22 否定の観点からみた日本語言語理解ベンチマークの評価
|
77 |
+
Q1-23J オンライン誹謗中傷検出に向けた裁判例データセット
|
78 |
+
Q1-24J MATCHA:専門家が平易化した記事を用いたやさしい日本語パラレルコーパス
|
79 |
+
Q1-25J NAIST Simultaneous Interpretation Corpus: Development and Analyses of Data from Interpreters of Different Levels
|
80 |
+
A2-1 大規模言語モデルにおける複数の指示追従成功率を個々の指示追従成功率から推定する
|
81 |
+
A2-2 オープン日本語LLMリーダーボードの構築と評価結果の分析
|
82 |
+
A2-3 pfgen-bench: 日本語事前学習モデルのための文章生成性能評価ベンチマーク
|
83 |
+
A2-4 固有表現抽出におけるタスク特化型BERTと大規模言語モデルの性能比較と実用性評価
|
84 |
+
A2-5 大規模言語モデルの規範的推論能力の評価: 論理とリーズニングの観点から
|
85 |
+
A2-6 JaSocial:LLM の社会的知能を評価するための日本語敬語使用フレームワーク
|
86 |
+
B2-1 Modal DTSによる様相従属化の分析
|
87 |
+
B2-2 二重目的語構文,与格構文におけるWeak Crossover現象の分析と検証実験
|
88 |
+
B2-3 日本語推論システムlightblueの開発環境構築に向けて
|
89 |
+
B2-4 日本語比較表現のための論理推論システムの構築
|
90 |
+
B2-5 自然言語推論システムNeural DTSの学習アルゴリズムの実装
|
91 |
+
B2-6 情報構造の類型論に向けた談話データのコーディング
|
92 |
+
C2-1 ドメイン特化疑似データを用いたXの感情分析による日経平均株価騰落予測の精度比較
|
93 |
+
C2-2 否定語の影響と単語の重要度を考慮した近似VADスコアによる感情認識チャットシステムの開発
|
94 |
+
C2-3 BERTに基づいたRussell円環モデルの感情分析
|
95 |
+
C2-4 ビジネス文書を対象とした大規模言語モデルを用いた読み手にストレスを与える文章の検出
|
96 |
+
C2-5 自動プロンプト最適化は個人的選好の予測精度を向上させるか?
|
97 |
+
C2-6 大規模言語モデルによる感情分析を用いたデータの品質検証と文章校正
|
98 |
+
D2-1 大規模言語モデルを用いた我が国の対米外交における調書作成支援システム
|
99 |
+
D2-2 GPT2モデルを用いた感情を考慮する日本語対話生成
|
100 |
+
D2-3 日本語日常二人会話における参与者の頷きと共起する発話
|
101 |
+
D2-4 大規模言語モデルを用いた実世界タスク指向対話におけるICL・ファインチューニングの効果の検証
|
102 |
+
D2-5 ChatGPTが考える日本語ジョークの面白さ:人間との比較
|
103 |
+
E2-1 イノベーティブな言語使用は集団的アイデンティティの指標になりうるか?
|
104 |
+
E2-2 文献レビューにおける構造トピックモデルの活用― 心理学概念セルフ・コンパッションを題材として―
|
105 |
+
E2-3 社会学理論と言語処理技術の接続:ブルデュー理論に基づく言語処理「界」の分析を事例に
|
106 |
+
E2-4 大規模言語モデルを用いたサンスクリット辞書の横断的意味探索と意味提示
|
107 |
+
E2-5 語形のベクトル化による最適な言語地図の描画
|
108 |
+
P2-1 プロンプトの言語による数値時系列解釈能力の変化
|
109 |
+
P2-2 Representational Analysis of Binding in Language Models
|
110 |
+
P2-3 解釈��能性の高い自動採点モデルを用いた小論文採点支援システムの構築
|
111 |
+
P2-4 ウェーブレット位置符号化
|
112 |
+
P2-5 Beyond the Induction Circuit: A Mechanistic Prototype for Out-of-domain In-context Learning
|
113 |
+
P2-6 LLMにおける内部表現を用いた日本語スタイル制御メカニズムの分析
|
114 |
+
P2-7 大規模言語モデル内部における言語と計算領域の区分
|
115 |
+
P2-8 Transformer LLMにおける層単位のFFN層の重要度検証
|
116 |
+
P2-9 言語モデルのパラメータから探るDetokenizationメカニズム
|
117 |
+
P2-10 埋め込み表現の内在次元を測る
|
118 |
+
P2-11 誤字に対するTransformerベースLLMのニューロンおよびヘッドの役割調査
|
119 |
+
P2-12 部分空間の擬似直交性によるTransformer言語モデルの内部表現の解釈
|
120 |
+
P2-13 「数」に着目したLLMの多言語能力の検証
|
121 |
+
P2-14 言語モデルが有する時間的推論に関する事実知識の分析
|
122 |
+
P2-15 独立成分分析による事前学習済み多言語モデルの層を横断した単語埋め込み表現の分析
|
123 |
+
P2-16 事前学習言語モデルのドメイン適応能力に関する分析:ドメイン特有ニューロンの検出と分析
|
124 |
+
P2-17 文脈の記憶と想起を行う状態空間モデルによる状態遷移の分析
|
125 |
+
P2-18 ロススパイクの影響分析
|
126 |
+
P2-19 多言語モデルには言語非依存の処理系統が存在するか
|
127 |
+
P2-20 言語モデルの内部表現における文法情報の局所性について
|
128 |
+
P2-21 算術タスクを用いた文脈内学習による外挿能力の分析
|
129 |
+
P2-22 単語埋め込みの独立成分分析の軸が解釈できる粒度はどれくらいか?
|
130 |
+
P2-23 ニューロン経験勾配によるモデル出力の制御と言語知識表現の統合
|
131 |
+
P2-24 Wikipediaリダイレクト情報を活用したエンティティベース質問応答データセットの構築
|
132 |
+
P2-25 TrendScape 1.0: 言語モデルの潜在空間上の概念探索
|
133 |
+
P2-26💻 紙とデジタルの違いが書く活動に及ぼす影響:漢字・熟語・慣用表現・四字熟語を対象に
|
134 |
+
Q2-1 JHACE: Human-AI Collaborationの評価法の提案,及び,対人スキルの影響の調査
|
135 |
+
Q2-2 LLMの安全性における大規模人手評価
|
136 |
+
Q2-3 AnswerCarefully: 日本語LLM安全性向上のためのデータセット
|
137 |
+
Q2-4 llm-jp-judge: 日本語LLM-as-a-Judge評価ツール
|
138 |
+
Q2-5 アドオン型のLLMアライメント
|
139 |
+
Q2-6 英語母語話者と生成AIの文法性判断の差異調査
|
140 |
+
Q2-7 システム発話を起点とした雑談会話におけるパーソナリティを考慮した話題推薦の検討
|
141 |
+
Q2-8 ソーシャルメディアからの偽・誤情報データセットとLLM正確性ベンチマークの提案
|
142 |
+
Q2-9 An in-depth human study of the mathematical reasoning abilities in Large Language Models
|
143 |
+
Q2-10 Cultural Adaptability of Multilingual Large Language Models: A Comparative Study in Japanese Workplace Contexts
|
144 |
+
Q2-11 Code LLM 事前学習時の評価データ混入への対策
|
145 |
+
Q2-12 大規模言語モデルの分布予測における常識に基づいた割合予測能力の評価
|
146 |
+
Q2-13 架空語に対する LLM の知ったかぶりの自動評価
|
147 |
+
Q2-14 評価結果の予測確率を用いたLLMによるLLMの相対評価
|
148 |
+
Q2-15 Fact-checkingのための補足コンテキストによる情報の拡充
|
149 |
+
Q2-16 復号手法が大規模言語モデルにおける不確実性推定に与える影響の調査
|
150 |
+
Q2-17 JHARS: RAG設定における日本語Hallucination評価ベンチマークの構築と分析
|
151 |
+
Q2-18 JamC-QA: 日本固有の知識を問う多肢選択式質問応答ベンチマークの構築
|
152 |
+
Q2-19 LLMのクロスリンガル知識編集に関する分析
|
153 |
+
Q2-20 Evaluating Robustness of LLMs to Numerical Variations in Mathematical Reasoning
|
154 |
+
Q2-21 大規模言語モデルにおける多段推論の依存構造と推論能力の関係検証
|
155 |
+
Q2-22 Mitigating Social Bias in Large Language Models by Self-Correction
|
156 |
+
Q2-23 LLM は日本の民話を知っているか? 妖怪知識評価データセットの構築へ向けて
|
157 |
+
Q2-24 大規模言語モデルの数値データ説明における例示と補足の効果
|
158 |
+
Q2-25 議論形式のマルチエージェント自動評価の詳細分析
|
159 |
+
A3-1 大規模言語モデルはデータ漏洩を隠蔽できるのか
|
160 |
+
A3-2 LLMマルチエージェント間の相互作用の分析
|
161 |
+
A3-3 実用的な品質観点に基づくRAG性能評価用QAデータセットの自動生成
|
162 |
+
A3-4 日本語論文に特化したPDF文書解析器の構築と性能評価
|
163 |
+
A3-5 事前学習データに含まれる社会的バイアスの分析と軽減
|
164 |
+
A3-6 ローカルLLMとRAGを用いたPSU診療支援対話システムの検討
|
165 |
+
B3-1 LLM による価格交渉シミュレーションにおけるアンカリング効果の検証
|
166 |
+
B3-2 「心の中の言葉」はどのように予測できるか? ―複数のモダリティの特徴に基づく脳活動デコーディングプロセスの構築―
|
167 |
+
B3-3 日本語母語話者において人名の音象徴がその人��性格特性の想起に与える影響
|
168 |
+
B3-4 英文リーダビリティ指標FKGLはほぼ平均文中音節数である
|
169 |
+
B3-5 Shaping Personality of Large Language Models: An Approach Based on Representation Engineering
|
170 |
+
B3-6 ToMATO: 心の理論ベンチマークのためのロールプレイングLLMの心的状態の言語化
|
171 |
+
C3-1 大規模マルチモーダルモデルにおけるビジョンエンコーダーの付け替えと、日本語に強いモデル作成へ向けて
|
172 |
+
C3-2 物体検出モデルの信頼値を利用したVQAモデルによるぬいぐるみ画像分類
|
173 |
+
C3-3 Large Vision-Language Modelを用いた非構造ドキュメント画像向け情報抽出
|
174 |
+
C3-4 複数タスク・複数項目に跨ったマルチモーダル自動評価手法
|
175 |
+
C3-5 マルチモーダル大規模言語モデルはジェスチャーをどこまで理解しているのか:指標性・図像性・象徴性を問う
|
176 |
+
C3-6 CLIPのModality Gapを考慮したRAG検索手法の改良
|
177 |
+
D3-1 日本語日常会話における他者開始修復の分析
|
178 |
+
D3-2 音声対話システムのための意味的類似度を考慮した予測信頼度モデル
|
179 |
+
D3-3 Exploring User Feedback: A Thematic and Sentiment Analysis of User Interactions with LLM-Based Dialogue Robots
|
180 |
+
D3-4 生成AIと俳句創作―「対話」による学習支援はどのように可能か
|
181 |
+
D3-5 非流暢な合成音声
|
182 |
+
D3-6 採血ロボットに求められるコミュニケーションスタイル
|
183 |
+
E3-1 日本語長単位語における語彙素推定
|
184 |
+
E3-2 場所表現の地理的曖昧性を解消するための質問内容生成
|
185 |
+
E3-3 満洲語古典語における母音調和の計算言語学的考察
|
186 |
+
E3-4 言語学からみた記号接地,問題?
|
187 |
+
E3-5 地理的言及に対するエンティティ・リンキングにおける住所階層の利用
|
188 |
+
E3-6 BERTによる辞書推定システムを用いた近代以前の日本語文書の形態素解析の精度向上
|
189 |
+
P3-1 RoBERTaとT5を用いた2段階モデルによる国語答案の文字認識誤り訂正
|
190 |
+
P3-2 自動アノテーションを導入したG-Eval による英文要約課題評価
|
191 |
+
P3-3 IMPARA-GED:言語モデルの文法誤り検出能力に着目した文法誤り訂正の参照文なし自動評価
|
192 |
+
P3-4 生成AIによる多肢選択式語彙問題および錯乱肢の生成と訂正
|
193 |
+
P3-5 言語モデルを用いた看護師国家試験問題の誤答選択肢自動生成
|
194 |
+
P3-6 統語的複雑性指標を用いたL2日本語学習者エッセイ評価
|
195 |
+
P3-7 Incorporating Rule-Based Methods with Prompt-Based Techniques for Indigenous Language Generation
|
196 |
+
P3-8 LLMとDocker環境を統合した対話型言語処理教育プラットフォームの設計と実装
|
197 |
+
P3-9 文法誤り訂正における人手評価と自動評価の乖離とその解決
|
198 |
+
P3-10 文法誤り検出/訂正における訓練データと評価データのドメイン不一致による性能向上現象
|
199 |
+
P3-11 Attention機構を用いた授業発話分析に基づく教員発話に対するアドバイス生成とLLMによる自動評価
|
200 |
+
P3-12 LLM を用いた複数レシピに対する調理計画手法の検討
|
201 |
+
P3-13 動的な Few-shot の事例選択を用いた商品属性情報の正規化
|
202 |
+
P3-14 大規模言語モデルと患者表現辞書を用いた病名診断の精度検証
|
203 |
+
P3-15 自己教師あり学習を用いた 自由会話音声からの早期アルツハイマー病の予測
|
204 |
+
P3-16 CloudArchitectBuddy 構造的状態制御に基づくシステム主導型設計支援
|
205 |
+
P3-17 国語科共通テスト試行調査を用いたRAGによる答案生成の評価と再検索RAGの提案
|
206 |
+
P3-18 大規模言語モデルを用いた講義振り返りテキストからの学生の成績推定
|
207 |
+
P3-19 診療データベースを用いたカルテスクリーニング
|
208 |
+
P3-20 大阪大学SEEDSプログラム受講生によるライティング成果の「科学的にダメな点」調査と分析
|
209 |
+
P3-21 学生によるプロンプトチューニングを用いた謝罪するロボットのもたらす教育効果
|
210 |
+
P3-22 生成AIによるセリフ文章を利用したタイピングゲーム
|
211 |
+
P3-23 Policy-Value Monte-Carlo 木探索を用いた将棋の解説文に出現する手順の予測
|
212 |
+
Q3-1 移動軌跡に関する質問応答データセット
|
213 |
+
Q3-2 LLM-jp-3 VILA: 日本語マルチモーダルデータセット及び強力な日本語マルチモーダルモデルの構築
|
214 |
+
Q3-3 Vision Language Modelを用いた走行画像認識性能の検証
|
215 |
+
Q3-4 視覚言語モデルの識別性能に関する評価用ベンチマークの構築
|
216 |
+
Q3-5 Asagi: 合成データセットを活用した大規模日本語VLM
|
217 |
+
Q3-6 Data Augmentation for Open-Domain Live Commentary Generation
|
218 |
+
Q3-7 大規模言語モデルによるセリフを含む物語の可視化手法
|
219 |
+
Q3-8 半自己回帰的に拡散モデルを活用するトレースベースの意図反映キャプション生成
|
220 |
+
Q3-9 バナー広告における画像と広告コピーの評価ベンチマーク構築
|
221 |
+
Q3-10 高精度な日本語マルチモーダル大規模言語モデルの構築にむけたデータセットの検討
|
222 |
+
Q3-11 ロールプレイングゲームの画面情報分析による選択可能テキストの抽出
|
223 |
+
Q3-12 大規模視覚言語モデルにおける言語タスクに対する視覚情報の影響
|
224 |
+
Q3-13 Large Vision Language Modelへの文書画像内テキスト埋め込みの検証
|
225 |
+
Q3-14 漫画話者認識における VLM の有効性
|
226 |
+
Q3-15 How Much Can Large Language Models Guide Body Movements of 3D Digital Human Agents?
|
227 |
+
Q3-16 A Study on Multi-modal Interaction in Vision Large Language Models
|
228 |
+
Q3-17 Classifying the Relation Between Images and Text on Social Media Using Vision-Language Models
|
229 |
+
Q3-18 Stable Diffusion を利用したシンボルマーク画像の生成
|
230 |
+
Q3-19 動画データと画像キャプション生成を用いた音とテキストペアの自動生成
|
231 |
+
Q3-20 Open-source Human Evaluation Framework for Video-to-Text and Video-to-Audio Systems
|
232 |
+
Q3-21 日本語小論文自動採点システムに関する画像データの活用
|
233 |
+
Q3-22 Paper2Poster: LLMを用いた学術ポスターの生成
|
234 |
+
Q3-23 llm-jp-eval-mm: 日本語視覚言語モデルの自動評価基盤
|
235 |
+
Q3-24 動画キャプション生成におけるマルチモーダル LLM のハルシネーション分析
|
236 |
+
Q3-25 VLMによるソフトウェア図表の理解に関する予備調査
|
237 |
+
A4-1 大規模言語モデルのための日本語安全性境界テスト
|
238 |
+
A4-2 SIPeN: パーソナルナラティブから構築された尺度推意ベンチマーク
|
239 |
+
A4-3 敵対的事例に対する日本語処理モデルの頑健性向上の試み
|
240 |
+
A4-4 大規模言語モデルにおける社会的バイアスの抑制と文化的常識の理解のトレードオフの分析
|
241 |
+
A4-5 コーパスの逆蒸留
|
242 |
+
A4-6 大規模言語モデルの法廷通訳への導入可能性の検証
|
243 |
+
B4-1 アテンションが記憶想起の認知モデルたりうるならば、記憶の表現としては何が妥当か?
|
244 |
+
B4-2 大規模マルチモーダル言語モデルによる認知症の言語症状の再現
|
245 |
+
B4-3 大規模言語モデルによる失語症の単語産出シミュレーション
|
246 |
+
B4-4 失語症者向け意思疎通支援者の会話方略の評価
|
247 |
+
B4-5 言語モデルの事前学習におけるバリエーションセットの効果
|
248 |
+
B4-6 作業記憶の発達的特性が言語獲得の臨界期を形成する
|
249 |
+
C4-1 早期うつ状態検出のためのマルチモーダル対話データセットに基づくうつ状態検出モデルの性能評価
|
250 |
+
C4-2 A Survey of MultiModal Large Language Models
|
251 |
+
C4-3 VLMを用いたドメイン特化生成画像の定量評価
|
252 |
+
C4-4 画像言語モデルにおけるハルシネーションの発生とVisual Attention精度の関係の調査
|
253 |
+
C4-5 マルチモーダル大規模言語モデルにおける工業製品画像の認識性能調査
|
254 |
+
C4-6 オープンLLMによる翻訳を活用した日本語CLIPの開発
|
255 |
+
D4-1 Improving an Assistive Robot's Conversations using Large-Language Model-driven Episodic Memory
|
256 |
+
D4-2 多面的なユーザ意欲を考慮したセールス対話データセットおよび対話システムの構築と評価
|
257 |
+
D4-3 対話システムが共有する第三者情報に対するユーザの興味度推定モデルの構築
|
258 |
+
D4-4 大規模言語モデルによるポライトネス理論の検証
|
259 |
+
D4-5 心理臨床のカウンセラーと対話システムの比較:支援における「個別化の原則」に基づく予備的検討
|
260 |
+
E4-1 線形判別分析の PU 学習による朝日歌壇短歌の分析
|
261 |
+
E4-2 データドリブンな文章構造と情報伝達の抽出手法
|
262 |
+
E4-3 古事類苑の知識グラフ化と言語リソースとしての活用
|
263 |
+
E4-4 エイゼンシュテインのモンタージュに含まれる要素
|
264 |
+
P4-1 Bayesian Linear Mixed Model を用いた単語習得時期推定
|
265 |
+
P4-2 大規模言語モデルにおける語彙関数知識の類推推論による検討
|
266 |
+
P4-3 ニューラル単語アライメントに基づく言い換え知識獲得
|
267 |
+
P4-4 日本語の関係節におけるWeak Crossover現象の非構造的要因を制御した経験的検証
|
268 |
+
P4-5 Dispersion Measures as Predictors of Lexical Decision Time, Word Familiarity, and Lexical Complexity
|
269 |
+
P4-6 In search of efficient, parsing-free encodings of word structure: efficacy comparison among n-grams, skippy n-grams and extended skippy n-grams against on noun classification tasks
|
270 |
+
P4-7 認知負荷の最適化戦略としての自由語順と項省略
|
271 |
+
P4-8 固有名詞の音象徴の機械学習による検討ーポケモンの名前を材料にしてー
|
272 |
+
P4-9 認知言語学的イメージスキーマの生成と解釈における大規模言語モデルと画像生成モデルの評価
|
273 |
+
P4-10 自閉スペクトラム症の眼球運動による言語モデルのファインチューニング
|
274 |
+
P4-11 LLMはASD小児と定型発達小児が作成したストーリーを識別できるか?
|
275 |
+
P4-12 社会的承認によって定義された心があるAI:評価方法と有効性の基礎検討
|
276 |
+
P4-13 埋め���みベクトルを用いた動詞の意味の粒度分析と共起関係
|
277 |
+
P4-14 アジア地域における英語学習者の英語使用の特徴
|
278 |
+
P4-15 行為要求発話の修辞機能分析-親子会話におけるやり取りに着目して-
|
279 |
+
P4-16 フレーム意味論に基づく言及先情報を含むSNS投稿の事実忠実度のアノテーション
|
280 |
+
P4-17 大規模言語モデルとISAアプローチ
|
281 |
+
P4-18 系列ラベリングを用いた日本語の比喩表現抽出
|
282 |
+
P4-19 BERT ベクトルを用いたオノマトペ由来の新動詞の検出
|
283 |
+
P4-20 LLMのふるまいの理解における理想化された科学モデルの有用性について
|
284 |
+
P4-21 言語モデルのふるまいと多重実現
|
285 |
+
P4-22 分類語彙表の基本義を利用した日本語メタファー検出
|
286 |
+
P4-23 言語一般の計測を目指して: サブワードと分散意味論に基づく言語の複雑性計測
|
287 |
+
P4-24 言語研究における科学的理解と言語モデル
|
288 |
+
P4-25 文学批評から大規模言語モデルへ―単語埋め込みの組み換えによる文学テクスト解釈の試み
|
289 |
+
Q4-1 Semantic feature engineering for in-context AutoML
|
290 |
+
Q4-2 大規模言語モデルのタスク特化ドメイン適応における知識獲得効率に関する初期検討
|
291 |
+
Q4-3 Ruri: 日本語に特化した汎用テキスト埋め込みモデル
|
292 |
+
Q4-4 医療分野に特化した日本語の小規模言語モデルの開発
|
293 |
+
Q4-5 疎なパラメータを用いて大規模言語モデルを効率よくFine-Tuneする手法の提案
|
294 |
+
Q4-6 LLM事前学習の効率化と性質改善: 埋め込み層および出力層のパラメータ固定による再利用
|
295 |
+
Q4-7 LoRAを活用した言語モデルの中間層蒸留
|
296 |
+
Q4-8 大規模言語モデルを利用したnetlistによる回路生成
|
297 |
+
Q4-9 Mixture-of-Expertsの悲観的な統合による頑健な自然言語理解
|
298 |
+
Q4-10 モデル拡張によるパラメータ効率的な LLM の事前学習
|
299 |
+
Q4-11 大規模言語モデルのためのアライメントデータ合成手法の実験的評価
|
300 |
+
Q4-12 対訳構造の指示調整は言語間転移を促進するのか?
|
301 |
+
Q4-13 言語構造の数理分析のための代数統計的アプローチ試論
|
302 |
+
Q4-14 LLM間と問題間の類似度制約を加えたLLMの性能推定
|
303 |
+
Q4-15 真面目 LLM と不真面目 LLM で推論能力は変わるか?
|
304 |
+
Q4-16 いくつかの意味論的なタスクにおける単一事例規範と対照学習規範の併用
|
305 |
+
Q4-17 Padding vs. Packing: 大規模言語モデルのファインチューニングにおける学習効果の検証
|
306 |
+
Q4-18 Transformer LLMの内部挙動改善:隠れ状態ベクトルの数値的収束性の向上
|
307 |
+
Q4-19 日本語大規模言語モデルの有用性と安全性の両立に向けたチューニング手法の検証
|
308 |
+
Q4-20 低資源言語のための辞書を用いた言語間語彙転移
|
309 |
+
Q4-21 情報圧縮を用いた訓練データの重複削減
|
310 |
+
Q4-22 話者スタイル抽出と対話フロー生成に基づく対話データ拡張手法
|
311 |
+
Q4-23 Jellyfish: データ前処理のためのLLM
|
312 |
+
Q4-24 トークン・次元・層の3つの観点とクロスファインチューンによるBERTモデル冗長性の解明
|
313 |
+
Q4-25 Leveraging Sentiment Adjectives in Instruction Tuning of LLMs for Zero-Shot Sentiment Classification
|
314 |
+
A5-1 層の冗長性と層同士の独立性に基づく言語モデルの層交換の成否の特徴づけ
|
315 |
+
A5-2 束縛変項照応を用いた大規模言語モデルのプロービング
|
316 |
+
A5-3 Tracing the Roots of Facts in Multilingual Language Models: Independent, Shared, and Transferred Knowledge
|
317 |
+
A5-4 プロンプトに基づくテキスト埋め込みのタスクによる冗長性の違い
|
318 |
+
A5-5 定数精度浮動小数点 Transformer Decoder が認識する言語の有限性・余有限性
|
319 |
+
A5-6 知識編集が confidence calibration へ与える影響
|
320 |
+
B5-1 Point-of-Interest 推薦ための少数事例選択
|
321 |
+
B5-2 関数単位の修正箇所特定によるリポジトリレベルのバグ修正
|
322 |
+
B5-3 多言語音声転写アプリとAIによる外国語授業の自己分析―Multilingual Voice-to-Text Appの開発
|
323 |
+
B5-4 ソフトウェア高速化を対象としたLLMとSLMの言語処理特性
|
324 |
+
B5-5 グライスの環境とグライスの外
|
325 |
+
B5-6 ChatGPTを活用した高知県観光支援システムの構築
|
326 |
+
C5-1 トラッキングデータからのサッカー実況生成
|
327 |
+
C5-2 拡散モデルを用いたテキスト生成における「崩壊問題」と時刻埋め込みの影響
|
328 |
+
C5-3 製造業で取り扱う実データを対象としたRAGの改善
|
329 |
+
C5-4 大規模言語モデルによる時系列行動セグメンテーションの精度向上
|
330 |
+
C5-5 ChatGPTを用いた教育的ノベルゲーム
|
331 |
+
C5-6 LLM as a Debate Judge: 学習者ディベーターへの自動フィードバック生成
|
332 |
+
D5-1 構成性の度合いはカオスの縁で最も高くなる ---ESNモデルとTopSim指標を用いたケーススタディ---
|
333 |
+
D5-2 メッセージの階層構造を把握するための parsing action がランダムではないのはなぜか?
|
334 |
+
D5-3 音声信号から文字記号を創り出す ―深層ベイズに基づく教師なし表現学習によるアプローチ―
|
335 |
+
D5-4 RNNの回帰行列を凍結しても統語構造の獲得は損なわれない
|
336 |
+
D5-5 キャプション生成ゲームを通じた複数の視覚言語モデルのベイズ的統合
|
337 |
+
D5-6 共通基盤の構築に寄与する認知機能:モジュラー生成モデルによるシミュレーション
|
338 |
+
E5-1 決算短信における見通し文と結果文のアラインメント
|
339 |
+
E5-2 Decoding Sentiment: Predicting Stock Returns from Japanese 10-K Reports with Advanced Large Language Models
|
340 |
+
E5-3 Word-level Polarity is All You Need?: 解釈可能なニューラルネットワークモデルを利用した単語極性変換による効率的な金融センチメント適合
|
341 |
+
E5-4 銘柄テキスト情報と銘柄数値情報をハイブリッド活用した企業間類似度の獲得
|
342 |
+
E5-5 バリューモデルを活用したサステナビリティ情報抽出: LLMにおける未抽出情報の検証
|
343 |
+
E5-6 エネルギー関連コモディティ先物市場におけるベージュブックテキストの実証分析
|
344 |
+
P5-1 読みにくい日本語文に対する係り受け解析・語順整序・読点挿入の同時実行とその評価
|
345 |
+
P5-2 レビュー情報を用いた LLM による観光地比較表生成
|
346 |
+
P5-3 Attention スコアの分布類似性を用いた大規模言語モデルの動作効率化および省メモリ化
|
347 |
+
P5-4 意味、言語構造、言語の優位性を考慮した多言語文脈内学習
|
348 |
+
P5-5 二つの時系列データの関係を記述する自然言語文生成手法の実測データ適用への取り組み
|
349 |
+
P5-6 ASCII CHALLENGE−LLMは画家になれるか−
|
350 |
+
P5-7 文法を基いた逐次選択アプローチによるゲーム記述生成
|
351 |
+
P5-8 正解保証を伴う思考プロセス付き合成データ生成による日本語大規模言語モデルの数学推論能力向上
|
352 |
+
P5-9 生成系タスクの自動評価においてチェックリストの使用は有効なのか?
|
353 |
+
P5-10 判決書要約文の自動評価
|
354 |
+
P5-11 クエリ対応の事前要約を伴う大規模言語モデルによる企業事業概要生成
|
355 |
+
P5-12 医療事故・ヒヤリハットに関する要因・対策案生成ベンチマークの提案
|
356 |
+
P5-13 大規模音声認識モデルに基づく韻律・言語情報を考慮した音声感情認識
|
357 |
+
P5-14 合成単語データを用いた低コスト高品質な音声認識のドメイン適応
|
358 |
+
P5-15 タスク指向音声対話における大規模言語モデルを活用した柔軟な発話終了検知の検討
|
359 |
+
P5-16 Emotion-aware Speech-to-text Translation with Generative Error Correction
|
360 |
+
P5-17 音声認識出力の曖昧性を考慮したMulti-task End-to-end音声翻訳と曖昧性の高い音声入力に対する頑健性の分析
|
361 |
+
P5-18 対話履歴の LLM 埋め込みを用いた音声合成のスタイル制御
|
362 |
+
P5-19 音声トークナイズが音声言語モデルの性能に与える影響の調査
|
363 |
+
P5-20 ReShape Attentionによる音声と言語の基盤モデルの統合
|
364 |
+
P5-21 二重分節構造モデルを用いた連続音声からの教師なし音素・単語・文法獲得
|
365 |
+
P5-22 大規模言語モデルによるイベント知識グラフからのマルチターンfew-shot実況生成手法の検討
|
366 |
+
P5-23 LLM偽針混入テスト:誤抽出を考慮した情報抽出時の評価フレームワーク
|
367 |
+
Q5-1 Low-Overhead Disambiguation for Generative Linguistic Steganography via Tokenization Consistency
|
368 |
+
Q5-2 訓練・推論時の不一致を解消する離散拡散テキスト生成モデル
|
369 |
+
Q5-3 Generating Explanations of Stereotypical Biases with Large Language Model
|
370 |
+
Q5-4 Open Weight LLMs in Out-of-Distribution Setting: Search Ad Title Generation
|
371 |
+
Q5-5 ClaimBrush: 特許審査官の選好を考慮した選好最適化に基づいた特許請求の範囲の自動補正モデル
|
372 |
+
Q5-6 Loss as a Data Introspection Method: Looking into Japanese Advertising Text Generation
|
373 |
+
Q5-7 タスクベクトル演算を用いた感情表現テキスト生成モデル合成手法
|
374 |
+
Q5-8 Disentanglement or Entanglement, which is Better for TST
|
375 |
+
Q5-9 自然言語での異常解釈:LLMを用いたAI説明モデルの提案
|
376 |
+
Q5-10 最小ベイズリスク復号におけるバイアスと多様性の分解
|
377 |
+
Q5-11 Multi-modularizing CodeChainによるコード生成タスクの細分化が精度に与える影響
|
378 |
+
Q5-12 GPTを用いた退院サマリの自動生成に関する性能評価について
|
379 |
+
Q5-13 大規模言語モデルを用いたソースコードからのドキュメント生成能力調査
|
380 |
+
Q5-14 自由記述回答から選択肢設問を生成するモデルの構築とMCA参照空間への射影による生成内容の解釈
|
381 |
+
Q5-15 情報科学論文の情報量と文章量を維持した自動平易化の試み
|
382 |
+
Q5-16 任意の題目に対する多様な視点の獲得を目的としたラップバトル形式のディベート生成システムの提案
|
383 |
+
Q5-17 日本���平易化へのTask Arithmeticの応用とその検証
|
384 |
+
Q5-18 難解な入力単語を用いた日本語 CommonGen タスクによる LLM の文生成能力評価
|
385 |
+
Q5-19 係り受け情報と残存文長を考慮した講演テキストへの逐次的な改行挿入
|
386 |
+
Q5-20 Iterative Graph-to-Text Generation with Contextualization for Scientific Abstracts
|
387 |
+
Q5-21 テキスト埋め込みからのテキスト復元における予測制御の援用の効果検証
|
388 |
+
Q5-22 LLMを用いた発話生成のキャラクター性付与におけるプロンプトとファインチューニングの効果比較
|
389 |
+
Q5-23 Faissを用いたデータ拡張によるポジティブテキストリフレーミングの精度向上
|
390 |
+
Q5-24J 日本語ニュース記事要約支援に向けたドメイン特化事前学習済みモデルの構築と活用
|
391 |
+
Q5-25J Bidirectional Transformer Reranker for Grammatical Error Correction
|
392 |
+
A6-1 スパースオートエンコーダーを用いた大規模言語モデルのチェックポイント横断分析
|
393 |
+
A6-2 大規模言語モデルにおいて数値属性間で共有されるスケーリングベクトルの解析とその応用
|
394 |
+
A6-3 競技クイズにおけるLLMと人間の誤答傾向の分析と比較
|
395 |
+
A6-4 専門ドメインを対象とした事前学習データと精度の関係分析
|
396 |
+
A6-5 Derivational Probing:言語モデルにおける統語構造構築の解明
|
397 |
+
A6-6 対照損失による追加学習がBERTのファインチューニングにもたらす効果
|
398 |
+
B6-1 医学生物学文献からのオントロジー構築のためのメンション非依存型情報抽出
|
399 |
+
B6-2 情報抽出パイプラインにおけるエラー伝播抑制手法の提案:オーバーサンプリング、フィルタリング指向学習、概念対応
|
400 |
+
B6-3 多様な言い換え生成と自己学習手法の統合による大規模言語モデルへの新規知識の追加学習
|
401 |
+
B6-4 故障解析における事前学習済みSentence-DeBERTaによる拡張ナレッジグラフとクエリ分解を用いたGraphRAG
|
402 |
+
B6-5 法令文の可読性向上のための定義規定・略称規定における文型定義及びパターンベースの正式名称・略称抽出手法
|
403 |
+
B6-6 学術情報のテキスト解析と生成 AI を用いた専門用語抽出
|
404 |
+
C6-1 Evaluating the Impact of Continual Pre-Training on Japanese Essay Scoring Tasks
|
405 |
+
C6-2 強化学習に基づくデータ選別を通した問題横断型小論文自動採点の精度向上
|
406 |
+
C6-3 難易度調整可能な多枝選択式読解問題自動生成手法とDirect Preference Optimizationによる難易度調整精度の向上
|
407 |
+
C6-4 LLM を用いた質問生成による児童の作文の詳述化支援の検討
|
408 |
+
C6-5 Elaborative Text Simplification via Target Estimation using Large Language Models
|
409 |
+
C6-6 言語指標を用いた日本語文章の難易度の可視化と教育への応用
|
410 |
+
D6-1 二者関係の概念化に基づく構文交替の文化進化
|
411 |
+
D6-2 変分ベイズ名付けゲームに基づく多エージェントによる記号創発の評価
|
412 |
+
D6-3 Vector Quantizationに基づく離散系列の発話による分散型深層モデルの提案
|
413 |
+
D6-4 AIは人間らしく話ができるか:ロボットと仲良くなるために
|
414 |
+
D6-5 音素の合成性を仮定した連続信号をサインとした分散的ベイズ推論に基づく記号創発
|
415 |
+
E6-1 金融分野に特化した複数ターン日本語生成ベンチマークの構築
|
416 |
+
E6-2 大規模言語モデルを用いた有価証券報告書の表質問応答
|
417 |
+
E6-3 東京証券取引所におけるティックサイズ変更に関するパブリックコメントの影響分析
|
418 |
+
E6-4 株式掲示板テキストを活用したリターン予測における独立成分分析を利用した解釈性の向上
|
419 |
+
E6-5 独立成分分析とFisherの線形判別による内閣府景気ウォッチャー調査データの分析
|
420 |
+
E6-6 株価変動要因情報を手がかりとする株価変動記事生成へのLLMの適用
|
421 |
+
P6-1 質的研究の自動化:患者自由記述テキストからの潜在的トピックの発見
|
422 |
+
P6-2 言語処理学会を外部から調査するための共著者ネットワークを用いた発表予稿の自動地図作成の試み
|
423 |
+
P6-3 記号的知識蒸留における敵対的学習の利用とその評価
|
424 |
+
P6-4 言語モデルの外部知識獲得に関する高速化と小説プロットによる性能評価
|
425 |
+
P6-5 尤度最大化に基づく自然言語による多段推論過程の抽出への取り組み
|
426 |
+
P6-6 Anchoring を行う生成的関係抽出
|
427 |
+
P6-7 Zero-shot Entity Recognition for Polymer Biodegradability Information: GPT-4o on PolyBD
|
428 |
+
P6-8 From NLI to Classification: Entailment Learning for Low-Resource Text Classification
|
429 |
+
P6-9 大規模言語モデルを用いた生成による企業の業種体系の拡張
|
430 |
+
P6-10 質問応答によるメールからの送信者情報抽出
|
431 |
+
P6-11 複数データセットで情報を共有する固有表現抽出
|
432 |
+
P6-12 文献からの有機合成手順の自動抽出と専門家によるその結果の編集作業を支援する枠組み
|
433 |
+
P6-13 コミュニティ特有のハッシュタグ空間を考慮したマルチラベル候補生成器を用いる二段階推薦
|
434 |
+
P6-14 自己修正に基づく固有表現抽出モデルの指示学習
|
435 |
+
P6-15 複数エンティティがまとめて記述される可能性を考慮したWikipedia記事のクラス分類
|
436 |
+
P6-16 大規模言語モデルの Zero-Shot トリプル抽出性能の評価
|
437 |
+
P6-17 検索クエリログを用いない自然な質問のマイニングの検討
|
438 |
+
P6-18 LLM から抽出した日本文化知識のデータベース構築と活用
|
439 |
+
P6-19 日本語継続事前学習モデルを対象とした暗記の定量化
|
440 |
+
P6-20 災害時のソーシャルメディアを対象とした場所参照表現の抽出における過去事例の適用
|
441 |
+
P6-21 LLMを用いたクロールデータからの人物略歴文抽出
|
442 |
+
P6-22 URL引用の要否判定において学習データの品質とドメインが与える影響の分析
|
443 |
+
P6-23 時相論理を用いた物語のエンティティ状態検索
|
444 |
+
P6-24J シソーラスの階層的構造を利用した弱教師あり固有表現抽出
|
445 |
+
P6-25J 未知の知識に対する事前学習済み言語モデルが持つ推論能力の調査
|
446 |
+
Q6-1 行動分類のためのコーパス構築と行動分析への応用
|
447 |
+
Q6-2 JAMSE:日本語LLM評価用の高品質な少サンプル日本語ベンチマークの作成および評価−GENIAC LLM開発コンペティションからの知見−
|
448 |
+
Q6-3 複数のLLMを用いた法令QAタスクのGround Truth Curation
|
449 |
+
Q6-4 キャッチコピー共同作成対話コーパスにおける第三者評価と自己評価の関係分析
|
450 |
+
Q6-5 Enhancing the JNLI Dataset and Evaluating Model Performance on Improved Data
|
451 |
+
Q6-6 データペーパー:各都道府県が提供する農業関係オープンデータ
|
452 |
+
Q6-7 オーダーメイド対話管理:商用チャットボットに向けた対話管理学習データ自動作成
|
453 |
+
Q6-8 日本語文章の可読性評価のための項省略判断モデル
|
454 |
+
Q6-9 日本語によるコード生成能力の正確な評価に向けて
|
455 |
+
Q6-10 否定理解能力を評価するための日本語言語推論データセットの構築
|
456 |
+
Q6-11 日本語自然言語処理リポジトリに対する研究分野マルチラベルの付与
|
457 |
+
Q6-12 ルーブリックに基づいたタグを付与した日本語小論文データの構築と自動採点への効果
|
458 |
+
Q6-13 BCCWJ-MEG:日本語脳磁図データの構築
|
459 |
+
Q6-14 大規模視覚言語モデルの質感知覚能力の分析
|
460 |
+
Q6-15 Wikidataに基づく大規模ジオコーディングデータセット
|
461 |
+
Q6-16 根拠に基づいたレビュー生成のための LLM を用いた自動アノテーションの検討
|
462 |
+
Q6-17 Towards Automated Detection of Hype in Biomedical Research
|
463 |
+
Q6-18 FaithCAMERA: 広告文生成タスクのための忠実性を担保した評価データセットの構築
|
464 |
+
Q6-19 Towards Formalizing Socratic Questions for Explainable Socratic Question Generation
|
465 |
+
Q6-20 whole-NWJC: 『国語研日本語ウェブコーパス』全データ
|
466 |
+
Q6-21 パラ言語情報に着目したSpeech-to-Text対話ベンチマークデータセットの提案
|
467 |
+
Q6-22 ソーシャルメディアテキストを用いた摂食障害の文化差比較
|
468 |
+
Q6-23 LLM を用いたキーワードに基づく文書分類ためのデータ拡張の試みと評価
|
469 |
+
Q6-24 時事情報に関する日本語QAベンチマーク『ニュースQ』
|
470 |
+
Q6-25 意思決定を指標とする生成テキスト評価:アマチュアと専門家への影響分析
|
471 |
+
A7-1 What Language Do Japanese-specialized Large Language Models Think in?
|
472 |
+
A7-2 埋め込み表現の独立成分の言語内・言語間一貫性の分析
|
473 |
+
A7-3 構成的汎化におけるTransformerの内部機序の分析
|
474 |
+
A7-4 大規模言語モデルにおけるIn-context Learningの推論回路
|
475 |
+
A7-5 LM は日本の時系列構造をどうエンコードするか
|
476 |
+
A7-6 大規模言語モデルにおけるペルソナの役割と内部動作の理解
|
477 |
+
B7-1 大規模言語モデルベースの日本語固有表現抽出におけるSelf-ReflectionとFew-Shot学習による精度改善
|
478 |
+
B7-2 階層的ナレッジグラフを用いた事故事例文書の述語中心の構造化手法
|
479 |
+
B7-3 国会が告示する改正民法における新旧対応の整合性の検証
|
480 |
+
B7-4 多言語での判例事実概要からの法的関係性のグラフ可視化
|
481 |
+
B7-5 技術観点の自動検出による技術動向マップ自動生成
|
482 |
+
B7-6 大規模言語モデルを用いた専門用語間の関係性解析
|
483 |
+
C7-1 SOMO: 音声認識出力の可読性向上を目的とした整文手法の提案
|
484 |
+
C7-2 音声・音響・音楽を扱うオープン基盤モデルの構築に向けたデータセット策定
|
485 |
+
C7-3 傾聴態度を示す応答の生成における表出可能な応答種類の推定とその利用
|
486 |
+
C7-4 音声モデルにおけるCritical Period仮説の検証
|
487 |
+
C7-5 日本民謡における旋律と方言アクセントの一致関係の比較分析
|
488 |
+
C7-6 量子計算を用いたダイレクトモデル
|
489 |
+
D7-1 人狼知能コンテスト2024冬季国内大会自然言語部門の概要
|
490 |
+
D7-2 プレイヤー間の論理的情報を与えたLLMによる人狼ゲーム対話エージェントの構築
|
491 |
+
D7-3 大規模言語モデルに基づく人狼ゲームエージェントにおける戦略の自動適応
|
492 |
+
D7-4 戦略的発話の多様な生成を目指した人狼エージェントの構築
|
493 |
+
E7-1 表現の置換による業績要因文の同義文・対義文生成
|
494 |
+
E7-2 大規模言語モデルを用いたFew-ShotプロンプティングによるJ-REITの投資物件に関する表構造認識
|
495 |
+
E7-3 取締役推薦理由文を用いた取締役のスキル・マトリックス分類モデルの開発
|
496 |
+
E7-4 会計ドメインにおける質問応答のためのLLM を用いた解説ページ順位付け
|
497 |
+
E7-5 金融テキストにおけるセンチメント分析の課題整理
|
498 |
+
P7-1 対照学習を用いたhallucination検出手法
|
499 |
+
P7-2 科学文書における「間接的」引用についてのハルシネーション検出の評価
|
500 |
+
P7-3 大規模言語モデルにおけるICL バイアスの選択的補正
|
501 |
+
P7-4 SocialStigmaQA-JA: 社会的バイアス評価用日本語データセット
|
502 |
+
P7-5 PUPPET:タスク性能を維持しながらLLMとして検出されやすくする学習フレームワーク
|
503 |
+
P7-6 日本語を対象としたLLMの大規模人手評価
|
504 |
+
P7-7 chakoshi: カテゴリのカスタマイズが可能な日本語に強いLLM向けガードレール
|
505 |
+
P7-8 アライメントが大規模言語モデルの数値バイアスに与える影響
|
506 |
+
P7-9 人間と LLM の "面白さ" の感性は一致するのか?
|
507 |
+
P7-10 大規模言語モデルの文生成確率を用いた教師なし品質推定
|
508 |
+
P7-11 大規模言語モデルの多言語社会的バイアス抑制における単言語ラベル付きデータの役割
|
509 |
+
P7-12 多言語大規模言語モデルにおける英語指示文と対象言語指示文の公平な比較
|
510 |
+
P7-13 日本語大規模言語モデルの事前訓練過程における下流タスク性能の網羅的な分析
|
511 |
+
P7-14 SelfCheckGPTはコード生成におけるハルシネーションを検知できるか
|
512 |
+
P7-15 日本語LLMに含まれる交差バイアスと有害性の評価に向けて
|
513 |
+
P7-16 日付入りLLM文書翻訳評価用データセット
|
514 |
+
P7-17 Constructing Open-source Large Language Model Evaluator for Japanese
|
515 |
+
P7-18 Jailbreakにより生成したフェイクニュースの危険度評価
|
516 |
+
P7-19 大規模言語モデルの事前学習用コーパスにおける要配慮個人情報の検出
|
517 |
+
P7-20 大規模言語モデルが持つ抽象推論能力の分析
|
518 |
+
P7-21 生成AIのための農業データセット構築とモデル評価
|
519 |
+
P7-22 組織を超えたLLM学習データの目的外利用を防げるか?
|
520 |
+
P7-23 人間が書いた文章を対象としたHallucination検出ベンチマークの構築と評価
|
521 |
+
P7-24 大規模言語モデルの利用におけるプライバシー保護の新たな視点
|
522 |
+
P7-25 ダイアグラム理解に向けた大規模視覚言語モデルの内部表現の分析
|
523 |
+
Q7-1 構造化知識 RAG・文書ベース RAG を段階的に利用したマルチホップ QA に対する LLM の精度向上
|
524 |
+
Q7-2 法律分野の統合引用グラフを活用した質問応答の実現
|
525 |
+
Q7-3 軽量LLMを用いた規則適合判定
|
526 |
+
Q7-4 ハンセン病回復者の語り部の証言記録に対する質問応答システム構築に向けたベクトル検索精度の検証
|
527 |
+
Q7-5 RAGの生成器におけるSLMの利用
|
528 |
+
Q7-6 Sentence-BERTによる分散表現を用いたベストアンサーの推定
|
529 |
+
Q7-7 OCRを利用したRAGにおけるPDF文書内のタイトルや表の利用
|
530 |
+
Q7-8 SQL AgentとマルチモーダルLLMを用いた文書内の表に対する質問応答システム
|
531 |
+
Q7-9 適応型負例選択を用いた対照学習による回答検索
|
532 |
+
Q7-10 Extraction and Generation Tasks with Knowledge-aware Text-to-Text Transfer Transformer
|
533 |
+
Q7-11 トップダウン手続きを応用したLLM Agentのプランニングの試み
|
534 |
+
Q7-12 介護支援システム:CPRASの開発
|
535 |
+
Q7-13 実世界対話における参照関係の統合的解析
|
536 |
+
Q7-14 PDF 形式の農業技術文書を用いた表構造認識ベンチマーク TOITA
|
537 |
+
Q7-15 ユーザ属性を考慮した検索拡張生成による学部教育課程相談チャットボット
|
538 |
+
Q7-16 LLM埋め込みと遷移確率予測を利用した実店舗内顧客行動シミュレーション
|
539 |
+
Q7-17 広告画像ランキングによる視覚言語モデルの評価
|
540 |
+
Q7-18 北海道十勝地域における農業政策と営農活動の課題分析の試み
|
541 |
+
Q7-19 拡張現実を用いた歩行型音声対話エージェント
|
542 |
+
Q7-20 農林業基準技術に含まれる表を対象としたPDF から CSV へ変換する際の課題分析
|
543 |
+
Q7-21 新型コロナワクチンをめぐるTwitter上の話題変化:テキスト精読と頻出単語分析による仮説構築とその検証
|
544 |
+
Q7-22 農林業基準技術文書を対象としたPDF���析ツールの表構造認識の性能評価
|
545 |
+
Q7-23J クイズコンペティションの結果分析から見た日本語質問応答の到達点と課題
|
546 |
+
A8-1 似た単語の知識ニューロンは似た形成過程を経る
|
547 |
+
A8-2 多角的な評価から大規模言語モデルにおける事実知識の想起の要因分析
|
548 |
+
A8-3 心理測定テストに関するLLMのメタ知識の検証
|
549 |
+
A8-4 日本向けにファインチューニングされた中国系大規模言語モデルに北京の検閲は残るか?
|
550 |
+
A8-5 大規模言語モデルは日本語・中国語の状態パーフェクトを理解できるか?
|
551 |
+
A8-6 従属節が分断された不可能言語を言語モデルは学習するのか
|
552 |
+
B8-1 認知症高齢者の発話意図推定に基づく注意発話検出システムの開発 ―帰宅願望や不安などを特定するコーパス構築―
|
553 |
+
B8-2 多様な客観的解釈を反映した主体性コーパス構築と予備的分析
|
554 |
+
B8-3 日本語文平易化のための疑似パラレルコーパス構築
|
555 |
+
B8-4 AdParaphrase: 魅力的な広告表現の分析を目的とした広告文言い換えデータセット
|
556 |
+
B8-5 プロンプトと複数の音声認識候補による青空文庫振り仮名注釈付き音声コーパスの再構築
|
557 |
+
B8-6 Sketch2Diagram: 視覚的指示を入力とするダイアグラム生成
|
558 |
+
C8-1 リザバー計算に触発された軽量型Transformer の提案:パラメタ共有を用いた計算の効率化と性能評価
|
559 |
+
C8-2 生成文の短縮による言語モデルの計算量削減
|
560 |
+
C8-3 合成データと能動学習を用いた大規模言語モデルへの効率的な知識定着
|
561 |
+
C8-4 モデル拡張を用いた段階的事前学習によるモデル系列の効率的な構築
|
562 |
+
C8-5 Gated Recurrent Unitの簡略化と学習型Bloom Filterへの影響
|
563 |
+
C8-6 MCMCを用いた前提検索によるLLMの仮説推論能力の強化
|
564 |
+
D8-1 話者特性に基づくターンテイキング速度の分析
|
565 |
+
D8-2 性格特性による感情誘導の効果検証
|
566 |
+
D8-3 実インタラクション映像から構築したマルチモーダルモデルを用いた人とロボットのインタラクションにおける異常検出
|
567 |
+
D8-4 大規模言語モデルを用いた対話品質評価に関する調査
|
568 |
+
D8-5 回答単位を小説登場人物とする大規模言語モデルベース発話者分類
|
569 |
+
D8-6 日本語Full-duplex音声対話システムの試作
|
570 |
+
E8-1 混合物の強さの度合
|
571 |
+
E8-2 大規模言語モデルは他者の心をシミュレートしているか
|
572 |
+
E8-3 大規模視覚言語モデルは錯視を理解しているか
|
573 |
+
E8-4 大規模言語モデルを用いた言語刺激下の脳内意味表象解読
|
574 |
+
E8-5 Improving Zero-Shot Machine Translation with Fixed Prefix Pair Bootstrapping
|
575 |
+
E8-6 記述文選択タスクによる大規模視覚言語モデルのアモーダル補完能力の評価
|
576 |
+
P8-1 検索付き拡張生成におけるハイパーパラメータとプロンプトの同時最適化
|
577 |
+
P8-2 事業セグメントに着目した有価証券報告書からの文脈抽出とキーワード生成による類似企業検索
|
578 |
+
P8-3 事故事例文書絞り込み検索システムの構築
|
579 |
+
P8-4 Wikipedia記事の内容と閲覧時間帯の関係の統計的分析
|
580 |
+
P8-5 表記ゆれが文埋め込みモデルに及ぼす影響についての考察
|
581 |
+
P8-6 IterKey: LLMを用いた反復的キーワード生成による検索拡張生成の最適化
|
582 |
+
P8-7 文対モデリングのための言い換えに基づく対照学習
|
583 |
+
P8-8 大規模言語モデルを用いた学術論文検索におけるブーリアン型検索クエリ作成の支援
|
584 |
+
P8-9 特定ドメイン向けローカル検索用のサジェスト提示に向けた分析
|
585 |
+
P8-10 地方議会会議録検索システム「ぎ~みるv2」の概要
|
586 |
+
P8-11 クリックログと小規模高品質データを併用したEコマースクエリ意図分類モデルの精度向上
|
587 |
+
P8-12 Sentence-BERT による,レコメンドへのユーザー意図の反映
|
588 |
+
P8-13 ベクトル検索におけるテキスト構造化の効果分析
|
589 |
+
P8-14 企業法務向け日本語文書検索評価データセットの構築と分析
|
590 |
+
P8-15 逆プロンプトを用いたコールドスタート推薦
|
591 |
+
P8-16 芸能人への感想を表すX上のポスト集約およびウェブ検索・RAGによるその理由の集約
|
592 |
+
P8-17 ユーザ行動ログに基づくクエリ理解のための検索クエリ埋め込み
|
593 |
+
P8-18 論文を対象とした RAG システムにおける質問分類に基づく動的検索
|
594 |
+
P8-19 文書埋め込みとクラスタリングを組み合わせたトピック分析手法の提案
|
595 |
+
P8-20 SoftMatcha: 大規模コーパス検索のための柔らかくも高速なパターンマッチャー
|
596 |
+
P8-21 Bi-encoder と 𝑘NN の組み合わせによる職務記述書に書かれた文のスキルマッピング
|
597 |
+
P8-22 学術情報推薦におけるグラフ構造の有効性検証
|
598 |
+
P8-23 インストラクションと複数タスクを利用した日本語向け分散表現モデルの構築
|
599 |
+
Q8-1 言語モデルを用いたパラメータ異常検出: 複数パラメータの組み合わせに対する異常
|
600 |
+
Q8-2 マイクロドメインに向けたLLM における知識活用方法の検討
|
601 |
+
Q8-3 継続事前学習によるLLMの知識獲得
|
602 |
+
Q8-4 利用手法の類似性に着目した学術論文推薦手法の提案
|
603 |
+
Q8-5 日本語バイト符号化マスク言語モデルの開発と分析
|
604 |
+
Q8-6 日独民法における自動対応付け手法の比較とfine-tuningの実装
|
605 |
+
Q8-7 LLM の学術ドメイン適応のための合成データに基づく統合フレームワーク
|
606 |
+
Q8-8 法令文解析に適した事前学習モデルの構築
|
607 |
+
Q8-9 モデルマージを用いたLLM翻訳における破滅的忘却の抑制
|
608 |
+
Q8-10 LLM推定ラベルと弱教師あり学習による反復的アノテーション更新
|
609 |
+
Q8-11 Flashback: 深層系列処理モデルのメモリ効率化・高速化のための記憶機構
|
610 |
+
Q8-12 SvMoE: MoE ルータの教師あり学習
|
611 |
+
Q8-13 日本語の包括的な指示追従性データセットの構築
|
612 |
+
Q8-14 LLMを用いた日本語学習者支援
|
613 |
+
Q8-15 Sparse Autoencoders as a Tool for Steering the Output Language of Large Language Models
|
614 |
+
Q8-16 日本語 VLM 構築に向けた合成データのフィルタリングの検討
|
615 |
+
Q8-17 文脈内学習におけるデモの親和性と多様性の提案
|
616 |
+
Q8-18 新聞ドメインにおける大規模言語モデルの継続事前学習と下流タスクデータ量の関係
|
617 |
+
Q8-19 確率的丸めを用いた言語モデルの量子化を意識した学習
|
618 |
+
Q8-20 大規模言語モデルによるテキスト平易化のための意味的類似性と表層的非類似性に基づくパラレルコーパスフィルタリング
|
619 |
+
Q8-21 模倣学習による大規模言語モデルの指示チューニング
|
620 |
+
Q8-22 少量ショットに対する大規模言語モデル(LLM)を用いた人工データ生成による精度向上の試み
|
621 |
+
Q8-23 量子化 bit 幅の異なる基盤モデルに対する Adapter の転移性を活用した Low-Rank Adaptation
|
622 |
+
Q8-24 連合学習におけるLoRAの統合数と精度の関係の検証
|
623 |
+
Q8-25J Weighted Asymmetric Loss for Multi-Label Text Classification on Imbalanced Data
|
624 |
+
A9-1 段落単位の対訳データによる大規模言語モデルの翻訳精度向上
|
625 |
+
A9-2 対訳単語の対偶を考慮した文パターンの選択とNMTの効果
|
626 |
+
A9-3 特許請求項翻訳における単語対応に基づく節分割モデルの有効性
|
627 |
+
A9-4 ニューラル機械翻訳のモデルレベル双方向学習における単言語データの活用
|
628 |
+
A9-5 対訳文のみを用いた翻訳と言い換えのマルチタスク学習における翻訳精度
|
629 |
+
A9-6 事例ベース意思決定理論に基づく復号
|
630 |
+
B9-1 ダイエット口コミデータセットにおけるダイエット食品およびダイエット飲料に関する語彙解析
|
631 |
+
B9-2 JMED-DICT: 大規模医療用語辞書の構築
|
632 |
+
B9-3 大規模言語モデルを活用した大規模医療用語辞書メンテナンスの効率化
|
633 |
+
B9-4 関西方言を対象とした形態素解析用辞書の拡張
|
634 |
+
B9-5 『子ども版日本語日常会話コーパス』モニター版の構築
|
635 |
+
B9-6 留学生向け看護語彙リスト作成のためのコーパス構築における課題 -『系統看護学講座』シリーズ3巻のパイロットスタディから-
|
636 |
+
C9-1 RAGによる芸能人の話題集約及びその経歴の良否判定
|
637 |
+
C9-2 抽象度が高いクエリによるアンケートデータの設問検索
|
638 |
+
C9-3 k近傍事例に基づく埋め込み表現のドメイン適応と検索への応用
|
639 |
+
C9-4 VDocRAG: 視覚的文書に対する検索拡張生成
|
640 |
+
C9-5 検索エンジンを指向したLLMのアラインメント
|
641 |
+
C9-6 RAGの応答正確性と連続応答性能の自動評価
|
642 |
+
D9-1 Japanese MT-bench++: より自然なマルチターン対話設定の日本語大規模ベンチマーク
|
643 |
+
D9-2 Exploring LLM-based Data Synthesis Strategies for Conversational Semantic Frame Analysis
|
644 |
+
D9-3 「松下幸之助」 再現AIシステムの開発
|
645 |
+
D9-4 MQM-Chat: 対話翻訳のための多次元品質指標
|
646 |
+
D9-5 対話データにおける個人の評価傾向の違いの分析 - 個人の評価傾向を反映した対話システム自動評価に向けて -
|
647 |
+
D9-6 人はなぜ笑うのか?対話における笑いの根拠ラベルの半自動構築
|
648 |
+
E9-1 統語情報は脳情報デコーディングに寄与するのか?
|
649 |
+
E9-2 Cognitive Preference Optimization: 脳情報による言語モデルの選好最適化
|
650 |
+
E9-3 二重課題は言語モデルの合理的な言語理解ストラテジーを促進する
|
651 |
+
E9-4 しりとり単語系列の特徴を制御する認知的要因に関する認知モデルを利用した調査
|
652 |
+
E9-5 母音想起時における脳信号の周波数特性に基づいた想起区間検出
|
653 |
+
E9-6 調音運動前の言語中枢間の位相同期を用いた母音認識
|
654 |
+
P9-1 オンラインニュースコメントを対象としたアスペクトベースのコメントフィルタリ��グシステム
|
655 |
+
P9-2 事前学習コーパス内の特定の属性への言及の急激な変化の調査
|
656 |
+
P9-3 Advancements in Sentiment Analysis: A Methodological Examination of News using multiple LLMs
|
657 |
+
P9-4 Investigating Implicit Reasoning in Counter-Argument Logical Structure Analysis
|
658 |
+
P9-5 YouTube動画コメントを用いた視聴者感情の推定と感情処理能力の比較
|
659 |
+
P9-6 LLM を利用した Zero Shot 評判分析の性能調査
|
660 |
+
P9-7 SNS投稿によるユーザの意見変化の予測と要因分析
|
661 |
+
P9-8 テキスト平易化パラレルコーパスに基づく教師なし文難易度推定
|
662 |
+
P9-9 ソーシャルメディアにおける投稿およびユーザの政治的傾向予測と政治的投稿フィルタによる性能向上
|
663 |
+
P9-10 発話スタイルの類似とユーザ本人による対話の好ましさの相関
|
664 |
+
P9-11 Short and long-range comedy generation and understanding using Large Language Models
|
665 |
+
P9-12 係り受け木を考慮するグラフ畳み込みニューラルネットワークによる日本語アスペクトベース感情分析
|
666 |
+
P9-13 Sentiment Analysis of YouTube Videos in the 2024 Indonesian Presidential Election
|
667 |
+
P9-14 評価対象抽出における関連タスクを利用したfew-shot 選択手法
|
668 |
+
P9-15 絵文字のマッピングを用いた感情表現の分析手法の検討
|
669 |
+
P9-16 大規模言語モデルによる日本語スタイル変換の性能評価
|
670 |
+
P9-17 教師有り学習モデルと大規模言語モデルを組み合わせた低評価レビューを考慮したレビュー文書の評価値推定
|
671 |
+
P9-18 バックトラッキングを活用したマルチエージェントシステムによる複数制約充足プランニング
|
672 |
+
P9-19 TEPPAY: ゲームのプレイ動画を入力とする実況AI Tuberシステムの提案
|
673 |
+
P9-20 行動認識の粒度アライメントに基づく予定の履行認識
|
674 |
+
P9-21 Psychological Investigation of Personality Knowledge in a Large Language Model
|
675 |
+
P9-22 関連研究節自動生成に向けた引用論文の最適配置
|
676 |
+
P9-23J 近傍事例を用いた対話における感情認識
|
677 |
+
Q9-1 生成型自動要約の信頼性向上を目的とした数値情報の誤り検出と修正手法
|
678 |
+
Q9-2 言語のインクリメンタルな処理の仕組みは普遍的か?:投機性によるparsing strategy再考
|
679 |
+
Q9-3 近現代の日本語文学作品における発表年次の予測
|
680 |
+
Q9-4 Shift-Reduce 法に基づく漸進的係り受け解析と未入力文節主辞トークン予測の同時実行とその評価
|
681 |
+
Q9-5 大規模言語モデルによる要求仕様書の品質評価
|
682 |
+
Q9-6 大規模言語モデルを用いたシフト還元型句構造解析
|
683 |
+
Q9-7 End-to-Endモデルに基づく漸進的係り受け解析と未入力文節主辞予測の同時実行
|
684 |
+
Q9-8 大規模言語モデルを用いたカタカナ語の意味分類における出力傾向分析
|
685 |
+
Q9-9 Exploring Dynamic Few-Shot Prompting for Word Sense Disambiguation in Historical Chinese
|
686 |
+
Q9-10 生成データに基づいた日本語の時間関係推定
|
687 |
+
Q9-11 複単語表現検出におけるLLMファインチューニングの有効性
|
688 |
+
Q9-12 CCGに基づく否定スコープ認識
|
689 |
+
Q9-13 視覚情報による曖昧性解消コーパスの検討
|
690 |
+
Q9-14 和歌の埋め込みに基づく本歌取りの推定
|
691 |
+
Q9-15 Towards a Comparison of Japanese and English Metaphor
|
692 |
+
Q9-16 比喩検出における大規模言語モデルを用いた前後補助文脈の活用
|
693 |
+
Q9-17 ルールベースの深層格定義および自動付与とそのLLM統合による含意関係認識における効果検証
|
694 |
+
Q9-18 ツリーバンクの言語学的妥当性の自動評価
|
695 |
+
Q9-19 自動ファクトチェックのための事実の分解による含意関係認識
|
696 |
+
Q9-20 大規模言語モデルを用いたStory Intention Graph の自動生成の精度改善
|
697 |
+
Q9-21 文の埋め込みに効果的な静的単語ベクトルの獲得
|
698 |
+
Q9-22 訓練不要な条件付きテキスト埋め込み
|
699 |
+
Q9-23J How Domain Adaptation of BERT Improves Syntactic Parsing of Math Text
|
700 |
+
Q9-24J Semantic Shift Stability: 学習コーパス内の単語の意味変化を用いた事前学習済みモデルの時系列性能劣化の監査
|
701 |
+
A10-1 Data Augmentation for Manipuri-English Neural Machine Translation
|
702 |
+
A10-2 llmMT+1: 非英語言語対 LLM 翻訳の実現法の検討
|
703 |
+
A10-3 Towards Equitable Translation: Gender Bias in Large Language Models
|
704 |
+
A10-4 BiMax: Bidirectional MaxSim Score for Bilingual Document Alignment
|
705 |
+
A10-5 小説会話文の翻訳へ向けた逆翻訳を用いた話者埋め込みの作成
|
706 |
+
A10-6 逆翻訳を用いたアイヌ語・日本語機械翻訳の改善における研究
|
707 |
+
B10-1 不均衡最適輸送を用いた意味変化検出
|
708 |
+
B10-2 ドメインモデルに基づいて技術文書中の矛盾を検出する方法
|
709 |
+
B10-3 反語文の情報格納―英語、中国語、日本語の比較から
|
710 |
+
B10-4 JDD-PAS:規範的な日本語日常対話コーパスへの意味役割ラベル・述語項構造付与
|
711 |
+
B10-5 読み推定のための教師なし単語分割
|
712 |
+
B10-6 言語モデルを用いた定量的推論機能の実現に向けて
|
713 |
+
C10-1 新聞記事からつくる 時事と社会に強い日本語LLM
|
714 |
+
C10-2 国産農業用LLMのためのインストラクションデータ構築と構築されたLLMシステムの評価
|
715 |
+
C10-3 日本語を主とした日・英・中トリリンガル700億パラメータモデルの構築
|
716 |
+
C10-4 ELAINE-medLLM: 英語、日本語、中国語に対応したバイオ医療ドメイン大規模言語モデル
|
717 |
+
C10-5 大規模言語モデルの再パラメタ化に基づく初期化による損失スパイクの抑制
|
718 |
+
C10-6 大規模言語モデルにおけるSupervised Fine-tuningの包括的検証
|
719 |
+
D10-1 LLMによるクイズの自動生成と質問応答への応用
|
720 |
+
D10-2 RAGに基づく韓国語法令・判例に対する質問応答
|
721 |
+
D10-3 Fusion-in-LLM: 質問応答タスクにおけるRAG
|
722 |
+
D10-4 対話要約の種別が対話の引継ぎに及ぼす影響の調査
|
723 |
+
D10-5 質問誘導に基づくアンケート対話システムの開発
|
724 |
+
D10-6 Multi-Relational Multi-Party Chat Corpus: 話者間の関係性に着目したマルチパーティ雑談対話コーパス
|
725 |
+
E10-1 BrainLMを用いた多言語学習での転移学習性能の検証
|
726 |
+
E10-2 CCGによる日本語脳波データのモデリング
|
727 |
+
E10-3 大規模言語モデルの浅い層が人間の速い言語処理を再現する
|
728 |
+
E10-4 Skip-bigrams reconstruct trigrams in 2-word languages
|
729 |
+
E10-5 Triple-Phase Transition: 脳との関係から捉える大規模言語モデルの学習ダイナミクス
|
730 |
+
P10-1 法的三段論法に基づく段階的プロンプトによる司法試験自動解答
|
731 |
+
P10-2 Detecting Individual Decision-Making Dialogues in Conversation
|
732 |
+
P10-3 LLM を用いた対話印象評価による対話システム学習とその分析
|
733 |
+
P10-4 リアルタイム音声対話システムのための応答タイミングと短文応答の同時予測
|
734 |
+
P10-5 キャラクターの2面性を表出する発話の生成に関する検討
|
735 |
+
P10-6 擬似選好チューニングによる対話応答のペルソナ一貫性向上
|
736 |
+
P10-7 メモと圧縮を用いた効率的なメモリモジュールを持つ対話システムの構築
|
737 |
+
P10-8 ユーザに適応する対話システムのためのLLMを用いた自我状態推定
|
738 |
+
P10-9 なりきり雑談システムを評価するためのキャライメージの評価者間一致に関する検証-4択クイズを用いた原作者とファンの比較-
|
739 |
+
P10-10 語り手の発話の言い換えにより語りに傾聴を示す応答の生成
|
740 |
+
P10-11 対話評価における参照応答集合の妥当性と言語モデルが出力する応答の多様性の関係
|
741 |
+
P10-12 状態遷移モデルおよび大規模言語モデルを用いた半構造化インタビューのモデル化
|
742 |
+
P10-13 AdPsyche: 広告心理学に基づく選好データセット
|
743 |
+
P10-14 大規模言語モデルを用いたソフトウェア仕様書の用語チェック
|
744 |
+
P10-15 誤りを経験して修正する:誤りデータの正例扱いによる対照学習
|
745 |
+
P10-16 対話に対する共感のアノテーションと共感制御可能な対話モデルの構築
|
746 |
+
P10-17 LLM ベースのマルチエージェントによる TRPG ゲームマスターシステムの実現
|
747 |
+
P10-18 適応的対話システムのための終盤の会話を予測する埋め込みモデルの構築
|
748 |
+
P10-19 疑似対話データとPreferenceデータを用いたドメイン特化対話への日本語LLMチューニングの検証
|
749 |
+
P10-20 思考発話を利用した個人の発話及び性格特性再現
|
750 |
+
P10-21 対話システムにおける個人特性を考慮した破綻度合い推定
|
751 |
+
P10-22 小説における台詞と口調,地の文を活用した台詞の発話者特定手法
|
752 |
+
P10-23 RAG を利用した傾聴応答生成の検証
|
753 |
+
P10-24 カウンセリングドメインに特化してfine-tuning を行ったLLMに対するActive Listening Skillの評価
|
754 |
+
Q10-1 技能者インタビュー対話におけるコツ発話の表出に至った発話列の特徴の分析
|
755 |
+
Q10-2 異種属性の内容的特徴をハイパーグラフにより統合するエンティティ表現学習
|
756 |
+
Q10-3 Hybrid-SET: 意味的類似性とセットカバレッジを考慮したfew-shot例選出手法
|
757 |
+
Q10-4 固有表現候補の用語情報を取得するLLMを用いた固有表現抽出
|
758 |
+
Q10-5 偏向LLMエージェントの協調による知識階層の誤り訂正
|
759 |
+
Q10-6 日本の刑事事件を対象とした法律相談システム
|
760 |
+
Q10-7 データセット間の関連性推定におけるメタデータの利用
|
761 |
+
Q10-8 不動産情報抽出業務の効率化に向けた大規模言語モデルを用いたアンサンブル手法
|
762 |
+
Q10-9 視覚的質問応答による文書情報抽出における同時多項目推論
|
763 |
+
Q10-10 半教師あり学習を用いた単語アライメントの改善
|
764 |
+
Q10-11 Cosine Similarity as Logits?: Few-shot Knowledge Graph Completion with Embedding Vectors of a Generative PLM and its Application in Knowledge Probing
|
765 |
+
Q10-12 地方議会の予算表を対��としたLLMによる表形式変換を用いたRAGの提案
|
766 |
+
Q10-13 製造業ドメインにおける日本語LLMの性能調査
|
767 |
+
Q10-14 健康経営度調査テキストに対する定量評価およびレコメンドアルゴリズムの提案
|
768 |
+
Q10-15 LLM を用いた関係抽出のデータ拡張におけるデータ選定と利用方法の検討
|
769 |
+
Q10-16 複数文章からの表生成における生成AIの利用と評価手法の比較
|
770 |
+
Q10-17 LLMを用いた交通分野固有表現抽出データセットの自動構築
|
771 |
+
Q10-18 Sentence BERTを用いた源氏物語内の古今和歌集引用の検出
|
772 |
+
Q10-19 デコーダモデルを用いた生物医学イベント抽出
|
773 |
+
Q10-20 小説のセリフを利用した登場人物に紐づく人間関係語の抽出
|
774 |
+
Q10-21 固有表現抽出タスクの形式の学習と様々なドメインへの適用
|
775 |
+
Q10-22 診断のサマリー作成支援に向けた会話記録のトピック分類
|
776 |
+
Q10-23 生成AIを用いた単語間における類推
|
777 |
+
Q10-24 埋め込みモデルベースの教師なしキーフレーズ抽出における長文に対する抽出精度の改善
|
778 |
+
Q10-25 ニュース記事中の企業名のEntity LinkingにおけるQuestion Answeringを用いた曖昧性解消
|
app.py
ADDED
@@ -0,0 +1,64 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
import faiss
|
2 |
+
import numpy as np
|
3 |
+
import pandas as pd
|
4 |
+
from sentence_transformers import SentenceTransformer
|
5 |
+
import streamlit as st
|
6 |
+
|
7 |
+
import os
|
8 |
+
|
9 |
+
os.environ['KMP_DUPLICATE_LIB_OK']='True'
|
10 |
+
|
11 |
+
|
12 |
+
@st.cache_resource
|
13 |
+
def load_model():
|
14 |
+
model = SentenceTransformer("sbintuitions/sarashina-embedding-v1-1b")
|
15 |
+
|
16 |
+
return model
|
17 |
+
|
18 |
+
|
19 |
+
@st.cache_resource
|
20 |
+
def load_title_data():
|
21 |
+
title_df = pd.read_csv('anlp2025.tsv', names=["pid", "title"], sep="\t")
|
22 |
+
|
23 |
+
return title_df
|
24 |
+
|
25 |
+
|
26 |
+
@st.cache_resource
|
27 |
+
def load_title_embeddings():
|
28 |
+
npz_comp = np.load("anlp2025.npz")
|
29 |
+
title_embeddings = npz_comp["arr_0"]
|
30 |
+
|
31 |
+
return title_embeddings
|
32 |
+
|
33 |
+
|
34 |
+
def get_retrieval_results(index, input_text, top_k, model, title_df):
|
35 |
+
query_embeddings = model.encode([input_text])
|
36 |
+
_, ids = index.search(x=query_embeddings, k=top_k)
|
37 |
+
retrieved_titles = []
|
38 |
+
retrieved_pids = []
|
39 |
+
|
40 |
+
for id in ids[0]:
|
41 |
+
retrieved_titles.append(title_df.loc[id, "title"])
|
42 |
+
retrieved_pids.append(title_df.loc[id, "pid"])
|
43 |
+
|
44 |
+
df = pd.DataFrame({"pids": retrieved_pids, "paper": retrieved_titles})
|
45 |
+
|
46 |
+
return df
|
47 |
+
|
48 |
+
|
49 |
+
if __name__ == "__main__":
|
50 |
+
model = load_model()
|
51 |
+
title_df = load_title_data()
|
52 |
+
title_embeddings = load_title_embeddings()
|
53 |
+
|
54 |
+
index = faiss.IndexFlatL2(1792)
|
55 |
+
index.add(title_embeddings)
|
56 |
+
|
57 |
+
st.markdown("## NLP2025 論文検索")
|
58 |
+
input_text = st.text_input('query', '', placeholder='')
|
59 |
+
top_k = st.number_input('top_k', min_value=1, value=10, step=1)
|
60 |
+
|
61 |
+
if st.button('検索'):
|
62 |
+
stripped_input_text = input_text.strip()
|
63 |
+
df = get_retrieval_results(index, stripped_input_text, top_k, model, title_df)
|
64 |
+
st.table(df)
|
poetry.lock
ADDED
The diff for this file is too large to render.
See raw diff
|
|
prepare_pool.py
ADDED
@@ -0,0 +1,17 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
from sentence_transformers import SentenceTransformer
|
2 |
+
import numpy as np
|
3 |
+
import pandas as pd
|
4 |
+
|
5 |
+
|
6 |
+
paper_df = pd.read_csv('anlp2025.tsv', names=["pid", "title"], sep="\t")
|
7 |
+
assert len(paper_df) == 778
|
8 |
+
|
9 |
+
input_texts = [title for title in paper_df["title"].tolist()]
|
10 |
+
assert input_texts[0] == "LLMのアテンションヘッドに着目したジェイルブレイク攻撃の分析と防御手法の提案"
|
11 |
+
assert input_texts[-1] == "ニュース記事中の企業名のEntity LinkingにおけるQuestion Answeringを用いた曖昧性解消"
|
12 |
+
|
13 |
+
model = SentenceTransformer("sbintuitions/sarashina-embedding-v1-1b")
|
14 |
+
embeddings = model.encode(input_texts)
|
15 |
+
assert embeddings.shape == (778, 1792)
|
16 |
+
|
17 |
+
np.savez("anlp2025", embeddings)
|
pyproject.toml
ADDED
@@ -0,0 +1,23 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[tool.poetry]
|
2 |
+
name = "nlp2025-title-search"
|
3 |
+
version = "0.1.0"
|
4 |
+
description = ""
|
5 |
+
authors = ["Kaito Sugimoto <[email protected]>"]
|
6 |
+
readme = "README.md"
|
7 |
+
packages = [{include = "nlp2025_title_search"}]
|
8 |
+
|
9 |
+
[tool.poetry.dependencies]
|
10 |
+
python = "^3.10"
|
11 |
+
beautifulsoup4 = "^4.13.3"
|
12 |
+
requests = "^2.32.3"
|
13 |
+
sentence-transformers = "^3.4.1"
|
14 |
+
pandas = "^2.2.3"
|
15 |
+
protobuf = "^5.29.3"
|
16 |
+
sentencepiece = "^0.2.0"
|
17 |
+
streamlit = "^1.42.0"
|
18 |
+
faiss-cpu = "^1.10.0"
|
19 |
+
|
20 |
+
|
21 |
+
[build-system]
|
22 |
+
requires = ["poetry-core"]
|
23 |
+
build-backend = "poetry.core.masonry.api"
|
requirements.txt
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
faiss-cpu==1.10.0
|
2 |
+
sentence-transformers==3.4.1
|
3 |
+
sentencepiece==0.2.0
|
scrape.py
ADDED
@@ -0,0 +1,27 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
from bs4 import BeautifulSoup
|
2 |
+
import requests
|
3 |
+
|
4 |
+
url = "https://www.anlp.jp/proceedings/annual_meeting/2025/"
|
5 |
+
|
6 |
+
response = requests.get(url)
|
7 |
+
response.encoding = response.apparent_encoding
|
8 |
+
html_content = response.text
|
9 |
+
|
10 |
+
|
11 |
+
soup = BeautifulSoup(html_content, 'html.parser')
|
12 |
+
|
13 |
+
extracted_pairs = []
|
14 |
+
|
15 |
+
for table in soup.find_all('table'):
|
16 |
+
for tr in table.find_all('tr'):
|
17 |
+
pid_span = tr.find('span', id=True)
|
18 |
+
title_span = tr.find('span', class_='title')
|
19 |
+
if pid_span and title_span:
|
20 |
+
pair = (pid_span.get_text(), title_span.get_text())
|
21 |
+
if pair[0] and pair[1]:
|
22 |
+
extracted_pairs.append(pair)
|
23 |
+
|
24 |
+
|
25 |
+
with open("anlp2025.tsv", "w") as f:
|
26 |
+
for pair in extracted_pairs:
|
27 |
+
f.write(f"{pair[0]}\t{pair[1]}\n")
|