Ryota Tanaka (@rtanaka_lab) 's Twitter Profile
Ryota Tanaka

@rtanaka_lab

NLP, Vision&Language @ NTT Human Informatics Laboratories

ID: 998127492467576832

linkhttps://rtanaka-lab.github.io/ calendar_today20-05-2018 09:05:13

486 Tweet

901 Followers

509 Following

Yui Oka (@ok_migihito) 's Twitter Profile Photo

ICLR2025に採択された論文をarxivにて公開しました〜 RoPEはウェーブレット変換の一種であることを明らかにし,ウェーブレット変換に基づいた位置符号化を提案しています.「ウェーブレット位置符号化」というタイトルでANLP2025@長崎でもポスター発表予定です〜! arxiv.org/abs/2502.02004

Ryota Tanaka (@rtanaka_lab) 's Twitter Profile Photo

こちら言語処理学会でも発表予定です C9:情報検索・テキストマイニング    3月13日(木) 10:20-11:50 C会場 C9-4 VDocRAG: 視覚的文書に対する検索拡張生成 ○田中 涼太 (NTT/東北大), 壹岐 太一, 長谷川 拓, 西田 京介, 齋藤 邦子 (NTT), 鈴木 潤 (東北大)

Daiki Shiono (@onely7_deep) 's Twitter Profile Photo

#NLP2025 では、主著1本、共著2本の発表があります。 主著は、LLMのファインチューニング段階におけるPadding戦略とPacking戦略の下流タスクに対する影響を調査した話です。 現地参加の方は、 ・03/11 14:50-16:20 1F Q4(ポスター)会場 にぜひお越しください! お待ちしてます! Tohoku NLP Group

#NLP2025 では、主著1本、共著2本の発表があります。 

主著は、LLMのファインチューニング段階におけるPadding戦略とPacking戦略の下流タスクに対する影響を調査した話です。

現地参加の方は、
・03/11 14:50-16:20 1F Q4(ポスター)会場
にぜひお越しください!
お待ちしてます!
<a href="/tohoku_nlp/">Tohoku NLP Group</a>
Masatoshi Suzuki (@fivehints) 's Twitter Profile Photo

#AI王 の論文(共著)が、今年度の言語処理学会最優秀論文賞を受賞しました! 🙌 論文を選考くださった方々、「AI王」に関わってくださったすべての皆さまに、心より感謝いたします。 Tohoku NLP Group AI王〜クイズAI日本一決定戦〜

Kyosuke Nishida (@kyoun) 's Twitter Profile Photo

#NLP2025 にて4件受賞しました!年次大会優秀賞は8年連続9件目になりました! 併せて、今年度は共著でたくさんのトップ会議採択がありました。主著の皆さんの頑張りに感謝します!

Ryota Tanaka (@rtanaka_lab) 's Twitter Profile Photo

本日、NTT人間情報研究所 准特別研究員を拝命しました。NTTのマルチモーダル研究を更に加速していきます! また、3/25に東北大学にて、博士号(情報科学)と総長賞を頂きました。関係者の皆さん、ありがとうございました。引き続きよろしくお願いします!

Sumit (@_reachsumit) 's Twitter Profile Photo

VDocRAG: Retrieval-Augmented Generation over Visually-Rich Documents Ryota Tanaka et al. introduce a RAG framework that directly understands diverse document formats through visual features. 📝arxiv.org/abs/2504.09795 👨🏽‍💻vdocrag.github.io

Rohan Paul (@rohanpaul_ai) 's Twitter Profile Photo

Standard RAG struggles with visually-rich documents, losing information by converting everything to text. This paper introduces VDocRAG, processing documents directly as images using Large Vision-Language Models (LVLMs) to preserve visual context for accurate retrieval and

Standard RAG struggles with visually-rich documents, losing information by converting everything to text.

This paper introduces VDocRAG, processing documents directly as images using Large Vision-Language Models (LVLMs) to preserve visual context for accurate retrieval and
Taku Hasegawa (@th_freiburg) 's Twitter Profile Photo

🎉 Excited to announce our ICML 2025 paper “Portable Reward Tuning: Towards Reusable Fine‑Tuning across Different Pretrained Models,” co‑first‑authored with Daiki Chijiwa 🤝(equal contribution)! #ICML2025 Preprint 👉 arxiv.org/abs/2502.12776

🎉 Excited to announce our ICML 2025 paper “Portable Reward Tuning: Towards Reusable Fine‑Tuning across Different Pretrained Models,” co‑first‑authored with <a href="/dchiji_en/">Daiki Chijiwa</a> 🤝(equal contribution)! #ICML2025 

Preprint 👉 arxiv.org/abs/2502.12776
NTT広報室 (@nttpr) 's Twitter Profile Photo

7/13~19までバンクーバーで開催される国際会議 #ICML2025 において、NTT研究所より提出された9件の論文が採択されました🏅 ICMLは機械学習分野の基礎理論やアルゴリズムに関する世界最高峰とされる国際会議として、近年の人工知能の発展に大きく寄与しています #NTTRD group.ntt/jp/topics/2025…