論文
335件肢体に障害のあるユーザーも含めたインクルーシブなゲーム体験を目指し、気球飛行型ゲームに呼吸を入力インターフェースとして組み込んだコントローラーの開発と試作を報告した研究。
Evaluating the Feasibility of Augmented Reality to Support Communication Access for Deaf Students in Experiential Higher Education Contexts 実体験型高等教育環境での聴覚障害学生のコミュニケーションアクセスをARで支援する可能性の評価
大学の実験室など体験型学習環境における聴覚障害学生のコミュニケーションアクセスを、ARヘッドセットで支援する実現可能性を検証した研究。
Explainable AI for Blind and Low-Vision Users: Navigating Trust, Modality, and Interpretability in the Agentic Era 盲・弱視ユーザーのための説明可能AI:エージェント時代における信頼・モダリティ・解釈可能性
盲・弱視ユーザーを対象に説明可能AI(XAI)の現状を整理し、視覚に依存しないモダリティでのAI説明と信頼確保に向けた課題と方向性を論じた研究。
Designing AI for Real Users -- Accessibility Gaps in Retail AI Front-End 実際のユーザーのためにAIを設計する――小売AIフロントエンドのアクセシビリティギャップ
小売業向けAIのフロントエンドが「理想的なユーザー像」を前提に設計されており、障害のあるユーザーが暗黙的に排除されている問題を指摘したコメンタリー。
Channelling, Coordinating, Collaborating: A Three-Layer Framework for Disability-Centered Human-Agent Collaboration チャネリング・調整・協働:障害を中心に据えた人間とAIエージェントの協働のための3層フレームワーク
障害のある人を含む多様な能力を持つチームの協働を支援するため、AIが仲介・調整・共創の3層で機能する人間-エージェント協働フレームワークを提案した研究。
User Involvement in Robotic Wheelchair Development: A Decade of Limited Progress ロボット型車椅子開発におけるユーザー参加:10年間の限られた進歩
移動機能障害のある当事者がロボット型車椅子の設計・開発にどう関与してきたかを2015〜2025年の文献でレビューし、10年間で進展が限定的であることを示した研究。
Unseen City Canvases: Exploring Blind and Low Vision People's Perspectives on Urban and Public Art Accessibility 見えない都市のキャンバス:盲・弱視者から見た都市・パブリックアートのアクセシビリティ
盲・弱視者16名へのインタビューから、屋外の公共アートがほぼ未対応であることを明らかにし、都市パブリックアートのアクセシビリティ向上に向けた示唆を導き出した研究。
Bridging the Interpretation Gap in Accessibility Testing: Empathetic and Legal-Aware Bug Report Generation via Large Language Models アクセシビリティテストの解釈ギャップを埋める:LLMによる共感的・法令対応バグレポート生成
モバイルアプリのアクセシビリティ違反を、法的根拠や共感的説明を含む理解しやすいバグレポートとしてLLMが自動生成するHEARシステムを提案した研究だ。
Robust Multilingual Text-to-Pictogram Mapping for Scalable Reading Rehabilitation スケーラブルな読解支援のための堅牢な多言語テキスト→ピクトグラム変換
特別支援教育(SEND)が必要な子どもの読解を支援するため、テキストを多言語対応のピクトグラムに自動変換するAIインターフェースを開発・評価した研究だ。
Demonstration of Adapt4Me: An Uncertainty-Aware Authoring Environment for Personalizing Automatic Speech Recognition to Non-normative Speech Adapt4Me デモ:非定型発話向け音声認識を個人最適化する不確実性考慮型オーサリング環境
吃音・神経運動疾患など非定型発話のある人の音声認識を専門知識なしに個人最適化できるウェブツール「Adapt4Me」を提案した研究で、ベイズ的能動学習でデータ収集からモデル適応まで完結できる。
Exploring the Role of Interaction Data to Empower End-User Decision-Making In UI Personalization UIパーソナライズにおけるエンドユーザーの意思決定を支援する操作データの役割
ユーザー自身の操作ログを振り返ることでUIパーソナライズの機会を自ら発見できる「内省的パーソナライゼーション」アプローチを、12名のインタビューで探索した研究だ。
Adaptive Captioning with Emotional Cues: Supporting DHH and Neurodivergent Learners in STEM 感情的手がかりを組み込んだ適応型キャプション:STEM教育における聴覚障害者・神経多様性のある学習者支援
聴覚障害者やADHDなど神経多様性のある学習者向けに、感情・非言語的手がかりを加えたキャプションのプロトタイプ4種をSTEM教育の文脈でデザイン検討した研究だ。
Navigation beyond Wayfinding: Robots Collaborating with Visually Impaired Users for Environmental Interactions 経路誘導を超えたナビゲーション:視覚障害者と協働して環境操作を行うロボット
視覚障害者向けロボット案内システムに、経路誘導だけでなくエレベーターのボタン操作など環境との相互作用機能を加えた新設計を提案した研究だ。
Audo-Sight: AI-driven Ambient Perception Across Edge-Cloud for Blind and Low Vision Users Audo-Sight: 視覚障害者向けエッジ・クラウド連携によるAI周囲認識システム
視覚障害者が周囲の環境を音声会話で把握できるAI支援システム「Audo-Sight」を提案した研究で、エッジとクラウドを組み合わせることでリアルタイムな場面描写を実現している。
GeoVisA11y: An AI-based Geovisualization Question-Answering System for Screen-Reader Users GeoVisA11y: スクリーンリーダーユーザー向けAIベース地図可視化Q&Aシステム
スクリーンリーダーユーザーが地図情報を自然言語で読み取り・分析できるLLMベースQ&Aシステム「GeoVisA11y」を開発し、視覚障害者12名を含む評価を実施した研究だ。
The Three Praxes Framework - A Thematic Review and Map of Social Accessibility Research Three Praxes Framework:社会的アクセシビリティ研究のテーマ別レビューとマッピング
障害者の社会参加を支援する研究90本を体系的に分析し、Artifact(道具)・Ecosystem(生態系)・Agency(主体性)の3領域からなる社会的アクセシビリティ研究の枠組み「Three Praxes Framework」を提示した。
From Autonomy to Sovereignty - A New Telos for Socially Assistive Technology 自立から主権へ:社会的支援技術の新たな目的論
障害者支援技術が「自立」を前提とする一方で障害当事者が「相互依存」を望むという緊張関係を分析し、新たな目的論「Sovereignty(主権)」を提案した論考だ。
Broken Access: On the Challenges of Screen Reader Assisted Two-Factor and Passwordless Authentication 壊れたアクセス:スクリーンリーダーによる2要素認証・パスワードレス認証の課題
視覚障害のあるスクリーンリーダー利用者が2要素認証やパスワードレス認証を使う際のアクセシビリティ課題を調査し、現行の認証方式が晴眼者中心に設計されている問題を示した研究だ。
The Perceptual Gap: Why We Need Accessible XAI for Assistive Technologies 知覚のギャップ:支援技術にアクセシブルなXAIが必要な理由
視覚・聴覚障害者向けAI支援技術のブラックボックスモデルに説明可能AI(XAI)を組み込む必要性を論じ、障害特性に配慮したアクセシブルXAIの設計指針を提示している。
Colour Contrast on the Web: A WCAG 2.1 Level AA Compliance Audit of Common Crawl's Top 500 Domains ウェブのカラーコントラスト:Common Crawl上位500ドメインのWCAG 2.1 AA適合性監査
Common Crawlの上位500ドメインを対象にWCAG 2.1/2.2 AAのカラーコントラスト適合率を大規模自動監査した研究で、240ページから4,327色ペアを分析している。
Finding the Signal in the Noise: An Exploratory Study on Assessing the Effectiveness of AI and Accessibility Forums for Blind Users' Support Needs ノイズの中のシグナルを探して:視覚障害者のサポートニーズにおけるAIとアクセシビリティフォーラムの有効性を探る
視覚障害者がコンピュータ操作の問題解決に利用するアクセシビリティフォーラムと生成AIの利用体験を14名へのインタビューで調査し、両者の補完関係とサポートの格差を分析した研究だ。
Understanding Nature Engagement Experiences of Blind People 全盲者が自然と関わる体験の理解
全盲者が自然とどのように関わるかをアンケートとインタビューで調査した研究で、聴覚・触覚・嗅覚を通じた固有の体験様式と晴眼者との差異を明らかにしている。
Not Seeing the Whole Picture: Challenges and Opportunities in Using AI for Co-Making Physical DIY-AT for People with Visual Impairments 全体像が見えない:視覚障害者向けDIY支援技術の共同制作にAIを活用する課題と可能性
視覚障害者向けDIY支援技術のツールキットにAIを活用した共同製作の可能性を検討した定性研究で、専門知識・自信・ツールへのアクセスという複合的な障壁を明らかにしている。
A11y-CUA Dataset: Characterizing the Accessibility Gap in Computer Use Agents A11y-CUA データセット:コンピュータ操作エージェントにおけるアクセシビリティ格差の定量化
晴眼者向けコンピュータ操作エージェント(CUA)と視覚障害者のAT操作との差異を定量化するデータセット「A11y-CUA」を公開した研究で、40.4時間・158,325イベントを収録している。
ADCanvas: Accessible and Conversational Audio Description Authoring for Blind and Low Vision Creators ADCanvas:視覚障害・弱視クリエイター向けアクセシブルな会話型音声解説制作システム
視覚障害のある動画クリエイターがAD(音声解説)を制作できるよう、会話型インタラクションとキーボード・スクリーンリーダー対応を統合したシステム「ADCanvas」を提案している。
Preliminary Results of a Scoping Review on Assistive Technologies for Adults with ADHD 成人ADHD向け支援技術に関するスコーピングレビューの速報
成人のADHD(注意欠如多動症)を対象とした支援技術のスコーピングレビュー速報で、職場・高等教育での独自の課題と研究の空白を整理した。
A Personalized and Adaptable User Interface for a Speech and Cursor Brain-Computer Interface 音声・カーソル型ブレイン・コンピュータ・インタフェース向けパーソナライズ適応UIの設計
重度麻痺者が音声とカーソル操作でコンピュータを使えるよう、皮質内BCI向けにパーソナライズ・適応可能なUIを設計した研究だ。
From Struggle to Success: Context-Aware Guidance for Screen Reader Users in Computer Use 困難から成功へ:PC操作におけるスクリーンリーダーユーザー向け状況対応型ガイダンス
視覚障害のあるスクリーンリーダーユーザーがPC操作で困った際に、状況に応じたオンデマンドのステップバイステップ支援を提供するAIアシスタント「AskEase」を提案した研究だ。
A Real-Time Error Prevention System for Gaze-Based Interaction in Virtual Reality Based on Anomaly Detection 異常検知に基づくVR視線操作のリアルタイムエラー防止システム
肢体不自由等の支援技術として活用が期待されるVR視線操作において、意図しない入力を防ぐリアルタイムエラー防止システムを開発。TCNAEによる異常検知でエラー選択を大幅に削減し、41名の実験で有効性を確認している。
Biometric-enabled Personalized Augmentative and Alternative Communications 生体認証を活用したパーソナライズ型拡大代替コミュニケーション(AAC)
コミュニケーション障害者向けAAC(拡大代替コミュニケーション)に生体認証技術をマッピングするロードマップを提示。AACバイオメトリックレジスタと再構成可能なAACチャネルという新概念を提案している。
An Extension-Based Accessibility Framework for Making Blockly Accessible to Blind and Low-Vision Users 視覚障害者向けに Blockly をアクセシブルにする拡張ベースのアクセシビリティフレームワーク
視覚障害のある学習者が、Blocklyライブラリ自体を改変せずにブロックベースプログラミング環境を利用できる拡張ベースフレームワーク(EAF)を提案。K-12教育での活用を想定している。
LLM-Driven Accessible Interface: A Model-Based Approach LLM 駆動のアクセシブルインターフェース:モデル駆動アプローチ
LLMを活用し、障害特性に応じたパーソナライズドUIをモデル駆動で自動生成するアーキテクチャを提案。構造化ユーザープロファイルと適応ルールに基づいてマルチモーダルインターフェースを動的に生成する。
Evaluating Web Accessibility and Usability in Bangladesh: A Comparative Analysis of Government and Non-Government Websites バングラデシュにおけるウェブアクセシビリティとユーザビリティの評価:政府・非政府ウェブサイトの比較分析
バングラデシュの政府・非政府ウェブサイトを対象に、WCAG 2.2に基づく自動評価とユーザーフィードバックを組み合わせてアクセシビリティを比較分析し、212件の障壁を特定した研究だ。
Perceptually-Minimal Color Optimization for Web Accessibility: A Multi-Phase Constrained Approach ウェブアクセシビリティのための知覚変化最小カラー最適化:多段階制約アプローチ
WCAGのカラーコントラスト要件に自動準拠しつつブランドカラーの変化を最小化する多段階最適化手法を提案。色覚障害や低視力ユーザーのアクセシビリティとデザイン上の一貫性を両立する。
Systematically Evaluating Equivalent Purpose for Digital Maps デジタル地図における同等の目的の体系的評価
視覚障害者向けデジタル地図のアクセシビリティにおいて、WCAG 1.1.1の「同等の目的」定義のギャップを指摘し、体系的評価フレームワーク「MEP-F」を提案する論文だ。
Design and Implementation of a Multi-Purpose Low-Cost Hall-Effect Sensor Glove for Sign Language Recognition 手話認識のための多目的低コストホール効果センサーグローブの設計と実装
聴覚障害者の手話認識のため、高価な商業製品に代わる低コスト・高耐久なホール効果センサーグローブを設計・実装した研究で、ネパール等の低リソース環境での普及を想定している。
SweeperBot: Making 3D Browsing Accessible through View Analysis and Visual Question Answering SweeperBot: 視点分析とVQAによる3Dブラウジングのアクセシビリティ向上
視覚障害のあるスクリーンリーダーユーザーが3Dモデルをアクセシブルに探索・比較できるシステム「SweeperBot」を提案。最適視点選択とVQA(視覚的質問応答)を組み合わせ、3Dブラウジングのアクセシビリティ向上を実現する。
Accessibility Gaps in U.S. Government Dashboards for Blind and Low-Vision Residents 視覚障害者・弱視者向け米国政府ダッシュボードのアクセシビリティ格差
CDC・HUD・ニューヨーク市等、米国連邦・州・市レベルの政府ダッシュボード6件を対象に、視覚障害者向けアクセシビリティをスクリーンリーダーとWCAG基準で監査した調査だ。
Accessibility, Safety, and Accommodation Burden in U.S. Higher Education Syllabi for Blind and Low-Vision Students 米国高等教育のシラバスにおけるアクセシビリティ・安全性・合理的配慮の負担:視覚障害学生を対象として
米国5大学のシラバスをスクリーンリーダーで監査し、視覚障害学生が授業情報へ自立してアクセスできるかを検証。機械可読性・ナビゲーション性・合理的配慮の記載状況を評価した。
AIDEN: Design and Pilot Study of an AI Assistant for the Visually Impaired AIDEN: 視覚障害者向けAIアシスタントの設計とパイロット研究
視覚障害者の自律性と生活の質を高めるAIアシスタント「AIDEN」を開発・試験し、物体認識・テキスト読み取り・ナビゲーションを統合しつつ音声過負荷とプライバシーに対応したハイブリッド設計を示す。
Towards Scalable Web Accessibility Audit with MLLMs as Copilots MLLMをコパイロットに活用したスケーラブルなWebアクセシビリティ監査に向けて
WCAG-EMに基づくサイト全体の適合性評価をMLLM(マルチモーダルLLM)を副操縦士として活用することでスケール可能にした、ウェブアクセシビリティ監査フレームワーク「AAA」を提案する。
インクルーシブ・デザインの視点から障害当事者を起点としたソーシャル・イノベーション創出プロセスを研究・実践した事例報告だ。
Case Study of GAI for Generating Novel Images for Real-World Embroidery 実際の刺繍のための新しい画像生成に生成AIを活用したケーススタディ
障害者主導のチームによるオートエスノグラフィーを通じ、刺繍アートパターンのデザインをよりアクセシブルにする手段として生成AIの活用可能性を探ったケーススタディだ。
TapNav: Adaptive Spatiotactile Screen Readers for Tactually Guided Touchscreen Interactions for Blind and Low Vision People TapNav: 視覚障害者・弱視者向けの触覚誘導タッチスクリーン操作を実現する適応型スクリーンリーダー
視覚障害者・弱視者向けに触覚フィードバックを空間的に活用するタッチスクリーン操作を実現する適応型スクリーンリーダー「TapNav」を開発し、音声の逐次的制限を超えるインタラクション手法を提案する。
How Far I'll Go: Imagining Futures of Conversational AI with People with Visual Impairments Through Design Fiction どこまで行けるか:デザインフィクションで視覚障害者と会話AIの未来を想像する
視覚障害者14名を対象に音声ベースのデザインフィクションで将来の会話AIを体験させ、自律性・信頼・プライバシーなどに関する当事者の未来像を探索した研究だ。
TaskAudit: Detecting Functiona11ity Errors in Mobile Apps via Agentic Task Execution TaskAudit: エージェント型タスク実行によるモバイルアプリの機能アクセシビリティエラー検出
モバイルアプリのインタラクションを通じてのみ現れるアクセシビリティ障壁(functiona11ity errors)を定義し、エージェント型タスク実行で自動検出するフレームワーク「TaskAudit」を提案する。
NaviSense: A Multimodal Assistive Mobile application for Object Retrieval by Persons with Visual Impairment NaviSense:視覚障害者のための物体検索を支援するマルチモーダルモバイルアプリ
会話AI・ビジョン言語モデル・空間音響フィードバックを統合し、視覚障害者が自由なクエリで物体を探して手元まで誘導されるモバイルアシスタントNaviSenseを提案する。
Does Embodiment Matter to Biomechanics and Function? A Comparative Analysis of Head-Mounted and Hand-Held Assistive Devices for Individuals with Blindness and Low Vision 装着形態は生体力学と機能に影響するか?視覚障害者向けヘッドマウント型とハンドヘルド型支援デバイスの比較分析
視覚障害者11名がSeeing AIをスマートフォンとヘッドマウント型ARデバイスで6種の日常生活活動に用い、装着形態の違いが動作・機能・使いやすさに与える影響を比較した研究だ。
Sensing the Shape of Data: Non-Visual Exploration of Statistical Concepts in Histograms with Blind and Low-Vision Learners データの形を感じ取る:視覚障害者・弱視者によるヒストグラムの統計概念の非視覚的探索
視覚障害者・弱視者がヒストグラムを通じて統計概念をどのように学ぶかを調査し、視覚に依存しない統計学習の戦略と課題を明らかにした研究だ。
"I thought it was my mistake, but it's really the design'': A Critical Examination of the Accessibility of User-Enacted Moderation Tools on Facebook and X 「自分のミスだと思っていたが、実はデザインの問題だった」:FacebookとXのユーザー主導モデレーションツールのアクセシビリティを批判的に検証する
FacebookとXのモデレーションツール(ブロック・報告・コンテンツフィルター等)を視覚障害者15名が使用するタスク評価を通じ、アクセシビリティ上の障壁を明らかにした研究だ。
Smart Device Development for Gait Monitoring: Multimodal Feedback in an Interactive Foot Orthosis, Walking Aid, and Mobile Application 歩行モニタリング向けスマートデバイス開発:インタラクティブ足底板・歩行補助具・モバイルアプリにおけるマルチモーダルフィードバック
歩行機能のリハビリを支援するため、スマート足底板と器具付き前腕クラッチにセンサーを組み込み、振動・聴覚・視覚のマルチモーダルフィードバックをリアルタイムで提供するシステムだ。
Context-Adaptive Hearing Aid Fitting Advisor through Multi-turn Multimodal LLM Conversation マルチターンマルチモーダルLLM会話による文脈適応型補聴器フィッティングアドバイザー
聴覚障害者の補聴器フィッティングを、環境音・オージオグラム・ユーザーフィードバックをマルチエージェントLLMで統合しリアルタイム調整するシステムCAFAを提案した研究だ。
Beamforming-LLM: What, Where and When Did I Miss? Beamforming-LLM:何を、どこで、いつ聞き逃したか
聴覚障害者の聞き逃しを支援するため、マイクアレイのビームフォーミングとRAGを組み合わせ、複数話者環境での会話内容を自然言語クエリで後から検索できるBeamforming-LLMの提案だ。
OpenGuide: Assistive Object Retrieval in Indoor Spaces for Individuals with Visual Impairments OpenGuide:視覚障害者のための屋内物体検索支援システム
視覚障害者が雑然とした室内で複数の物体を効率よく探し出せるよう設計された、スケーラブルなマルチオブジェクト検索機能を持つ屋内ナビゲーションシステムOpenGuideの提案だ。
An AI-Based Shopping Assistant System to Support the Visually Impaired 視覚障害者を支援するAIベースのショッピングアシスタントシステム
視覚障害者向けに、コンピュータビジョン・音声認識・音声合成を統合してスーパーマーケットでの自律的な買い物を支援するAIショッピングアシスタントのプロトタイプを提案する研究だ。
Understanding Accessibility Needs of Blind Authors on CMS-Based Websites CMSサイトにおける視覚障害を持つコンテンツ著者のアクセシビリティニーズの把握
CMSを使ったコンテンツ制作場面における視覚障害者の課題を調査し、閲覧者ではなく制作者・著者としての障壁という見落とされがちな側面に焦点を当てた研究だ。
Playing telephone with generative models: "verification disability," "compelled reliance," and accessibility in data visualization 生成モデルで伝言ゲーム: データ可視化のアクセシビリティにおける「検証困難」と「強制的依存」
データ可視化において生成AIへの依存が高まる中、AIが視覚障害者に「検証困難な依存」を強いるverification disabilityという新たな問題を提起する論文だ。
Caption: Generating Informative Content Labels for Image Buttons Using Next-Screen Context Caption: 次画面の文脈を活用した画像ボタンへの有益なコンテンツラベル自動生成
スクリーンリーダー利用者向けに、モバイルアプリの画像ボタンに不足しがちなコンテンツラベルを次画面の文脈情報を用いたLLMで自動生成するCaptionシステムを提案する。
The Escalator Problem: Identifying Implicit Motion Blindness in AI for Accessibility エスカレーター問題: アクセシビリティAIにおける暗黙的な動き盲点の特定
視覚障害者向け支援技術として注目されるマルチモーダルLLMが、エスカレーターの進行方向など動きの暗黙的な認識に失敗する根本的な限界を指摘する研究だ。
Accessibility Beyond Accommodations: A Systematic Redesign of Introduction to Computer Science for Students with Visual Impairments 個別対応を超えたアクセシビリティ: 視覚障害のある学生向けコンピュータサイエンス入門の体系的な再設計
視覚障害のある学生がCSを完全に学べるよう、個別配慮ではなくアクセシビリティをカリキュラム設計の核心に据えたコンピュータサイエンス入門の体系的な再設計を提案する。
Using Tactile Charts to Support Comprehension and Learning of Complex Visualizations for Blind and Low-Vision Individuals 視覚障害者・弱視者の複雑なビジュアライゼーション理解と学習を支援する触覚チャートの活用
視覚障害・弱視者が複雑なデータビジュアライゼーションを理解・学習するための触覚チャート4種を設計し、インタビュー調査でその有効性を検証した研究だ。
Helping or Homogenizing? GenAI as a Design Partner to Pre-Service SLPs for Just-in-Time Programming of AAC 支援か均質化か? AACのジャストインタイム設計における言語聴覚士候補生のデザインパートナーとしての生成AI
発話困難な自閉症の子ども向けAAC(拡大代替コミュニケーション)のビジュアルシーン設計に生成AIをパートナーとして活用した場合の支援効果と均質化リスクを検討する研究だ。
LowKeyEMG: Electromyographic typing with a reduced keyset LowKeyEMG: 少数キーセットによる筋電図タイピング
運動機能障害のある人向けに、筋電図センサーで7種のジェスチャーを解読して片手でリアルタイム文字入力を行うLowKeyEMGを紹介する研究だ。
FlashGuard: Novel Method in Evaluating Differential Characteristics of Visual Stimuli for Deterring Seizure Triggers in Photosensitive Epilepsy FlashGuard: 光感受性てんかんの発作誘因を抑制する視覚刺激の差分特性評価手法
光感受性てんかん患者が動画視聴中に発作誘発フラッシュに晒される問題に対し、リアルタイムで検出・抑制するFlashGuardを提案する研究だ。
Screen2AX: Vision-Based Approach for Automatic macOS Accessibility Generation Screen2AX: ビジョンモデルによるmacOSアクセシビリティ情報の自動生成手法
macOSアプリの33%しかアクセシビリティメタデータが完全でない現状に対し、ビジョンモデルがスクリーンショットから自動生成するScreen2AXを提案する研究だ。
Task Mode: Dynamic Filtering for Task-Specific Web Navigation using LLMs Task Mode: LLMを使ったタスク特化型ウェブナビゲーションのための動的フィルタリング
スクリーンリーダー利用者のウェブナビゲーションを効率化するため、LLMがタスク目標と無関係な要素を動的にフィルタリングする「Task Mode」を提案する研究だ。
Uncanny or Not? Perceptions of AI-Generated Faces in Autism 不気味か否か?自閉スペクトラム症におけるAI生成顔への知覚
自閉スペクトラム症の人々がAI生成の合成顔画像をどう知覚するかをRedditの議論の質的分析から調査し、不気味の谷効果との関連を探る研究だ。
More than One Step at a Time: Designing Procedural Feedback for Non-visual Makeup Routines 一度に一ステップ以上:非視覚的メイクアップルーティンのための手順フィードバック設計
視覚障害者のメイクアップルーティン全体を支援するため、手順ごとの段階的フィードバックと仕上がり確認まで対応した触覚・音声支援システムを設計した研究。
Accessible Data Access and Analysis by People who are Blind or Have Low Vision 視覚障害者・弱視者によるアクセシブルなデータアクセスと分析
視覚障害者がデータを自力で探索・分析できるよう、触覚ディスプレイと会話型AIエージェントを組み合わせた支援技術の開発を目指した研究。
Smart Glasses for CVI: Co-Designing Extended Reality Solutions to Support Environmental Perception by People with Cerebral Visual Impairment CVI向けスマートグラス:大脳視覚障害者の環境知覚を支援する拡張現実ソリューションのコデザイン
大脳視覚障害(CVI)を持つ成人とのコデザインを通じ、スマートグラスと拡張現実技術が物体認識・顔認識・複雑な視覚環境への対応をどう支援できるかを探った研究。
Screen Reader Programmers in the Vibe Coding Era: Adaptation, Empowerment, and New Accessibility Landscape バイブコーディング時代のスクリーンリーダーユーザーによるプログラミング:適応・エンパワーメント・新たなアクセシビリティの課題
視覚障害のあるプログラマー16名を対象に、GitHub Copilotなど生成AIコード補助ツールの活用実態を縦断的に調査した研究。「バイブコーディング」の台頭がもたらす新たなアクセシビリティ課題を明らかにする。
Integrating Artificial Intelligence as Assistive Technology for Older Adult Gamers: A Pilot Study 高齢者ゲーマー向け支援技術としてのAI活用:パイロット研究
若年層向け設計が主流のゲーム産業において、高齢者ゲーマーのニーズを調査し、AIの支援機能がゲーム体験をどう改善できるかを探ったパイロット研究。
企業のウェブアクセシビリティへの取り組み状況がCSR評価に与える影響を定量的に分析した国内研究。
Insights from Designing Context-Aware Meal Preparation Assistance for Older Adults with Mild Cognitive Impairment (MCI) and Their Care Partners 軽度認知障害(MCI)高齢者と介護者向けコンテキスト対応食事準備支援の設計から得られた知見
軽度認知障害(MCI)の高齢者と介護者を対象に、食事準備中の忘れ・手順スキップ・機器の消し忘れを防ぐコンテキスト対応支援技術をユーザー中心設計で開発した研究。
Adapting Online Customer Reviews for Blind Users: A Case Study of Restaurant Reviews 視覚障害者向けオンラインカスタマーレビューの適応:レストランレビューのケーススタディ
視覚障害のあるスクリーンリーダーユーザーを対象に、レストランのオンラインレビュー閲覧時の困難をインタビューで調査し、情報を適応的に提示する手法を提案した研究。
Advancing Digital Accessibility In Digital Pharmacy, Healthcare, And Wearable Devices: Inclusive Solutions for Enhanced Patient Engagement デジタル薬局・ヘルスケア・ウェアラブルデバイスにおけるデジタルアクセシビリティの向上:患者エンゲージメントを高めるインクルーシブなソリューション
障害者が遠隔医療・オンライン薬局・ウェアラブル医療機器を利用する際の障壁を整理し、包括的なデジタルアクセシビリティの実現に向けた解決策を論じた研究。
AI for Accessible Education: Personalized Audio-Based Learning for Blind Students アクセシブル教育のためのAI:視覚障害学生向け個別化音声学習
視覚障害のある学生向けに、AIが個別の学習ニーズに合わせて音声コンテンツをリアルタイムで最適化するeラーニングプラットフォーム「Audemy」を提案した研究。
Early Accessibility: Automating Alt-Text Generation for UI Icons During App Development 開発初期からのアクセシビリティ:アプリ開発中のUIアイコン向けalt-text自動生成
アプリ開発初期にUIアイコンのalt-textを自動生成するALTICONアプローチを提案した論文で、大規模ラベル付きデータや完全なUI画像なしに、視覚障害者向けの意味ある説明文を生成できる。
ScreenAudit: Detecting Screen Reader Accessibility Errors in Mobile Apps Using Large Language Models ScreenAudit:大規模言語モデルを用いたモバイルアプリのスクリーンリーダーアクセシビリティエラー検出
モバイルアプリのスクリーンリーダーアクセシビリティエラーをLLMで検出する「ScreenAudit」を提案した研究で、視覚障害のあるユーザーに影響する、既存ルールベースが見逃すエラーも捕捉できる。
Towards More Accessible Scientific PDFs for People with Visual Impairments: Step-by-Step PDF Remediation to Improve Tag Accuracy 視覚障害者向けによりアクセシブルな学術PDFへ:タグ精度を高めるステップバイステップのPDF修正
視覚障害者がスクリーンリーダーでPDFを読めない問題を解消するため、ステップバイステップのPDF修正手順とPAVE 2.0ツールを提案した論文で、数式のalt-text生成にも対応する。
WebNav: An Intelligent Agent for Voice-Controlled Web Navigation WebNav:音声制御によるウェブナビゲーションのためのインテリジェントエージェント
音声コマンドでウェブを操作するエージェント「WebNav」を提案した論文で、デュアルLLMアーキテクチャが自然言語指示を動的なウェブ操作に変換し、スクリーンリーダーの限界を超えた視覚障害者支援を実現する。
LLM-Driven Optimization of HTML Structure to Support Screen Reader Navigation スクリーンリーダーのナビゲーションを支援するLLM駆動のHTML構造最適化
視覚障害のあるユーザーのECサイトでのスクリーンリーダー操作の困難を生成AIで解消するブラウザプラグインを提案した研究で、ウェブページのHTML構造をリアルタイムで再構成しナビゲーションを支援する。
Non-Western Perspectives on Web Inclusivity: A Study of Accessibility Practices in the Global South ウェブインクルーシビリティの非西洋的視点:グローバルサウスにおけるアクセシビリティ実践の研究
グローバルサウスにおけるウェブアクセシビリティの実態を複数国にわたって大規模分析した研究で、モバイル依存・低速回線という固有の課題がデジタルインクルージョンを阻む構造を明らかにしている。
From Code to Compliance: Assessing ChatGPT's Utility in Designing an Accessible Webpage -- A Case Study コードから準拠へ:アクセシブルなウェブページ設計におけるChatGPTの有用性評価 — ケーススタディ
ChatGPT(GPT-4o)がWCAG準拠のウェブページを生成・改善する能力を評価したケーススタディで、プロンプトの工夫で改善できる一方、デフォルト出力は基準を満たさないことが多いと示している。
Uncovering the New Accessibility Crisis in Scholarly PDFs 学術PDFにおける新たなアクセシビリティ危機の実態解明
視覚障害のある読者にとって課題の大きい学術PDFを対象に、2014〜2023年公開の約2万件を大規模分析し、タグ付けや言語設定など6項目のアクセシビリティ基準への適合状況を明らかにした研究だ。
From Graphs to Words: A Computer-Assisted Framework for the Production of Accessible Text Descriptions グラフから言葉へ:アクセシブルなテキスト説明を作成するコンピュータ支援フレームワーク
視覚障害者向けに、グラフ・チャートをスクリーンリーダー対応テキスト説明へ変換するコンピュータ支援フレームワークを提案した研究で、メディアコンテンツ制作者が視覚コンテンツを叙述的な文章に転換できる。
Inferring Alt-text For UI Icons With Large Language Models During App Development アプリ開発時に大規模言語モデルでUIアイコンのalt-textを推論する
モバイルアプリ開発時にLLMを用いてUIアイコンのalt-textを自動生成する手法を研究した論文で、視覚障害のあるスクリーンリーダーユーザー向けに、完全なUI画像なしでも意味ある説明文を推論できる。
Wheeler: A Three-Wheeled Input Device for Usable, Efficient, and Versatile Non-Visual Interaction Wheeler:使いやすく効率的で汎用性の高い非視覚的インタラクションのための3輪入力デバイス
視覚障害のあるスクリーンリーダーユーザーの複雑なUI階層ナビゲーションを効率化するマウス型3輪入力デバイス「Wheeler」の提案で、各ホイールをUI階層の異なるレベルに対応させる設計だ。
Demonstration of Wheeler: A Three-Wheeled Input Device for Usable, Efficient, and Versatile Non-Visual Interaction Wheeler デモ:使いやすく効率的で汎用性の高い非視覚的インタラクションのための3輪入力デバイス
3輪入力デバイス「Wheeler」のデモ論文で、各ホイールをアプリの階層レベルに対応させることで視覚障害ユーザーの複雑なメニュー操作を高速化できることを実証する。
Enabling Uniform Computer Interaction Experience for Blind Users through Large Language Models 大規模言語モデルによる視覚障害ユーザーへの統一的なコンピュータ操作体験の実現
視覚障害のあるユーザーが多様なGUIアプリをスクリーンリーダーで操作する際の困難を解消するため、LLMを活用して統一的なコンピュータ操作体験を提供するシステムだ。
DesignChecker: Visual Design Support for Blind and Low Vision Web Developers DesignChecker:視覚障害・弱視のウェブ開発者向けビジュアルデザイン支援ツール
視覚障害のある開発者が自身のウェブデザインを非視覚的にレビューできるツール「DesignChecker」の提案で、晴眼ユーザー向けの使いやすさ評価も行える。
Author Intent: Eliminating Ambiguity in MathML 著者の意図:MathMLにおける曖昧さの排除
MathMLにおける曖昧な数式表記(絶対値・行列式等)をスクリーンリーダーが正確に読み上げるための「著者意図」付与の仕組みを提案し、視覚障害ユーザーの数式理解を支援する。
Accessibility evaluation of major assistive mobile applications available for the visually impaired 視覚障害者向け主要支援モバイルアプリのアクセシビリティ評価
視覚障害者の日常生活をAIとコンピュータビジョンで支援するモバイルアプリのアクセシビリティを評価し、ユーザーが選好するアプリの特性を分析した研究だ。
AltGeoViz: Facilitating Accessible Geovisualization AltGeoViz:アクセシブルな地理的データ可視化の実現
視覚障害のあるスクリーンリーダーユーザー向けに地理データの可視化を支援するシステム「AltGeoViz」の提案で、現在の地図表示に応じたalt-textを動的に生成する。
Unblind Text Inputs: Predicting Hint-text of Text Input in Mobile Apps via LLM テキスト入力のアクセシビリティ向上:LLMによるモバイルアプリのヒントテスト予測
Androidアプリの76%でテキスト入力のhint-text属性が欠如している実態を分析し、LLMを用いて低視力ユーザー向けに自動補完する手法を提案した研究だ。
Chart4Blind: An Intelligent Interface for Chart Accessibility Conversion Chart4Blind:チャートをアクセシブルな形式に変換するインテリジェントインターフェース
視覚障害者向けにグラフ・チャートをアクセシブルな形式へ変換するインターフェース「Chart4Blind」を提案した研究で、テキスト・視覚メタデータの自動抽出により点字・音声での閲覧を実現する。
日本の市区町村によるウェブアクセシビリティ方針の策定状況と、年次試験結果の公開実態を調査した国内研究だ。
ACCESS: Prompt Engineering for Automated Web Accessibility Violation Corrections ACCESS:ウェブアクセシビリティ違反の自動修正のためのプロンプトエンジニアリング
視覚・聴覚・認知・運動機能障害を持つユーザーのウェブアクセシビリティ向上を目的に、WCAG違反をプロンプトエンジニアリングで自動修正するシステム「ACCESS」を提案した研究。
Investigating Color Blind User Interface Accessibility via Simulated Interfaces シミュレーションインターフェースを用いた色覚異常ユーザーのUIアクセシビリティ検証
色覚異常(CVD)を持つ3億人以上のウェブアクセシビリティを対象に、シミュレーション化UIを用いてWCAGガイドラインの有効性と限界を検証した研究。
Designing Inclusive Web Applications with Accessibility in Mind アクセシビリティを考慮したインクルーシブなウェブアプリケーション設計
セマンティックHTML・ARIA・カラーコントラスト・キーボードナビゲーション等のウェブアクセシビリティ実装技術を解説し、WCAG準拠がビジネス・法的・倫理的観点でも重要である理由を論じた論文。
ARIA e Interactive Access: projetando chatbots para idosos ARIA と Interactive Access:高齢者向けチャットボット設計
高齢者のデジタル疎外や加齢による認知・身体的制限を踏まえ、アクセシブルなチャットボット「ARIA」と設計ガイドライン「Interactive Access」を開発し、ニールセンのヒューリスティクスで検証した研究。
Poster: How Do Visually Impaired Users Navigate Accessibility Challenges in an Ad-Driven Web? ポスター:広告主導のウェブにおける視覚障害ユーザーのアクセシビリティ課題への対応
視覚障害者を中心に43万件のウェブ要素を分析し、サードパーティ広告がWCAG違反を増加させる実態を報告。67%のサイトで広告由来の問題が確認され、プライバシーリスクも指摘した。
Web Accessibility Evaluation Using WCAG 2.0 and User-Centered Design Method WCAG 2.0とユーザー中心設計手法によるウェブアクセシビリティ評価
ITENAS大学のeラーニングサイトをWCAG 2.0基準とユーザー中心設計手法でリデザインした研究。SUSスコアが38.93から74.38に改善し、UEQでもポジティブな評価を得た実践報告。
Turning manual web accessibility success criteria into automatic: an LLM-based approach 手動のウェブアクセシビリティ達成基準を自動化する:LLMを用いたアプローチ
LLMを用いて手動評価が必要なWCAG達成基準(1.1.1・2.4.4・3.1.2)を自動評価できるか検証した研究。既存ツールが見落とす問題を87.18%の検出率で発見でき、AIによる補完の可能性を実証した。
Compliance with web content accessibility guidelines in ophthalmology social media posts 眼科SNS投稿におけるウェブコンテンツアクセシビリティガイドライン準拠状況
眼科関連のSNS患者教育投稿100件をWCAGチェックリストで評価した研究。投稿の49%がWCAGを一切満たさず、視覚障害者の情報アクセスに大きな障壁があることを報告した。
Exploring the Use of AI for Enhanced Accessibility Testing of Web Solutions. ウェブソリューションのアクセシビリティテスト強化へのAI活用の探求
手動評価が必要なWCAGの4つの達成基準を対象に、オープンソースの機械学習モデルを活用したアクセシビリティテスト自動化プロトタイプを開発・評価した研究。AIによる手動作業の大幅削減可能性を示す。