人気の記事一覧

TELLER: A Trustworthy Framework for Explainable, Generalizable and Controllable Fake News Detection

4か月前

予測結果の根拠をデータで示す〜事例ベース推論(CBR)とその活用方法

XAI (Explainable AI、説明可能なAI): 信頼できる人工知能に支えられる社会を目指して

機械学習アルゴリズムの公平性の「第二波」

4年前

画像診断に求められる機能と医師に与える影響

Enhancing Deep Learning Model Explainability in Brain Tumor Datasets using Post-Heuristic Approaches

1か月前

RAG-Driver: Generalisable Driving Explanations with Retrieval-Augmented In-Context Learning in Multi-Modal Large Language Model

4か月前

AIの透明性を高めるためにできること~AIシステムの結果や決定に対して質問したり、それに異議を唱えること

9か月前

機械学習の説明可能性・解釈可能性

仕切り直しで収集情報の整理・目次

https://ai-scholar.tech/medical/monte-carlo-dropout-ai ドロップアウト等を利用することで、深層学習にベイジアン的な不確実性の表現力が付与される…、ベイズ過程回帰と深層学習が統合される??不確実性を可視化すたいという要望があるんやね。いいよ、使い道が広がりそう。