“説明可能・信頼できるAI”の開発とその活用方法【提携セミナー】

説明可能・信頼できるAI開発

“説明可能・信頼できるAI”の開発とその活用方法【提携セミナー】

開催日時 2024/11/12(火)10:30~17:15
担当講師

吉川 友也 氏
中西 崇文 氏
鈴木 健二 氏

開催場所

Zoomによるオンライン受講

定員 30名
受講費 60,500円(税込)

★なぜその答えを出したのか! AIの意思決定をどのように検証するか!!
★何が出力結果に影響を与えているのか...判断根拠を人が分かるように説明する方法とは!!

 

 

“説明可能・信頼できるAI”の開発とその活用方法

 

 

【提携セミナー】

主催:株式会社技術情報協会

 


 

講座内容

セミナープログラム参照

 

 

習得できる知識

説明可能なAI(XAI)の基礎、AIの振る舞いや出力の根拠の示し方、説明可能なAIの各手法、AIの精度向上、生成AIによる説明、説明可能AIの活用、機械学習の公平性など

 

 

担当講師

・千葉工業大学 人工知能・ソフトウェア技術研究センター 上席研究員 吉川 友也 氏
・武蔵野大学 データサイエンス学部 データサイエンス学科 准教授/(同)EigenBeats 代表社員 CEO データサイエンティスト 中西 崇文 氏
・東京工業大学 データサイエンス・AI全学教育機構 特任教授 鈴木 健二 氏

 

 

セミナープログラム(予定)

<10:30~12:00>
1.ブラックボックス機械学習モデルの判断根拠を説明する技術
千葉工業大学 人工知能・ソフトウェア技術研究センター 上席研究員 吉川 友也 氏
【講演趣旨】
ニューラルネットワークのような複雑な機械学習モデルを用いることで高精度の予測が可能になった一方で、機械学習モデルはブラックボックス化が進み、モデルの振る舞いの理解が困難になっている。本講演では、ブラックボックス機械学習モデルにおける判断根拠を説明する技術について代表的な手法を紹介すると共に、我々が研究した、効率的にモデルに忠実な説明を生成する技術についても紹介する。

 

【講演項目】
1.機械学習の基礎知識
1-1.教師あり学習
1-2.ブラックボックス設定

 

2.説明可能AIとは
2-1.説明可能AIの社会における需要
2-2.説明手法の分類
2-3.説明可能AIの用途
2-4.説明の具体例

 

3.代表的説明手法
3-1.Local Interpretable
Model-agnostic Explanations (LIME)
3-2.Shapley Additive Explanations (SHAP)
3-3.ブラックボックスモデルの説明における課題

 

4.効率的にモデルに忠実な説明を生成する技術
4-1.入力の入れ子構造を活用した説明技術

 

5.まとめと将来展望

 

【質疑応答】

 

——————————————————-
<13:00~15:00>
2.説明可能なAI(XAI)、信頼できるAIの技術開発と重要性
武蔵野大学 データサイエンス学部 データサイエンス学科 准教授/(同)EigenBeats 代表社員 CEO データサイエンティスト 中西 崇文 氏
【講演趣旨】
2023年9月7日に開催された広島AIプロセス閣僚級会議では、高度なAIシステムに関する透明性、偽情報、知的財産権、プライバシーなどのリスクが指摘された。これを受け、特に透明性と偽情報を判断する技術的手段として、説明可能なAI(XAI)の研究が一層求められている。XAIの実現により、さらにAIと人間の協働や信頼性を高めることが求められている。本講演では、エンドユーザやビジネスユーザにおいて、XAIが求められるシーンを説明した上で、具体的にXAIによって、AIの振る舞いや出力の根拠が説明可能になることとはどういうことか、それによってどのような影響があるかについて述べる。

 

【講演項目】
1.AIと人間との協働や信頼性を高めるために必要なこと

 

2.説明可能なAI(Explainable AI;XAI)とは一体何か

 

3.XAIによって実現できること

 

4.XAIの具体的な利用シーン

 

5.世界の動向

 

6.XAIによるAIと人間との協働社会

 

【質疑応答】

 

——————————————————-
<15:15~17:15>
3.説明可能AIと機械学習における公平性と活用のポイント
東京工業大学 データサイエンス・AI全学教育機構 特任教授 鈴木 健二 氏
【講演趣旨】
説明可能なAIとは、AIの判断根拠を人間にわかるように説明する技術である。AIはブラックボックスと言われ、人間がAIの判断根拠を理解することが難しい。AIの判断根拠の説明は、AIを利用する人間にとって重要な技術的課題である。また、機械学習における公平性は、AIによる意思決定において非常に重要な課題となっている。データやAIのバイアスによる性別、年齢、人種などの差別を低減させるための技術が注目されている。本講座では、説明可能なAIと機械学習における公平性についての技術を解説する。

 

【講演項目】
1.AI倫理問題

 

2.AIトップカンファレンスの動向

 

3.機械学習における説明性と精度

 

4.説明可能なAIとは

 

5.説明可能なAIの技術分類

 

6.説明可能なAIの各手法

 

7.協力ゲーム理論と機械学習

 

8.説明可能なAIのツール

 

9.羅生門効果

 

10.注意機構による精度向上

 

11.データのモデルへの影響度

 

12.モンテカルロドロップ

 

13.生成AIによる説明

 

14.公平と平等、社会での差別

 

15.グループ間公平性と個人間公平性

 

16.再犯防止予測AI、採用でのAI利用

 

17.AIでの公平性を数式で表現

 

18.バイアスの原因と緩和アルゴリズム

 

【質疑応答】

 

公開セミナーの次回開催予定

開催日

2024/11/12(火)10:30~17:15

 

開催場所

Zoomによるオンライン受講

 

受講料

1名につき60,500円(消費税込み、資料付)
〔1社2名以上同時申込の場合1名につき55,000円(税込)〕

 

 

技術情報協会主催セミナー 受講にあたってのご案内

 

備考

資料は事前に紙で郵送いたします。

 

お申し込み方法

★下のセミナー参加申込ボタンより、必要事項をご記入の上お申し込みください。

 

お申込後はキャンセルできませんのでご注意ください。

※申し込み人数が開催人数に満たない場合など、状況により中止させていただくことがございます。

 

 

おすすめのセミナー情報

製造業eラーニングTech e-L講座リスト

製造業向けeラーニングライブラリ

アイアール技術者教育研究所の講師紹介

製造業の新入社員教育サービス

技術者育成プログラム策定の無料相談受付中

スモールステップ・スパイラル型の技術者教育

技術の超キホン

機械設計マスターへの道

生産技術のツボ

早わかり電気回路・電子回路

早わかり電気回路・電子回路

品質保証塾

機械製図道場

スぺシャルコンテンツ
Special Contents

導入・活用事例

テキスト/教材の制作・販売