責任あるAI作品一覧
-
-「暴言」を吐くAIチャットボット 「人種差別」をする犯罪予測AI 「男女差別」をする人材採用AI・与信審査AI…… AIの「暴走」をどう防ぐか? 「技術」「ブランド」「ガバナンス」「組織・人材」 4つのアプローチで「責任あるAI」を実現する 「責任あるAI」のベースにあるのは 「人間中心」のデザインであり、人間が意思決定の中心となることである。 「責任あるAI」実現のために守るべき規範が「AI倫理」である。 【主要目次】 Part1「責任あるAI」「AI倫理」とは何か? ●なぜ今「責任あるAI」が重要なのか? ・デジタルツインの波とAI ・労働生産性におけるAIの貢献 ・意思決定におけるAIの役割 ・加速するAIへの法規制 ●求められる「AI倫理」とは? ・アシモフの「ロボット工学原則」と抜け穴 ・AIのガイダンス制定の世界的な流れ ・「責任あるAI」と5つの行動原則「TRUST」 ●AIの潜在的リスクに備える4つの観点からのアプローチ ・AIに混入する潜在的リスクとは? ・各産業分野におけるAI適用と考えうるリスク ・AIの導入・定着のために求められる施策とは? Part2「責任あるAI」を実践する4つのアプローチ ●技術のリスクを防ぐアセスメントの方法 ・AIの開発プロセスで忍び寄るリスク ・リスクを表面化させるアルゴリズム・アセスメント(AA)とは? ●ブランド価値を守り、高めるESGアプローチ ・ESGによるブランド価値の創出・向上 ・AI開発においても無縁ではない「環境」意識 ●ガバナンスにおける効果的な「火消し」の方法 ・AIガバナンスのロードマップ ・日本企業で導入が広がるAIガバナンス ●組織・人材に「AI倫理」を根付かせる ・研修プログラムとコミュニケーション ・具体的事例を用いた演習 ・リーダー企業になるためのチェックリスト