(2022/6/20 05:00)
人工知能(AI)の社会実装が始まる今だからこそ、AIに対する適正な判断基準や利活用の指針となる「AI倫理」の議論を深めたい。生活の豊かさや安心・安全の向上につなげるための前提条件になるはずだ。
AIは一時的なブームを超えて、いまや産業利用に加え、チャットボット(自動応答ソフト)や人材採用システムへの搭載など身近な分野で使われている。デジタル社会の中核技術として根付いたとも言えるが、AIの特性として判断基準を担う学習データに偏りがあると、不当な差別やプライバシー侵害をはじめ、予期せぬトラブルが生じる危険性がある。
こうした課題はAI倫理として産学官でそれぞれ議論がなされ、グローバルでは欧米を中心にAI活用に関する法律やガイドラインの整備が進み、日本政府も19年にAI倫理ガイドラインを策定している。
これまでの論点はどちらかと言うと、AIを開発する技術者に焦点を当てた原則論が中心だったが、最近は事例込みで語られることが増えている。5月にスイスで開かれた世界経済フォーラムの年次総会(ダボス会議)では、AIがもたらす影響力を磁力に例え、「テクノロジー・ポール(磁極)」という用語が取り沙汰された。参加者によると、会員制交流サイト(SNS)の投稿をAIを用いて偏った方向に世論を誘導するリスクなどが指摘されたという。経済安全保障の視点も欠かせない。
米IBMが日本を含む22カ国・1200人の経営層などを対象に行ったAI倫理の調査が興味深い。これによると、AI倫理の推進役について、技術者ではなく、ビジネスリーダーを挙げた企業が80%に及んだ。18年調査の15%から急伸しており、山田敦日本IBM執行役員は「AI倫理は経営課題になった」と指摘する。調査ではAIの説明責任への対応も聞いたところ、「賛同」が59%に対し、「実践している」が14%。AI倫理の認識と実践にはギャップがあることも分かった。AIの社会実装に向け、ビジネスリーダーによる実践力が問われている。
(2022/6/20 05:00)