
人工知能:「責任あるAI」とその長期的な成長への道のり
-
AI技術の導入が進み、その可能性への理解が深まる中、責任ある投資家は、企業がどのようにAIを活用するのかについて疑問を投げかけている
-
AIシステムは明確な機会を提供するが、リスクに対処するための規制が強化されており、 一方で、投資家はプライバシー侵害やセキュリティ上の欠陥による風評被害を意識する必要がある
-
当社は、企業におけるこうした問題意識の欠如を認識し、より良い情報開示と監視を積極的に奨励するためのエンゲージメントの枠組みを確立した
人工知能(AI)は、ビジネス環境を劇的に変化させ、金融、医療、自動車など幅広い分野の企業にとって不可欠なものとなっています。
AIシステムは誕生以来、長い道のりを経て、今では複雑なデータセットとコンピュータサイエンスを組み合わせて、人間の問題解決や意思決定の能力を模倣することができるようになりました。また、AIは、顧客サービスの自動化、サービスオペレーションや製品機能の最適化など、さまざまな実世界への応用が可能です。
AI の導入は拡大し続けています。マッキンゼーの調査によると、1 コンサルティングを受けた1,800以上の組織のうち、56%が2021年にAIを導入しています(2020年は50%)。この調査では、利払前税引前利益(EBIT)の5%以上をAIに関連させる回答者数が、前年の22%から27%に上昇したことも明らかになりました。
2022年のガートナー社による同様の調査でも、ビジネスにおけるAIの応用が拡大していることが認識されています。2 調査対象組織の40%が数千のAIモデルを導入しており、AIのビジネス価値は2025年までに51億ドル(約7,400億円)に達すると予測しています。
しかし、ビジネスにおけるAIの利用が拡大し続ける中、この成長を維持し、AIの潜在的な倫理的・社会技術的影響に対処するためには、「責任あるAI(Responsible AI)」の実践が最重要となります。
テクノロジー分野に幅広く投資しているグローバルな資産運用会社として、当社は責任あるAI促進へ積極的な役割を果たすことができると考えています。当社のリサーチは、その背景にある原理を定義し、長期的にどのように実践していくかを理解することを目的としています。
AIの可能性とリスク
AIシステムによって企業が得られる真の価値は、顧客にリターンをもたらす潜在的な機会であると言えます。AIはメタバースの基盤であり、メタバースの拡張性と自動化を可能にします。3ディープラーニングと自然言語処理(NLP)は、Web 3.0におけるアクティビティとインタラクション(相互作用)を強化します。4
当社は、AIとメタバースを組み合わせることで、今後10年間に前年比で大幅な成長を遂げる可能性のある企業に後押しにより、拡大する具体的な投資機会を促進できると考えています。
ESG(環境・社会・ガバナンス)の観点からは、5 AIによって投資家はリスクと機会に関する情報をかつてない規模で収集・分析できるようになります。特に、センチメント分析アルゴリズムとNLPソリューションを使って、ESGを考慮した投資戦略をよりよく統合できるようになるでしょう。6
アクサIMでは、企業が国連の持続可能な開発目標(SDGs)をどのようにサポートしているかを評価するために、企業文書の一部を採点するNLP対応のインパクト投資手法を独自に開発しました。
これとは別に、別のリサーチでは、AIがSDGsの広範な17の目標において169のより詳細なターゲットの達成に直接的に貢献する可能性が示されています。7 例えば、 リサイクル可能な素材をより適切に識別し、海に流れ込むプラスチックを削減する技術や、衛星データとAIを利用して水の無駄を削減するプラットフォームなどが考えられます。
しかし、AIシステムが提供できる機会や潜在的な用途の一方で、破壊的なリスクももたらします。最も顕著なものは、プライバシー侵害やサイバーセキュリティの侵害で、企業の評判を急速に損ねる可能性があります。
また、AIは社会的、人権的なリスクもはらんでおり、定義や測定は難しいものの、最も深刻なリスクであると言えます。8 最も注目すべきは、AIシステムが差別の原因になり得ることです。金融サービスにおいて「ネットワーク差別」が利用されると、特定のコミュニティが融資を受ける際に不利になります。採用活動においてAIが利用されると、既存の社会的偏見のパターンを再現してしまう可能性があります。
コンテンツのモデレーション(インターネットでの投稿コメントなどの内容を管理者チェックすること)に使用される場合でも、自動コンテンツフラグは、表現の自由と意見の権利を侵害する可能性があります。AIで個人を特定・追跡できるようになることで、法的・倫理的な懸念が生じるのは言うまでもありません。
規制:発展途上の環境
AI導入に伴う重大なリスクを考慮し、私たちは新たな規制環境の出現を目の当たりにしています。欧州連合(EU)は、一般データ保護規則(GDPR)に呼応したAI規制の草案を作成中であり、9 利用されるAIシステム内の信頼性を強化しながら、AIの特定の使用に関連するリスクに対処することを目的としています。10
同規則では、下図の通りAIシステムを3つのリスクカテゴリーに分類し、対応するアクションを指定しています。
- Global survey: The state of AI in 2021 - McKinsey, 2021
- The Gartner AI Survey Top 4 Findings - Gartner, 2022
- The Metaverse: Driven By AI, Along With The Old Fashioned Kind Of Intelligence - Forbes, 2022
- Web 3.0 is an evolving idea for the third generation of the internet, incorporating concepts of decentralisation and new blockchain technologies to improve web applications. Web 1.0 refers to the early period of the internet to about 2004 while Web 2.0 reflects the move into more user-generated content through centralised hubs.
- How can AI help ESG investing? - S&P Global, 2020
- Natural language processing (NLP) is a branch of computer science and AI that allows machines to process large volumes of written documents and rapidly analyse, extract, and use the content. Common uses include auto-correct technology and real-time sentiment analysis.
- The role of artificial intelligence in achieving the Sustainable Development Goals - Nature Communications, 2020
- Artificial Intelligence & Human Rights: Opportunities & Risks - Berkman Klein Center, 2018
- The EU's General Data Protection Regulation (GDPR) is a set of rules on data protection and privacy introduced in 2018 which is aimed at increasing an individual's control over their personal information.
- What the draft European Union AI regulations mean for business - McKinsey, 2021
この規制案は、EU域内で許容できないリスクのあるシステムの使用を認めず、リスクの高いシステムには 人間の監視、透明性、サイバーセキュリティ、 リスク管理、データ品質、監視、報告義務などのさまざまな要件を課し、限定的かつ最小リスクのシステムの使用に透明性を求め、個人がAIテクノロジーとの相互作用を 認識できるようにするものです。
この規制は、EU内の企業やAIプロバイダーに適用されるだけでなく、EU内で出力を提供するAIシステムにも域外適用されることになります。また、違反した企業は、最大3,000万ユーロ(約43億円)または全世界の売上高の6%(いずれか高い方)の罰金を科される可能性があり、GDPRで科される罰金よりも実質的な罰金となっています。
世界中の政府や規制当局がAIのガバナンスや規制についてますます検討するようになり、そのリスクは法的にも財務的にも企業にとって非常に重大なものとなり得ると考えています。
AIへの責任ある取り組み
規制の枠を超えて、欧州委員会は「責任あるAIのための倫理ガイドライン」を作成しました。11
これは企業が責任あるAIを実践するための有用なフレームワークとして活用することができます。このガイドラインは、その潜在的な被害に直面しても、合法的、倫理的、かつ強固であるAIを支援することを目的としています。
これは、4つの倫理原則を中心に構築されており、企業に具体的な要求事項をもたらすものです。
-
人間の自主性の尊重: 人間の自由と自主性の尊重、人間とAIシステム間の機能分担は人間中心の設計原則に従い、かつ人間の選択に意味のある機会を残す、またAIシステムにおける作業プロセスに対する人間の監視が維持されていること
-
危害の防止: AIシステムは、人間に危害を加えたり、悪化させたりしてはなりません。また、AIシステムが権力や情報の非対称性により悪影響を引き起こしたり、悪化させたりする可能性がある場合にも注意が必要であり、人間の尊厳だけでなく精神的・肉体的な完全性も保護されます
-
公平性: 利益とコストを平等かつ公正に配分し、個人と集団が不当な偏見、差別、スティグマを受けないようにすること、AIシステムの利用によって人々が騙されたり、選択の自由が不当に損なわれないこと、AIシステムおよびそれを操作する人間による決定に対して異議を申し立て、効果的に救済を求める能力が維持されることを保証すること
-
説明可能性: プロセスは透明であることが望ましく、AIシステムの能力と目的はオープンに伝えられ、決定は直接・間接的に影響を受ける人々に説明可能でなければなりません。また「ブラックボックス」アルゴリズムは回避されます
アクサIMの責任あるAIへのアプローチは、同様の構造に基づいており、4つの明確な構成要素が必要です。当社は、企業のAIシステムは、技術的な観点と高度なガバナンスの観点から、人間による監視に依存しながらも、公正で倫理的、かつ透明であるべきだと考えています。
当社は、企業が責任あるAIポリシーを実践することで、AIリスクを軽減し、持続的な価値創造を実現することができると考えています。AIシステムの導入により、信頼関係を築き、顧客ロイヤリティを向上させられます。
結論として、責任あるAIとは、リスクを回避するだけでなく、これらの技術を人と企業の両方に有利になるように活用できるようにすることであると言えます。
責任あるAIの実践状況を評価する
当社は、企業が 責任あるAI にどのように取り組み、実践しているかを扱った様々な研究やベンチマーク/評価ツールを見てきましたが、最終的には、進捗に大きな格差があることがわかりました。
例えば、2021年のマッキンゼー調査では、12 AIに関連する様々なリスクに対して、コンサルティングを受けた組織の認識不足が浮き彫りになっています。以下の図は、企業がいかにリスクを過小評価しているかを示す良い例だと考えます。
- Ethics guidelines for trustworthy AI - European Commission Report, 2019
- Global survey: The state of AI in 2021 - McKinsey, 2021
同様に、独立系調査プログラムであるRanking Digital Rights(RDR)による「2022 Big Tech Scorecard」では、13, 14 アルゴリズムシステムの開発における人権政策、リスク評価、透明性、プライバシーに関する要素を含む、先に述べたものと同様の枠組みに沿った指標に基づいて、アルゴリズムの透明性という観点からハイテク企業の評価が比較的低いものとなっています。
RDRの手法によれば、評価対象となった大手ハイテク企業のうち、22%以上のスコアを達成した企業はなく、一部の大手グローバル企業はランキングの最下位に近い位置にあります。
一方、企業のSDGsへの取り組みを推進している国際NGOのワールド・ベンチマーキング・アライアンスのデジタル・インクルージョン・ベンチマークは、15
「包括的で倫理的な研究開発」について企業をランク付けし、「企業の実践が、製品開発において多様なグループの参加と倫理的配慮をどの程度反映しているか」を把握することを目指したものです。さまざまな企業のベンチマークスコアを評価した結果、トップスコアを獲得したのは77社のうちわずか3%と、あまり芳しくない結果でした。
この結果は、アクサIMのような責任ある投資家が、責任あるAIをめぐる議論に企業を巻き込み、それをどのように実践していくかを示す必要性を示す一助となると考えています。責任ある技術研究とエンゲージメントプログラムの一環として、AI開発への大規模な投資計画を持つ企業に焦点を当てます。
当社の主なエンゲージメントに関する提言は、企業に対して次のことを求めています。
- アクサIMの責任あるAIへのアプローチにおける主要な要素(公正、倫理的、透明、人的監視)に合致していること
- AIシステム開発に関する情報開示と透明性の向上
- 取締役会および上級管理職による責任あるAIの監督の確保
当社は、AIシステムに関連するリスクを軽減すること、そして規制上の考慮事項に対処することが、企業がこれらの技術を使って長期的な価値創造を実現する能力と密接に関連していると確信しています。また、責任あるAIが実践されることで、AIシステムはより長期的かつ持続的な投資機会を提供できると考えています。
- The 2022 RDR Big Tech Scorecard - Ranking Digital Rights, 2022
- Who We Are - Ranking Digital Rights
- Digital Inclusion Benchmark - World Benchmarking Alliance, 2021
ご留意事項
本ページは情報提供のみを目的としており、特定の有価証券やアクサ・インベストメント・マネージャーズ・グループ(アクサIM)またはその関連会社による投資、商品またはサービスを購入または売却するオファーを構成するものではなく、またこれらは勧誘、投資、法的または税務アドバイスとして考慮すべきではありません。本資料で説明された戦略は、管轄区域または特定のタイプの投資家によってはご利用できない可能性があります。本資料で提示された意見、推計および予測は掲載時の主観的なものであり、予告なしに変更される可能性があります。予測が現実になるという保証はありません。本資料に記載されている情報に依拠するか否かについては、読者の独自の判断に委ねられています。本資料には投資判断に必要な十分な情報は含まれていません。
投資リスクおよび費用について
当社が提供する戦略は、主に有価証券への投資を行いますが、当該有価証券の価格の下落により、投資元本を割り込むおそれがあります。また、外貨建資産に投資する場合には、為替の変動によっては投資元本を割り込むおそれがあります。したがって、お客様の投資元本は保証されているものではなく、運用の結果生じた利益および損失はすべてお客様に帰属します。
また、当社の投資運用業務に係る報酬額およびその他費用は、お客様の運用資産の額や運用戦略(方針)等によって異なりますので、その合計額を表示することはできません。また、運用資産において行う有価証券等の取引に伴う売買手数料等はお客様の負担となります。
アクサ・インベストメント・マネージャーズ株式会社
金融商品取引業者 登録番号: 関東財務局長(金商) 第16号
加入協会: 一般社団法人日本投資顧問業協会、一般社団法人投資信託協会、一般社団法人第二種金融商品取引業協会、日本証券業協会
お問い合わせ先:TOKYOMARKETING@axa-im.com