金融機関のESG推進に人工知能の活用は頭痛の種

人工知能(AI)は、金融機関にとって、環境、社会、ガバナンス(ESG)規制から生じる、迫り来る大量なデータ処理の万能薬として注目されています。しかし一方で、ESGが金融機関におけるAIの活用を脅かす存在にもなっています。

EUの持続可能金融情報開示規則では、資産運用会社は投資先企業から何百万ものデータポイントの収集を始めなければならず、間もなく施行される企業の持続可能性報告指令は、データポイントの量をさらに増やすことになります。さらに、気候関連財務情報開示タスクフォース(TCFD)イニシアティブの下で収集されているデータや、国際サステナビリティ基準委員会がESG報告の基準値を作成する計画もあります。

これらの要件をすべて理解し、そこから利益を得るためには、AIを活用したシステムが不可欠であることは明らかです。

しかし、E(環境)、S(社会)、G(ガバナンス)の下には、AIを利用する金融業界にとって潜在的な問題が潜んでいます。データの保存と処理に伴う二酸化炭素排出量は膨大且つ、増加傾向にあり、特定の集団を差別するアルゴリズムが既に示されています。また、経営幹部と社員の両方に技術スキルが不足しているため、企業はミスを犯しやすくなっています。

環境への取り組み : 使用エネルギーの二酸化炭素排出量

国際エネルギー機関(IEA)によると、データセンターの冷却による電力消費は、2030年には国の全使用量の15%~30%にも達する可能性があります。また、データを処理するためのアルゴリズムを実行する際にも、エネルギー消費が必要となります。

技術倫理専門家でロンドンの王立芸術協会フェローのターニャ・グディン氏によると、AIの学習機能は極めてエネルギー消費が大きいプロセスで、企業向けのAIのデータ生成は、環境に大きな影響を及ぼすということです。「AIはディープラーニングによって訓練されますが、それには膨大な量のデータを処理する必要があります。

最近の研究者の試算によると、1台のAIが成熟するために必要な二酸化炭素排出量は284トンで、これは平均的な自動車の生涯排出量の5倍に相当します。また、別の計算では、スーパーコンピューター1台のエネルギー使用量は、一般家庭1万世帯分のエネルギー使用量と同じとされています。しかし、このように膨大な電力使用量が必要である事実は、伏せられていることが多いのです。企業がデータセンターを所有している場合、炭素排出量はTCFDのスコープ1および2の排出量に含まれ報告されます。しかし、多くの金融機関が行っているように、データセンターをクラウド事業者に委託している場合、排出量はTCFDのスコープ3まで下がり、報告義務は任意です。

「古典的な誤表示だと思います。マジシャンのトリックのようなものです。」とグディン氏は説明しています。「AIは気候変動の解決策として売られていて、どのテクノロジー企業に話を聞いても、気候問題の解決にAIが使われる大きな可能性があると言いますが、実はそれが問題の大きな原因になっているのです。」

社会のために : 識別アルゴリズムと表示

アルゴリズムが優れているのは、それを設計した人と、それを基に学習させたデータだけであることを今年初めに国際決済銀行(BIS)が認めました。「AI/ML(機械学習)モデルは(従来のモデルと同様に)学習させたデータに偏りや不正確さを反映させることができる為、適切に管理しなければ非倫理的な結果をもたらす可能性がある」とBISは述べています。

ニューヨーク大学AI Now研究所の共同設立者であるケイト・クロフォード氏は、著書『Atlas of AI』の中で、多くのAIシステムに潜む倫理的・社会的リスクについて、さらに踏み込んだ警告を発しています。「倫理的な問題を技術的なものから切り離すことは、(AIの)分野におけるより広い問題を反映しており、そこでは被害に対する責任が認識されないか、その域を超えると見なされます。」

そのため、住宅ローンや保険会社が、融資や保険の価格決定を行うために使用したAIが、ある種のバイアスを吸収し定着させていたことが判明し、規制当局の逆鱗に触れたのは当然と言えるかもしれません。

例えば2018年、カリフォルニア大学バークレー校の研究者は、融資の判断に使われるAIが人種的偏見を蔓延させていることを明らかにしました。ラテンアメリカ人とアフリカ系アメリカ人の借り手は、平均して白人の借り手よりも住宅ローンの利息を5.3ベーシスポイント多く支払っていたのです。英国では、保険数理研究所と慈善団体Fair By Designの調査により、低所得者層が住む地域の個人は、裕福な地域に住む同じ車を持つ個人よりも、自動車保険で年間300ポンド多く請求されていることが判明しました。

英国金融行動監視機構(FCA)は、企業に対して顧客との接し方を監視していると繰り返し警告しています。2021年、FCAは、価格設定アルゴリズムが既存顧客に与えるよりも新規顧客に与える方が低い料金を生み出しているという調査結果を受け、保険会社の価格設定ルールを改定しました。同様に、EUのAI立法パッケージでは、信用スコアリングに使用されるアルゴリズムに高リスクの表示を行い、企業の使用に対して厳しい義務を課すようです。

金融機関は、データがどのように分類されたかに注意する必要があるとグディン氏は述べています。AIを構築する際、データを分類することは、まだ非常に手作業に近い要素の1つです。こうした状況は、「使い捨てのファッション産業とその搾取工場」に似ていると、彼女は指摘しています。

ガバナンスについて : 経営陣のテクノロジーに対する認識不足

金融機関にとって最大の問題は、技術的なスキルを持った人材の不足であり、それは経営幹部も同様です。

「投資業界では、データに関する専門知識や経験が根本的に不足しています」と、クロノス・サステナビリティ社の共同設立者兼ディレクターで、ロンドン・スクール・オブ・エコノミクスのグランサム気候変動研究所の客員教授であるローリー・サリバン博士は言います。

「投資会社は、データに含まれる不確実性や限界をまったく理解しないまま、やみくもにデータを取得し、それを使って商品を作っている」と指摘し、「つまり、能力と専門知識の問題であり、データとデータの解釈に関する非常に高度な能力の問題なのです」と、サリバン博士は付け加えました。

グディン氏はこれに同意し、全ての金融機関の取締役会は、AIの利用について助言する倫理学者を採用すべきであると指摘しています。「将来的には、企業が使用するAIの倫理的スタンスを決定するために、AI倫理専門家が企業と協力することが大きな分野になるでしょう」と彼女は言います。 「銀行の取締役会は、どのようにAIを利用するか考える必要があると思います」。


Regulatory Intelligence

グローバルな規制環境を確実に予測・ナビゲート

銀行、金融サービスおよび保険部門では、前例のない規模の複雑な規制変更が継続しています。 トムソン・ロイターのRegulatory Intelligence (レギュラトリー・インテリジェンス) は、規制データを収集、モニタリング、分析し、変化する規制環境を追跡します。十分な情報に基づき決定を下し、確信を持って規制リスクを管理することができるようにすると同時に、積極的な組織改革を行うためのツールを提供します。

Regulatory Intelligenceの詳細はこちら


ビジネスインサイトを購読

業界最新トレンド情報をアップデート

購読する