
Loading...
Loading...

金融における「人工知能(AI)」という言葉は、往々にして二つの対立するイメージを喚起します。完璧で自動化された意思決定というユートピア的ビジョンか、あるいは、偏りがあり説明責任を果たさない不透明な「ブラックボックス」アルゴリズムへのディストピア的懸念です。Zirdleでは、この両極端を共に退けます。私たちの哲学は、より強力で実用的な概念、すなわち拡張知能に根ざしています。
私たちは、AIが、経験豊富な人間の信用審査担当者や現地のブローカーパートナーによる、ニュアンスに富み文脈を理解した判断に取って代わるものとは信じていません。むしろ、AI、特に機械学習(ML)を、彼らの能力を拡張し、より迅速で、より一貫性があり、よりデータに裏打ちされた意思決定を可能にする、非常に強力なツールと捉えています。
本記事では、私たちの信用リスクフレームワーク内でAIが実際にどのように機能するかを明らかにし、人間の専門家に取って代わるのではなく、いかにして彼らを強化するかに焦点を当てます。
何十年もの間、信用評価は、限られた数のデータポイント(例:収入、負債水準、過去の債務不履行)を用いたロジスティック回帰などの従来型統計モデルに依存してきました。これらのモデルは透明性が高く解釈も容易ですが、重大な限界があります:
私たちのMLモデルは、これらの限界を克服し、人間の意思決定者にとって強力な副操縦士として機能するように設計されています。その仕組みは以下の通りです。
私たちのモデルは、人間が処理できる範囲をはるかに超えて、特定の融資案件について何千ものデータポイントを分析できます。これには従来の財務データだけでなく以下も含まれます:
この膨大なデータセットを処理することで、モデルは本来なら見逃されてしまうような洞察や潜在的なリスクを浮き彫りにすることができます。
ここがMLが真に優れている点です。人間のアナリストは、借り手の収益が増加しているという良い兆候を見るかもしれません。しかし、MLモデルは、より複雑なパターンを特定する可能性があります:「収益は増加しているが、それが原油価格の上昇と負の相関があるセクターの単一顧客に集中しつつある」。
モデルは単に変数を見ているのではありません。それらの間の複雑で多次元の関係性を見ています。モデルはこれらの隠れた相関関係にフラグを立て、人間のアナリストによるさらなる調査のために提示することができます。
すべての人間には無意識の偏見があります。アナリストが特定の業界で特に良い、または悪い経験をした場合、それが将来の判断に微妙に影響を与える可能性があります。公正性について適切に訓練され監査された私たちのAIモデルは、これらの人間の偏りから自由です。
モデルは、すべての融資に対して、一貫性のあるデータ駆動型の「デフォルト確率」スコアを提供します。このスコアが最終決定を下すわけではありません。むしろ、客観的な基準として機能します。人間のアナリストがモデルの推奨を上書きしたい場合(モデルがフラグを立てた融資を承認するため、またはモデルが承認した融資を拒否するため)、明確な文書による根拠を提供しなければなりません。この「人間が関与する」プロセスは、厳密で説明責任を果たす意思決定を強制し、機械のデータ駆動型の一貫性と人間の専門家の文脈理解という、両方の世界のベストを組み合わせます。
静的モデルとは異なり、私たちのMLシステムは学習するように設計されています。私たちは融資ポートフォリオに関する新しいパフォーマンスデータを継続的にモデルに供給しています。どの融資がうまくいき、どの融資がデフォルトしたかを確認することで、モデルはそのアルゴリズムを絶えず洗練させ、時間の経過とともにより賢く、より正確になっていきます。モデルは、従来のモデルでは到底できない方法で、変化する経済状況に適応することができます。
信用評価の未来は、人間と機械の戦いではありません。それはパートナーシップです。Zirdleにおいて、私たちのAIは自律的な裁判官ではなく、世界で最も強力な研究アシスタントです。それは山のようなデータをふるいにかけ、複雑なパターンを特定し、その発見を人間の専門家に提示します。最終的で知的な融資決定を下すために、その英知、経験、そして実世界の文脈を適用するのは、これらの専門家、すなわち私たちの内部チームと外部のブローカーパートナーなのです。
この拡張知能アプローチにより、私たちは技術的に先進的であると同時に、深く人間的であることが可能となり、これまで以上に徹底的で一貫性があり、将来を見据えたリスク評価の水準を提供しています。