Q:
DARPAが「説明可能なAI」を研究しているのはなぜですか?
A:一般に、説明可能な人工知能は、データサイエンスの最先端の研究の先駆けとなっています。 本質的に不安定で動的なタイプのテクノロジーを人間が制御するのを支援します。説明可能なAIは、人工知能がどのように機能するかについての集合的な質問の多くに答えるのに役立ちます。
説明可能なAIを理解するには、「通常のAI」がどのように見えるかを理解することが役立ちます。 従来、AIが形になり始めると、典型的なプロジェクトは、アルゴリズムとトレーニングセットに隠された派手な新しいソフトウェア機能と、ユーザーに対する一種の「ブロックボックス」で構成されます。 彼らはそれが機能していることを知っています-彼らは正確にどのように知らないのでしょう。
これは、ユーザーがテクノロジーが決定を下す根拠に疑問を抱く「信頼の問題」につながる可能性があります。 それが説明可能なAIが対処することになっているものです。説明可能なAIプロジェクトには、エンドユーザーにAIの意図と構造を示すための追加のインフラストラクチャが付属しています。
Bill GatesやElon Muskのようなトップイノベーターが人工知能がどのように機能するかについて懸念を表明している時代では、説明可能なAIは非常に魅力的です。 専門家は、優れた説明可能なAIが、エンドユーザーがテクノロジーが何をするのかを理解し、信頼を高め、これらのテクノロジーの使いやすさと利用率を高めるのに役立つと主張します。
ただし、特に、DARPAは、新しいプロジェクトに興味がある理由を具体的に説明しています。 DARPAのページは、国防総省が人工知能アプリケーションの「急流」とその開発におけるある程度の混乱を予想していることを示しています。
「継続的な進歩により、自力で知覚、学習、決定、行動する自律システムの生産が約束されます」とデビッド・ガニングは述べています。 「しかし、これらのシステムの有効性は、マシンの現在の決定と行動を人間のユーザーに説明できないことにより制限されています。 …説明可能なAI –特に説明可能な機械学習–は、将来の戦闘機が人工知能の新しい機械パートナーの新しい世代を理解し、適切に信頼し、効果的に管理するために不可欠です。
Gunningのオンラインエッセイは、説明可能なAIシステムがテクノロジーの「理論的根拠」を提供し、その長所と短所を示し、ユースケースをより透明にするのに役立つことを示唆しています。 ページ上のグラフィックは、トレーニングデータからの人工知能機能の単純なパイプラインが、ユーザーが質問に答えるのに役立つ説明可能なモデルと説明可能なインターフェイスと呼ばれるものによってどのように増強されるかを示しています。 Gunningはさらに、説明可能なAIプログラムには2つの主要な焦点領域があることを示唆しています。
DARPAは、将来の説明可能なAIシステムの開発に役立つ「ツールキット」を提供したいと考えています。




