目次:
定義-Deep Q-Networksの意味?
ディープQネットワーク(DQN)は、インテリジェントなビデオゲームプレイのシミュレーションなどのモデルを提供するためにディープQ学習を利用するニューラルネットワーク(および/または関連ツール)です。 Deep Q Networksは、特定のニューラルネットワークビルドの特定の名前ではなく、畳み込みニューラルネットワークと、特定の方法を使用してさまざまなプロセスについて学習するその他の構造で構成されている場合があります。
TechopediaがDeep Q-Networksについて説明します
ディープQ学習の方法では、一般に、ポリシー評価とポリシー反復の組み合わせとして説明される一般的なポリシー反復と呼ばれる方法を使用して、高次元の感覚入力からポリシーを学習します。
たとえば、Mediumなどの技術出版物で取り上げられている一般的なタイプのディープQネットワークは、Atari 2600ビデオゲームの感覚入力を使用して結果をモデル化します。 これは非常に基本的なレベルで行われ、サンプルを収集して保存し、Qネットワークを更新するためにそれらをエクスペリエンスの再生に使用します。
一般的な意味で、ディープQネットワークは、エリアまたはその他の経験豊富なサンプルでアクティブなプレイヤーを表す入力でトレーニングを行い、それらのデータを目的の出力と一致させることを学習します。 これは、チェスのようなゲームを高レベルでプレイしたり、他の高レベルの認知活動を実行したりできる人工知能の開発における強力な方法です。人間のエージェントが伝統的に使用していたインターフェースのタイプ。
つまり、ディープQラーニングでは、AIプレーヤーは、望ましい結果を達成するための学習において、人間のプレーヤーのようになります。