DLAMは、APIを通じてシステムを操作するのではなく、AIがMacやWindowsのリモートデスクトップ機能を使い、実際のアプリケーションのメニューや設定を操作して作業を進める。ユーザーが最初に音声やテキストで目的を指示すると、AIが必要なアプリを立ち上げ、操作を試行しながら目的達成を目指し、途中でうまくいかない場合には別の方法を試すなど、人間の作業に近い形で処理を実行するようになっている。
2024年に発表されたrabbit inc.のネイティブAIデバイスであるrabbit r1は、「LAMに基づき、チャットや検索だけではなく既存のWebサービスなどと連携して実際のアクションを起こすデバイス」というビジョンを掲げたが、その実現には時間がかかっていた。DLAMは少し発想を変えて、そのrabbit r1が有線接続されたコンピューターを使い、特殊な設定や管理者権限を持つ常駐ソフトをインストールすることなく自律型AIエージェントを機能させる技術だ。
参考記事(rabbit r1):
・スティーブ・ジョブズも悔しがる?「rabbit r1」はiPhoneに続く革新を作り出せるか(2025.2.28)
・2万9000円のデバイスRabbit R1は「AI時代のiPhone」になるかもしれない【CES2024で注目】(2024.1.12)
・スティーブ・ジョブズも悔しがる?「rabbit r1」はiPhoneに続く革新を作り出せるか(2025.2.28)
・2万9000円のデバイスRabbit R1は「AI時代のiPhone」になるかもしれない【CES2024で注目】(2024.1.12)
企業の株価レポートや、庭付きの家の3DモデルをAIが作成するテスト
自律型AIエージェントは、実際にどのようなことができるのか?百聞は一見にしかずということで、今回筆者はこのDLAMを利用して、実験的に2つの処理を行い、その様子を動画にしてみた。下に動画を貼るのでぜひ見てみてほしい。
2つテストを行い、実際の処理の完了までは、それぞれ1時間弱かかっている(動画は編集で動きを速めている)。処理スピードに関しては今後の課題だが、同じことを人間のアシスタントに頼んでも、慣れていなければ同じかそれ以上の時間がかかりそうだ。







