AIで「もう一人の自分」が仕事を代行 生産性2倍以上を実現した企業が予測 2030年の働き方
「自分の分身がほしい」という願いが、まもなく実現するかもしれない。2024年10月11日に東証グロースに上場した株式会社オルツは、各個人にあわせて最適化された「パーソナルAI」の技術で多方面から注目を集めている。同社では、この技術を活用して約100人のAIクローン社員を生成し、人間との協働を進めている。今や総労働時間は人間よりもクローンのほうが上回るという。
労働人口不足が深刻化する日本において、AIクローンはどのような価値をもたらすのか。オルツ AI/DXコンサルタント パートナー兼プリンシパルの小村淳己氏に、同社の取り組みを聞いた。
一次面接やプレゼンも。AIクローンができること
オルツが開発するAIクローンは、ChatGPTのような「誰にとっても万能で汎用なAI」とは発想が異なり、「個人の特性や知識を反映した一つひとつが異なるAI」となる。「個人の分身」と言えるAIで、個人単位で仕事を支援・代替するのが目的だ。
AIクローンを生成するには、名前、性別、性格、好き嫌い、普段使っている一人称、肩書や職責といった「個人のプロフィール」、話し方や回答ルールなどの「振る舞い」、個人が持つ「特定の知識」などの情報をインプットする必要がある。個人の特性により近づけようとすると有識者で10時間超の時間がかかるが、最短で30分あれば本人らしいAIクローンが生成可能だという。
オルツでは、各社員が自身のAIクローンを生成して運用も自身でおこなっている。「テキスト」と「口頭」の2パターンのコミュニケーションが可能で、オルツでは以下の業務をAIに代替しているという。
社内外コミュニケーション:社内外で発生するシンプルな質問への回答や資料送付など。
アシスタント業務:プレゼンテーションや議事録の作成など。
採用業務:一次面接の対応(コンセプトムービーの視聴や履歴書等の必要書類のアップロードを促し、書類内容を確認した上で候補者への質疑応答を行う)。
営業先、アライアンス先、 M&A候補のソーシング
IR対応(多言語)
プレゼンテーションもこなす。動画は米倉氏のAIクローンがプレゼンをする様子
いわゆるルーチンワークのような業務や日頃からよく聞かれる質問への対応、AIの利点が活かせるプレゼンテーションや多言語対応は、業種や企業規模にかかわらず、多くの企業でAIクローンが代替できるだろうと考えます(小村氏)
オルツでは、議事録作成サービス「AI GIJIROKU」や音声対話AIソリューション「AIコールセンター」、映像と音声の同時通訳システム「AI通訳」といった製品をリリースしており、それらを自社でも活用しているわけだ。
さまざまな業務を支援しているが、オルツでは「物事を判断する責任」をAIクローンには持たせていない。最終判断を下すのは人間であり、そこまでの道のりを短縮することを目的としている。AIクローンがどんな働きをしたかは各社員が対話のログなどを活用して確認し、必要に応じて追加資料をインプットしたり、AIの回答を修正したりといった学習作業を行う。そうすることでAIクローンは、個人の特性により近づいていくという。
気になる精度は? 実際に米倉氏 のAIクローンと会話してみた
現在のAIクロー
ンの精度を知るために、筆者が米倉氏のAIクローンとの会話を試みた。オルツが開発する「CloneDev」というサービスに会員登録をすると、米倉氏を含む3人 と会話ができる。「質問をどうぞ」という投げかけに対して発話すると、マイク機能が音声を認識し、相手が答えを返してくれる仕様だ。米倉氏との対話では、オルツのビジョンや採用、技術の強みや具体事例に関する質問を投げかけてみたところ、回答はわかりやすく簡潔にまとまっていた。音声は文章の合間に間が入ったり、イントネーションが若干不自然だったりするものの、問題な
く聞き取れる精度だった。一方、音声認識は単語 の誤認 識が発生するケースがあった。具体的には、「ライター」という単語を「ファイター」「ナイター」と誤認識したり、「オルツ」という社名を「小物」と誤認識したりした。ま た、長文や2文 以上の認識は難易度が高いようで、間を空けずに流れるように発話しないと最後 まで認識せずに米倉氏のAIクローンが話し始めてしまうことがあった 。
ただ、 筆者がAIとの会話の コツを 掴むとスムーズに会話できるようになった。滑舌良く話すことと、あらかじめ質問内容をまとめておくことを意識すれば、利便性の高いツールだと感じた。
労働生産性は2倍以上、AIクローンの稼働に応じて社員に給料を支払う
オルツでは2023年10月からAIクローンとの協働を開始。徐々にAIに代替する業務が増えていき、2024年6月以降は人間よりもAIの総労働時間が上回るようになった。2023年12月からは、AIの稼働状況に応じて各社員に給料を追加支給する世界初の取り組み(同社調べ)も始めている。
1つの対話を10分と試算してAIの対話回数を時間に変換した上で、正社員に給料を追加支給しています。部署や職責により、AIの使用頻度が多い・少ないの差はあり、私のようなコンサルタント業務や広報担当者は社内外コミュニケーションにおけるAIの稼働が増えることはあります。一方で、人間同士なら避けがちな部署間をまたいだ交流が活発化する傾向もあります
(小村氏)
AIに完全に仕事を丸投げできるわけではないので、AIの働きを人間が監視する必要はあるが、上述の
通り、必要に応じて修正やアップデートをすることでAIはどんどん賢くなり、狙い通りに対応できることが増えていく 。独自の価値を持つ一人ひとりを再現す
ることで、不足する労働人口を補完するだけでなく、人間の創造性を喚起し、独自の価値を最大化する。それがオルツが目指す2030年の姿だ。当社では2030年までに5000万人のAIクローンの生成を目指しています。一見難しい目標に思えるかもしれませんが、一人のAIをコピーしてフレンドリーにしたり、ビジネスライクにしたり、違った個性を持たせて派生させることも可能です。
また、ビジュアルや音声などを再現したAIだけでなく、個人の思考を再現したAIを生成することもできます。日頃の好みをリアルタイムに学習して、自身のニーズにマッチしたファッションアイテムや日用品の購入を推薦するなどの利用方法も可能です。他人からの推薦では購買意欲が湧かなくても、自分自身のAIに推薦されたら『欲しい』と思うことがあるのではないかと考えています(小村氏)
AIクローンと協働する「メリット」と「リスク」
小村氏への取材を通じてわかった、AIクローンとの協働における具体的なメリットとリスクは以下となる。
メリット
- 労働生産性が高まる
- 人間の働き方を改善しやすい
- 部署間をまたぐようなオープンなコミュニケーションが活発化する
- オープンな意見が集まりやすい
AIは効率化の文脈で語られることが多く、それは事実なのですが、今までになかったコミュニケーションが生まれるメリットも挙げられます。たとえば、社内アンケートも人間が取り仕切ると空気を読んだような回答が集まりがちですが、AIを窓口にして匿名で実施すれば、今までにないオープンな意見が出てくるかもしれません(小村氏)
リスク
- 推論ベースで過度な提案をすることがある
- オブラートに包まない
- 時にミスをする
約1年間の運用でリスク面も明確になりつつあります。AIは人間と同じで『推論ベース』で回答しているので、たとえば、『〇〇の提案をください』というリクエストを受けた際に、『明日までに資料を作成して送付します』などと言い切ることがあります。これは「過去にその人がそう対応した場面」をAIクローンが学習しているためで、時に人間側の状況を踏まえず対応可能なことを“当たり前”としてAIが回答するリスクがあります。
また、AIには“配慮する”ことが難しく、調整しない限り、学びをそのままアウトプットします。例えば、過去に『オルツのメンバーを紹介してください』とリクエストしたときに、退職したメンバーの説明をしたことがありました。当社で使っているSlackで、該当メンバーが自己紹介をしており、AIはその内容を学習していたためです(小村氏)
上記の事例も踏まえ、「AIは人間と同じように間違えることもある」ということを認識しておくことが重要だと小村氏は言及した。
「旧来のデジタルツールはルールベースで動いているため、アウトプットが正確であるものが大半です。それが大多数の人の習慣として根付いていますが、推論をして回答を導き出す現状のAIは各リクエストへの対応でミスをすることもあれば、漢字の読み方を間違えることもあります。現状では、AIは人間が最終判断を下すための支援ツールとして協働化を進めていくことが重要だと考えています(小村氏)
このようなリスクさえ認識できていれば、AIクローンは誰より強力なアシスタントになりそうだ。2030年には、AIクローンとの協働が当たり前になっているかもしれない。
ソーシャルもやってます!