Categories
CEOの観点

生成AIは本当に仕事の生産性を向上させることができるのか? AIの使い方を学ぶ前に、まずはワークフローの見直しを

今年はAIの発展が大きく進み、それに伴い多くの労働者が自分の仕事がAIに代替されてしまうのではないかと不安になっています。しかし実際のところAIは、仕事を代替するのではなく、タスクを代替するのです。 現時点での観察によると、AIが各業界に与える影響は異なり、AIの発展はもろ刃の剣のようなもので、担当する業務がAIの能力と高度に重複している場合、AIの直接的影響を心配する必要があります。また一方でAIは、労働者の生産性を向上させる補完的なツールになる可能性があります。 例えば私たちは、ウェブ上でライターの執筆記事やブログ、マーケティングコンテンツが急増している傾向を観察しています。これは以前はライターが、1 日に 1 つのコンテンツしか作成できなかったところ、AIの活用により 1 日に 3 つの記事を作成できるようになり、さらには外部のトレンドを検出するためのAIツールを活用して記事を豊かにすることさえも可能になっているためです。このように実際にAIはコンテンツ制作のスピードを加速させました。

ではAIを日常業務にどのように活用するか?これは、労働者が自分自身や自分のチーム、さらには企業全体を振り返る必要がある問題です。そのため、日々の業務プロセスを研究することが非常に重要です。AIは一部のタスクのプロセスを高速化できますが、遅くなる場合もあり、AI は万能薬ではありません。 特定の言語やスキルが標準機能になるのと同じように、AI が仕事の標準機能になると、労働者はAIが舞台裏でどのように機能するかを知る必要はありませんが、AI の使用方法を理解する必要があります。

今年7月、Nielsen Norman Group(ニールセン・ノーマン・グループ)はレポート (AIにより従業員の生産性が66%向上) を発表し、生成AIが生産性に最も大きな影響を与える 3 つの分野について説明しました。 まず、カスタマーサービスに関して言えば、当初チャットボットの登場でカスタマーサービスのスタッフは全員失業してしまうのではないかと考えた人がほとんどでした。 しかしこのような事態が起こらなかったのは、カスタマーサービススタッフが回答する情報が、非常に正確性を求められるからです。特に顧客からの苦情に対処する場合、細心の注意を払う必要があり、顧客の感情を和らげる方法を用いることが重要です。このような細かい処理にChatGPTを適用した場合、現状では結果を予測することは不可能です。すなわちチャットボットに明示的且つ指示通りに処理するよう求めようとしても、結果を予測することができません。このような不確実性の高さのため、誰もがChatGPTをカスタマーサービスの分野に適用することを躊躇するでしょう。結局のところ、誰も顧客を怒らせたくありません。そのため、顧客サービスの分野ではあまり進歩がなく、依然としてチャットボットの標準化を試す段階にいます。

2つ目は、コンテンツ生成の分野で、この分野においては生産性が50%以上大幅に向上しました。 米国マサチューセッツ工科大学の研究者らは今年3月、生成AIがコンテンツ生成に与える影響を定量化する論文(Experimental Evidence on the Productivity Effects of Generative Artificial Intelligence)を発表。 人々がデジタルツールと切り離せない時代において、これらのツールは、コピーライティング、翻訳、レポートの作成、説明会や議事録の作成など、情報交換やコンテンツ制作に関連しており、デジタルワーカーはほぼ毎日行っている作業です。ワークフローにおいてChatGPTは、アイデアの生成と草案作成を支援しますが、編集に関しては、作業者にとってより多くの時間がかかることが研究者らによってわかりました。作業者が長いレポートを受け取った場合、その編集や修正に時間がかかるため、作業者は修正するよりも、すべて自分で書き直したいと思うかもしれません。 ChatGPTは調査を経て意見を出したり、計画を立てたり、大規模な枠組みの簡単な草案を作るのには適していますが、細かい内容を書くことは難しく、この部分は作業者が自分でやる必要があります。しかしながら全体としては、ChatGPTを使用するとタスク処理の時間を短縮できます。研究者らはAIツールを使用すると、生産性が37%向上し、これは労働時間の約40%削減に相当し、さらに質が20%近く向上することを示しています。このことから生成AIは、質と効率を同時に最適化できると言えます。

最後に、AIによって最も生産性が向上した領域に焦点を当てると、それはソフトウェアエンジニアのプログラム作成であり、生産性が125%以上向上することがわかりました。つまり、一単位の時間あたり1行しかプログラムを作成できなかったところ、AIの助けを借りることで、ソフトウェアエンジニアは2〜3行のプログラムを作成できることになり、この結論は多くの人に驚きを与えました。しかしながら業界の状況を見ると、シリコンバレーでは今年約50万人のソフトウェアエンジニアが解雇されており、テクノロジー企業はAIがもたらす付加価値に着目し、積極的に人員配置を調整している現状があります。これは、AIが当初は科学やエンジニアリング以外の仕事に影響を与えると広く信じられていましたが、現在ではその結果が逆であることを示しています。

全体として、AIの役割は重要な生産性向上ツールとして見なされるべきですが、AI は役職を完全に置き換えるのではなく、むしろワークフローを再構築するものであると言えます。 したがってAI時代には、誰もが自分の業務プロセスにAIをうまく活用し、業務の効率と価値を高める方法を理解する必要があります。 人々は働き、そこに意味を見出さなければなりませんが、AIはあくまで補助的なツールであり、主役になるものではありませんし、主役になる必要もありません。

Categories
CEOの観点

MetaのLLaMA2に関する情報公開から、今後のAI産業の発展動向を探る

下半期AI業界の重要情報:Metaが完全オープンソースで商用利用も無料なLLaMA2 を発表

【2023 年上半期】世界のAI技術発展の重要ポイントにて、MetaはLLaMAを通じAIオープンソースコミュニティにおいてリーダーとしての地位を確立していることを共有しました。

そしてMetaはこの勢いに乗り、7 月 19 日にはLLaMA2 を発表。自社の地位、優位性をさらに強化しています。

LLaMA2 は第一世代のLLaMAに比べて、2 兆トークン(簡単にテキストの量と考える)を用いて訓練され、前後の文脈入力の長さは 4,096 単語に拡張。前の世代と比べ 2 倍に長くなりました。

最近、AI研究のコミュニティでは、テキストの長さの競争が始まっており、言語モデルが一度に処理できるトークンの数に注目が集まっています。これは前後の文脈からの推測をより完全なものにし、AIの性能を向上させるのに役立つのです。

OpenAIのChatGPT、AnthropicのClaude、そして最近発表されたいくつかの研究によれば、それぞれトークンの長さを 32,768、10 万、さらには 100 万に拡張しています。LLaMA2 はそれらに比べると少し短く見えるかもしれませんが、忘れてはいけないのは、LLaMA2 が唯一のオープンソースであるという点です。

MetaはLLaMA2 に関する論文で、LLaMA2 の能力はまだGPT-4 には及ばないと述べています。しかし、これはOpenAIにとっての大きな問題を浮き彫りにしています。

将来、各企業は自社運営のためのAIを持つ必要がありますが、そのAIはGPT-4 のように強力で且つ高価である必要はありません。 企業が必要とするのはカスタマイズ可能で、自社のビジネスにおける問題を解決できる「専属的」なAIです。ここでは全知全能で神のようなAIは求められていないのです。

上半期から "人工知能の脳を小さくする" というAI開発競争が加速している傾向があり、その観点から見てもLLaMA2 は新たな段階に達しています。

QualcommとMetaが手を組み、LLaMA2 をスマートフォンのチップに組み込むことが 2024 年に実現するということは、MetaがAIのエッジコンピューティング市場で先行優位を得たことを意味します。

他のBig Techは、まだLLaMA2 に対応する競合のオープンソースモデルを持っていません。 忘れてはいけないのは、かつてGoogleがAndroidというオープンソースソフトウェアを活用してスマートフォンのオペレーティングシステム市場を独占したことです。Metaは当時、スマートフォン発展の機会を逃し、AppleとGoogleのエコシステムに依存してプライバシーの問題や広告のビジネスモデルに対応する必要があり、三社間の対立はずっと続いてきました。

今年、ザッカーバーグ氏はメタバースについて語ることをやめ、Meta全体は一転してAIに全力を注ぐ方針に転換しました。偶然のリークによって明らかになったLLaMA第一世代によって、新たな競争局面が生まれ、Metaは私たち一人ひとりのスマートフォンにより深く入り込むチャンスを手に入れました。

私たちがこれまで語ってきたように、デジタルビジネスは常にエコシステムの戦いです。そしてMetaはAIチップの統合、オープンソースAIモデル、既存の強力なネットワーク効果の 3 つの重要な武器を使って、GoogleとOpenAI/Microsoftとの対決に新しいAIの戦場を開拓しました。

これによりAIの競争にMetaが存在しない、遅れをとっていると言われていることが完全に間違っていると証明されました。

Metaは後発ではなく、AI競争に完全に異なる視点から参入しています。現在、人々はザッカーバーグ氏のメタバースに対して疑問を持っているかもしれませんが、彼は本当に優れた能力を持っています。

そして私は常に主張してきたように、AIの発展はメタバースの発展を加速させるだけであり、数年後にはザッカーバーグ氏のアプローチが成功だったとわかるでしょう。

MetaはLLM大言語モデルをMessenger上で大規模に展開する内部テストを行っているという噂があります。世界最大の対話プラットフォームであるMessengerには、人気のあるデジタルヒューマンを大量に創造するのに最適な場所があり、私はMetaがこの市場に迅速に参入すると確信しています。そのため、最近登場したような生成型AI企業は競争のプレッシャーを感じているでしょう。Big Techが参入すれば、これらの企業は直接衝撃を受ける可能性があります。

ネットワーク効果は結局、Big Techが保有している最も有利な競合を守る要素です。下半期はこれらBig Techの主戦場となるでしょう。純粋に生成型AI技術に依存して創業している新興企業は、明確な競合優位性を持っている企業がまだ存在しないため、非常に激しい競争圧力に直面しています。

LLaMA2 の重要なリリースとともに、業界はますます多くのオープンソースモデルを使用して独自のAIアプリケーションを構築しています。独自の大規模言語モデルをビジネス機密と主要な競合優位性として扱う企業は、新しいAIエコシステムをすぐに構築しなければ、既存のBig Techに圧倒されてしまう可能性があり、良くてもBig Techの一部として飲み込まれる可能性があります。

しかし新しいエコシステムを構築することは容易ではなく、これら企業は下半期に存亡の危機に直面しています。業界の展開はこれほどまでに速いのです。

Categories
CEOの観点

【2023年上半期】世界のAI技術発展の重要ポイント

2023年上半期における世界のAI技術発展に関する重要なポイントを11項目に分けて総括しました。これらは、iKalaのAIインフルエンサーマーケティングプラットフォーム「KOL Radar」と顧客データプラットフォーム「iKala CDP」の2つのプロダクト、またAI導入をサポートする際の経験と研究をもとに整理しました。iKalaは引き続きHugging Faceや公開論文で成果を発表していく予定です。

1. モデルを縮小してもAIブレーンの性能は維持可能か

この課題を達成することは非常に難しいです。モデルのパラメータ量は、大規模言語モデル(LLM)の能力にとって重要な要素であり、現時点では決定的な要因です。私たちは40以上のモデルをテストしましたが、ほとんどは30B以下であり、AIのブレーンを縮小すると同じ理解能力を維持することが難しいことがわかりました。論文 "The False Promise of imitating proprietary LLMs" はこの問題を総括しています。しかし、誰もが小さくても優れていて且つ速いモデルを望んでいます。そのため、研究コミュニティはモデルを縮小することに注力しています。しかし、注意すべきは、AIによるプログラミングの能力は、モデルのサイズと必ずしも必然的な関係があるわけではないということです。これは人類の認知作業とは異なる傾向を示しており、現時点ではこの現象を説明することができません。

2. 各界で自社開発したオープンソース言語モデルの発表が活発に

過去半年間で無数の公開モデルが発表され、多くの企業や開発者が自社のモデルがわずか数百(数千)ドルのコストや少量且つわずかな時間のトレーニングでGPT-4の87%の性能を持つなどと主張しています。これらの結果は参考程度に止めるべきであり、重要なのは自ら実験を行い、これらの結果を検証することです。

3. AIの私有化とカスタマイズの傾向が形成

AIを導入するプロセスが早い顧客は、市場に出回っているGPT-4、Claude、Midjourney、PaLM 2などの大規模モデルは再現が非常に困難で、ここまでの巨大なリソースを費やす必要もないと認識しています。多くの企業は「汎用型のLLM」ではなく、ビジネスモデルに応じて言語モデルの必要な能力を決定するだけで十分です。

4. モデル全体性能の縮小または特定能力の除去

大規模モデルの再現性が低く、また企業はAI導入を急ぐ傾向にあるため、現在の方向性は「産業専用モデル」のトレーニングです。その際の方法として、「言語モデルの特定の能力を直接除去する(例:聞く、話す、読むだけで書く能力を持たない)」または「モデル全体性能の縮小(例:聞く、話す、読む、書く能力を低下させる)」という手法が考えられます。これに関連して、「Distilling Step-by-Step! Outperforming Larger Language Models with Less Training Data and Smaller Model Sizes」という論文を参考にすることができます。

5. 企業がAIを導入するための複線的な考え方

現在、企業の主な焦点は、「既存のビジネスモデルにAIをどのように活用するか?」および「既存の人員の生産性をどのように向上させるか?」という点です。各組織は内部のワークフローを分解し、効率化と自動化による従業員の生産性向上を図っています。同時に、AIがビジネスモデルに付加価値をもたらすかどうかを積極的に探求しています。iKalaは、多くの企業がiKala CDPから「データミドルウェア」の構築を始めていることから、探求を加速させつつデータの整理も進めています。なぜなら、データがなければAIも成り立たないからです。将来的には必ずAIを使用することになるので、模索しながら対処可能で重要なタスクを同時に進める必要があります。そのため、AIの進展はビッグデータとクラウド市場を急速に推進しています。以前のデジタル変革は目的が不明確でしたが、現在のデジタル変革は「知的能力」を獲得するために行われており、目的が明確であり、AIの効果を実証するものとなっているため、企業主たちは積極的に投資しています。

6. 大規模モデルプラットフォーム化のトレンド形成

前述の大規模モデルにおける経済学的スケールメリットの観点から、大規模モデルの訓練と維持のコストを負担できるのはBig Techだけであり、さらにサービス単位のコストを低減して小規模な競合他社の参入を阻止することができるため、これらのモデルは全面的にプラットフォーム化へと進んでいます。これらのモデルはプライベートモデルの基盤となり、外部企業や開発者は低コストで大規模モデルが生成した結果を利用できますが、その運用の詳細情報を得ることはできず、また現在Big Techが大規模モデルの詳細を公開する要因もありません。(Metaは例外であり、後述します)政府の規制や介入などがあれば情報を開示することが考えられますが、これは長い道のりです。最終的に政策立案者はBig Techとの商業利益と国家(地域)の統治バランスを取ることになるかもしれませんが、全体的にはBig Techが大きな損害を被ることはないでしょう。

7. MetaはAIオープンソースコミュニティで先頭を走る

LLaMAとSAM(Segment Anything Model)が大きな人気を博しているため、MetaはAIの主導権をかなり取り戻しています。しかし、Metaの最も特異な点は、「直接的にAIで収益を上げていない」ということです。Google、Amazon、MicrosoftはAIをクラウドに配置して企業にレンタルさせたり、OpenAIはChatGPTのサブスクリプションを販売していますが、Metaだけが非常に強力なSNSプラットフォームのネットワーク効果によって広告収益を持続的に得ています。そのため、オープンAIにおけるMetaの積極性は、間違いなく他のBig Techを超え続けることでしょう。

8. 英語圏主導のAIモデル領域の発展

ほとんどのオープンソースモデルは明らかに英語の表現が最も優れており、これは西洋諸国と他の国々の科学技術の発展格差を拡大させ、世界中のユーザーの使用習慣を支配し、さらには特定の言語の普及を脅かす可能性があります。そのため、各国の政府や大企業が独自の大規模モデルの開発に取り組み、「言語的覇権」に抵抗しようとしています。しかし、巨額のリソースを投入して国家専用のモデルを訓練しても、重要なのは「誰がそれを使用するか?」です。AIモデルの訓練が国家レベルになると、それは技術の問題ではなく、マーケティングとサービスの問題に変わります。各国の関連部門は重点をその地域に合わせる必要があります。

9. ほとんどの生成型AIスタートアップには独自の競争優位性がない

ChatGPT自体のビジネスモデルが持続可能かどうかすら不明であり、OpenAIのAPIに頼るだけのスタートアップはさらに持続性に欠ける可能性があります。特定のビジネス領域において既に規模の経済を持つ企業は動きが遅いかもしれませんが、AIの導入と応用方法を明確にするだけで一気にこれらのスタートアップを追い越すことができます。さらに、Big Techは規模の経済によって生成型AIの使用コストを低減させることができます。これらの要因により、生成型AIのスタートアップはさらなる困難に直面しています。したがって、AIの重点は依然として「応用領域」にあり、純粋なAI技術だけに頼って起業することは非常に困難であり、初めから資本との連携を選択することになります。

10. 汎用人工知能(AGI)

AGIへの道のりは現在も非常に遠いものです。GPT-4やDeepMindの強化学習による意外な研究結果は、機械が自己行動する可能性を示していますが、現時点ではAGIを追求するさまざまな試みのほとんどは、高レベルで既存の大規模言語モデル(LLM)に各種ツールチェーンを組み合わせ、タスクを1つずつ微調整して解決している状況です。高いコストもあって、多くのオープンソースプロジェクトが中途で放棄されることもあり、完全で汎用的な解決策はまだ現れていません。AGIよりもむしろRPA(ロボティック・プロセス・オートメーション)に近い状況と言えるでしょう。

11. AIの利用には「信頼性」「ユーザーエクスペリエンス」「ビジネスモデル」が最も重要

これらはAIが人間社会の隅々まで普及するために最も重要な要素です。現在、説明可能なAI(XAI)研究分野は急速に進展していますが、まだ初期段階にあり、GPT-4のような大規模モデルは依然として巨大なブラックボックスであり、どのように意思決定や推論を行っているのかを理解するには長い道のりがあります。また、ユーザーエクスペリエンスは新しい課題です。既存の製品やサービスがどのようにAIと統合されるかは、興味深く、また新しい機会でもあり、同時にユーザーの古い習慣に挑戦する大きな課題でもあります。