AIブームの起点

 AIの開発は昔から行われてきましたが2022年末にオープンAIがチャットGPTを無料公開し、消費者がAIに接する機会ができたことがキッカケでAIブームが起きました。

 当初はAIがどのように売上高につながるか、すなわちマネタイゼーションのしかたがハッキリしていませんでした。しかし今はそれが明確になってきているだけでなく、すでに課金戦略で成功を収めている企業も続々出ています。

大規模言語モデル

 大規模言語モデル(LLM)ではオープンAIのチャットGPT、マイクロソフト(ティッカーシンボル:MSFT)のコパイロット、アルファベット(ティッカーシンボル:GOOG)のジェミニ、アンソロピックのクロードが大手4社を形成しています。このうちマイクロソフトはオープンAIと親密な関係があり一部オープンAIの技術に依拠しています。

 4社はそれぞれすでに課金プランを始めています。性能に関しては大同小異と言えると思います。

関連銘柄

 大規模言語モデルをトレーニングするには膨大な文書やデータをコンピュータに教える必要があります。それは「学習」と呼ばれるステップです。ここでは反復作業を必要とするため、とにかく速いプロセッサが必要となります。

 この場面ではもともとネットゲームのレンダリングのために開発されたグラフィック・アクセラレータ(=GPU)が単位当たり処理コストが安くなるため使用されています。エヌビディア(ティッカーシンボル:NVDA)のH100のような半導体がそれです。

 次にインファレンス(推論)と呼ばれるタスクがあります。これはAIモデルがデータに基づき予測し、結果をアウトプットすることを指します。インファレンスに特化した企業としてはディーマトリックス(d-Matrix)、エッチト(Etched)、グロック(Groq)、モジュラー(Modular)などがあります。

 さて、AIモデルに通すデータですが、そのソースはさまざまな場所に保管されています。企業秘密に属するものも多く、クラウド・サービス・プロバイダ(CSP)ではなく、自社の設備の中に保管されている場合もあります。

 インファレンスの段階では高価なGPUが最適な使用機材ではない場合が多いです。タスクの正確に合わせて、必要な半導体も変わってきます。言い直せば、それ専用の半導体をデザインする方が経済的合理性があるのです。そこではカスタムAIアクセラレータと呼ばれる半導体が活躍します。ブロードコム(ティッカーシンボル:AVGO)はそれを作っています。

 データ・レイヤーにおける情報のやりとりに特化した半導体をデザインしている会社にマーヴェル(ティッカーシンボル:MRVL)があります。

 企業がこれまで蓄積してきた社内データが、AIにより一層有効活用できるようになれば社内のデータ保管保全の重要性についても再認識される可能性があります。その場合、ストレージ・インフラストラクチャを制御するネットアップ(ティッカーシンボル:NTAP)の製品が脚光を浴びる可能性があります。

 AIは「人が普段喋っている言葉をコンピュータが理解し、その意図をくんで答えを出してくる」ものに他ならないですから、その意味においてこれは一種のユーザー・インターフェース(UI)であり、音声認識・音声入力により我々が普段から身に着けているデバイスが一層便利になるという側面を持っています。

 そこではAIがちょうどマルウエアのような動き方でデバイス内のさまざまなアプリを縦横に行き来し、デバイスのオーナーからの指図を実行するわけです。

 これが可能になるためには消費者が使うデバイスの中の半導体がそのようなタスクをこなせるものである必要があります。すると半導体を更新する需要が出ます。消費電力が小さい半導体をデザインするにはARM(ティッカーシンボル:ARM)のインストラクション・セットを使うのが好ましいです。