アイコン_インストール_ios_web アイコン_インストール_ios_web アイコン_インストール_android_web

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

分析9か月前发布 ワイアット
5,910 0

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

導入

AI業界の最近の発展は、第4次産業革命とみなされることもあります。大規模モデルの出現により、さまざまな業界の効率が大幅に向上しました。ボストンコンサルティンググループは、GPTにより米国の作業効率が約20%向上したと考えています。同時に、大規模モデルがもたらす一般化能力は、新しいソフトウェア設計パラダイムと見なされています。かつてのソフトウェア設計は正確なコードでしたが、現在のソフトウェア設計は、ソフトウェアに組み込まれたより一般化された大規模モデルフレームワークです。これらのソフトウェアは、より優れたパフォーマンスを発揮し、より幅広いモーダル入出力をサポートできます。ディープラーニング技術は確かにAI業界に第4次産業革命をもたらし、この傾向は暗号業界にも広がっています。

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

さまざまな業界における GPT 採用率のランキング、出典: ベインAI調査

本レポートでは、AI産業の発展の歴史、技術分類、ディープラーニング技術の発明が産業に与えた影響について詳しく説明します。次に、GPU、クラウドコンピューティング、データソース、エッジデバイスなどの産業チェーンの上流と下流、およびディープラーニングにおけるそれらの開発状況と動向を深く分析します。その後、CryptoとAI産業の関係を本質から詳細に説明し、Cryptoに関連するAI産業チェーンのパターンを整理します。

AI産業の歴史

AI 業界は 1950 年代に始まりました。人工知能のビジョンを実現するために、学界と産業界はさまざまな時代と分野で人工知能の実装に関する多くの学派を発展させてきました。

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

AIスクールの比較、出典:Gate Ventures

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

AI/ML/DL の関係、出典: マイクロソフト

現代の人工知能技術では、主に機械学習という用語が使われています。この技術のコンセプトは、機械がデータに依存してタスクを繰り返し実行し、システムのパフォーマンスを向上させることです。主な手順は、データをアルゴリズムに送信し、このデータを使用してモデルをトレーニングし、モデルをテストして展開し、モデルを使用して自動予測タスクを完了することです。

現在、機械学習には、それぞれ人間の神経系、思考、行動を模倣するコネクショニズム、シンボリズム、行動主義という 3 つの主要な学派があります。

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

ニューラル ネットワーク アーキテクチャの図。出典: クラウドフレア

現在、ニューラルネットワークに代表されるコネクショニズムが優勢です(ディープラーニングとも呼ばれます)。主な理由は、このアーキテクチャには入力層と出力層が 1 つずつありますが、隠れ層が複数あることです。層とニューロン(パラメータ)の数が十分に大きくなると、複雑な汎用タスクを適合させる機会が十分に得られます。データ入力を通じて、ニューロンのパラメータを常に調整でき、最終的に多くのデータを経て、ニューロンは最適な状態(パラメータ)に到達します。これは、多大な努力による奇跡と呼ばれるもので、十分な層とニューロンを意味する「深さ」という言葉の由来でもあります。

たとえば、関数を構築したことは簡単に理解できます。X = 2 を入力すると、Y = 3 になります。X = 3 のときは、Y = 5 になります。この関数ですべての X を処理するには、この関数の次数とそのパラメーターを追加し続ける必要があります。たとえば、この条件を満たす関数を Y = 2 X -1 として構築できます。ただし、X = 2、Y = 11 のデータがある場合は、これら 3 つのデータ ポイントに適した関数を再構築する必要があります。GPU を使用してブルート フォース クラッキングを行うと、Y = X 2 -3 X + 5 がより適していることがわかりますが、データと完全に重複する必要はありません。バランスとほぼ同じ出力に準拠している必要があります。ここで、X 2 と X、X 0 はすべて異なるニューロンを表し、1、-3、5 はそれらのパラメーターです。

この時点で、ニューラル ネットワークに大量のデータを入力すると、ニューロンを追加し、パラメータを反復して新しいデータに適合させることができます。このようにして、すべてのデータを適合させることができます。

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

ディープラーニング技術の進化、出典:Gate Ventures

ニューラルネットワークに基づくディープラーニング技術も、上図に示す最も初期のニューラルネットワーク、フィードフォワードニューラルネットワーク、RNN、CNN、GAN、そして最後にGPTなどの現代の大規模モデルで使用されるTransformer技術など、複数の技術的な反復と進化を経てきました。 Transformer技術はニューラルネットワークの進化の方向の1つにすぎず、追加のトランスフォーマー(Transformer)を使用して、すべてのモダリティ(オーディオ、ビデオ、画像など)のデータを対応する数値にエンコードして表現します。次に、データをニューラルネットワークに入力して、ニューラルネットワークがあらゆる種類のデータに適合できるようにし、つまりマルチモーダル性を実現します。

AIの発展は3つの技術の波を経てきました。最初の波は1960年代で、AI技術の導入から10年後でした。この波は記号技術の発展によって引き起こされ、一般的な自然言語処理と人間とコンピュータの対話の問題を解決しました。同時に、エキスパートシステムが誕生しました。これは、NASAの監督下でスタンフォード大学が完成させたDENRALエキスパートシステムです。このシステムは化学知識が非常に強く、質問から推論して化学の専門家と同じ答えを生成できます。この化学エキスパートシステムは、化学知識ベースと推論システムの組み合わせと見なすことができます。

エキスパートシステムの後、1990年代にイスラエル系アメリカ人の科学者で哲学者のジュディア・パールが、ベイジアンネットワーク(信念ネットワークとも呼ばれる)を提唱しました。同時に、ブルックスは行動ベースのロボット工学を提唱し、行動主義の誕生を告げました。

1997年、IBMのディープ・ブルーはチェスのチャンピオン、カスパロフを3.5対2.5のスコアで破りました。この勝利は人工知能における画期的な出来事とみなされ、AI技術は発展の第2の頂点を迎えました。

AI技術の第3波は2006年に起こりました。ディープラーニングの3人の巨匠、ヤン・ルカン、ジェフリー・ヒントン、ヨシュア・ベンジオは、人工ニューラルネットワークをフレームワークとしてデータを表現し学習するアルゴリズムであるディープラーニングの概念を提唱しました。その後、ディープラーニングアルゴリズムは、RNN、GAN、Transformer、Stable Diffusionへと徐々に進化しました。この2つのアルゴリズムが共同でこの第3波の技術を形成し、この時期はコネクショニズムの全盛期でもありました。

ディープラーニング技術の探求と進化に伴い、次のような画期的な出来事も数多く発生しました。

● 2011年、IBMのワトソンがクイズ番組「Jeopardy」で人間を破り優勝しました。

● 2014年にグッドフェローは、2つのニューラルネットワークを競合させることでリアルな写真を生成するGAN(Generative Adversarial Network)を提唱し、同時にディープラーニングの分野で重要な入門書の一つである『Deep Learning』という本も執筆しました。

● 2015年、ヒントンらはネイチャー誌でディープラーニングのアルゴリズムを提案しました。このディープラーニング手法の発表は、すぐに学界と産業界に大きな反響を呼びました。

● 2015年にOpenAIが設立され、マスク氏、YCのアルトマン社長、エンジェル投資家のピーター・ティール氏らが1兆1000億米ドルの共同投資を発表した。

● 2016年、ディープラーニング技術を基盤とするAlphaGoは、囲碁の世界チャンピオンでプロ九段のイ・セドル氏とマンマシン囲碁対決を行い、合計スコア4対1で勝利しました。

●2017年、中国香港のハンソン・ロボティクス社が開発したヒューマノイドロボット「ソフィア」は、豊かな表情と人間の言語を理解する能力を持ち、史上初の一級市民権を与えられたロボットと称された。

●2017年には、人工知能分野で豊富な人材と技術力を持つGoogleが論文「Attention is all you need」を発表し、Transformerアルゴリズムを提案し、大規模な言語モデルが登場し始めました。

● 2018年、OpenAIはTransformerアルゴリズムに基づいて構築され、当時最大規模の言語モデルの1つであったGPT(Generative Pre-trained Transformer)をリリースしました。

● 2018年、GoogleチームDeepmindはディープラーニングをベースにしたAlphaGoをリリースしました。これはタンパク質構造を予測することができ、人工知能分野における大きな進歩の兆候とみなされています。

● 2019年、OpenAIは15億のパラメータを持つモデルGPT-2をリリースしました。

● 2020年にOpenAIは、前バージョンのGPT-2の100倍にあたる1750億のパラメータを持つGPT-3を開発しました。このモデルはトレーニングに570GBのテキストを使用し、複数のNLP(自然言語処理)タスク(質問への回答、翻訳、記事の執筆)で最先端のパフォーマンスを実現できます。

● 2021年にOpenAIはGPT-3の10倍となる1兆7600億のパラメータを持つモデルGPT-4をリリースしました。

● 2023年1月、GPT-4モデルに基づくChatGPTアプリケーションがリリースされました。3月にはChatGPTのユーザー数が1億人に達し、史上最速で1億人に到達したアプリケーションとなりました。

● 2024 年、OpenAI は GPT-4 オムニを発売しました。

ディープラーニング産業チェーン

現在、すべての大規模モデル言語は、ニューラルネットワークに基づくディープラーニング手法を採用しています。GPTを筆頭とする大規模モデルは、人工知能ブームの波を生み出し、多くのプレーヤーがこの分野に参入しました。また、データとコンピューティングパワーに対する市場の需要が爆発的に増加していることもわかりました。そのため、レポートのこの部分では、主にディープラーニングアルゴリズムの産業チェーン、ディープラーニングアルゴリズムが支配するAI業界の上流と下流がどのように構成されているか、上流と下流の現状と需給関係はどのようなものか、そして将来の発展はどのようなものかを探ります。

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

GPTトレーニングパイプライン 出典: ウェイトゥAI

まず、Transformer テクノロジに基づいて GPT を筆頭とする LLM (大規模モデル) をトレーニングする場合、3 つのステップに分かれていることを明確にする必要があります。

トレーニングの前に、コンバーターは Transformer に基づいているため、テキスト入力を数値に変換する必要があります。このプロセスはトークン化と呼ばれ、これらの数値はトークンと呼ばれます。 一般的な経験則では、英語の単語または文字はおおよそ 1 つのトークンと見なすことができ、中国語の各文字はおおよそ 2 つのトークンと見なすことができます。これは、GPT の価格設定に使用される基本単位でもあります。

最初のステップは事前トレーニングです。レポートの最初の部分にある例 (X、Y) と同様に、入力層に十分なデータ ペアを与えることで、モデルの各ニューロンに最適なパラメーターを見つけることができます。これには大量のデータが必要であり、さまざまなパラメーターを試すためにニューロンを繰り返し反復する必要があるため、このプロセスは最も計算集約的なプロセスでもあります。データ ペアのバッチがトレーニングされた後、通常、同じデータ バッチがパラメーターを反復するための二次トレーニングに使用されます。

2 番目のステップは微調整です。微調整とは、トレーニング用に少量の高品質データを提供することです。事前トレーニングには大量のデータが必要ですが、多くのデータは間違っているか低品質である可能性があるため、この変更によりモデル出力の品質が向上します。 微調整ステップでは、高品質のデータを通じてモデルの品質を向上させることができます。

3 番目のステップは強化学習です。まず、報酬モデルと呼ばれる新しいモデルを構築します。このモデルの目的は非常に単純で、出力結果をソートすることです。したがって、ビジネス シナリオは比較的垂直であるため、このモデルの実装は比較的簡単です。次に、このモデルを使用して、大規模モデルの出力が高品質であるかどうかを判断します。これにより、報酬モデルを使用して大規模モデルのパラメーターを自動的に反復できます。(ただし、モデルの出力品質を判断するために人間の参加が必要になる場合もあります)

つまり、大規模モデルのトレーニング プロセスでは、事前トレーニングではデータ量に対する要件が非常に高く、GPU コンピューティング能力を最も多く消費しますが、微調整ではパラメータを改善するために高品質のデータが必要になります。強化学習では、報酬モデルを通じてパラメータを繰り返し反復処理して、より高品質の結果を出力できます。

トレーニングプロセスでは、パラメータの数が多いほど、一般化能力の上限が高くなります。たとえば、関数 Y = aX + b の例では、実際には 2 つのニューロン X と X 0 があります。したがって、パラメータがどのように変化しても、その本質は依然として直線であるため、適合できるデータは極めて限られています。 ニューロンの数が増えれば、より多くのパラメータを反復処理でき、より多くのデータを適合させることができます。 これがビッグモデルが素晴らしい働きをする理由であり、またビッグモデルと呼ばれる理由でもあります。本質的には、ビッグモデルは膨大な数のニューロンとパラメータ、膨大な量のデータ、そして膨大な量の計算能力から成り立っています。

したがって、 大規模モデルのパフォーマンスは、主にパラメータの数、データの量と品質、計算能力の 3 つの側面によって決まります。これら 3 つの要素が組み合わさって、大規模モデルの結果の品質と一般化能力に影響します。 パラメータの数が p で、データの量が n (トークンの数で計算) であると仮定します。次に、一般的な経験則を使用して必要な計算能力を計算し、購入する必要がある計算能力とトレーニング時間を見積もることができます。

計算能力は一般に Flops で測定され、これは浮動小数点演算を表します。浮動小数点演算は、2.5+ 3.557 など、非整数の加算、減算、乗算、除算の総称です。浮動小数点は小数点を持ち運ぶ能力を表し、FP 16 は小数点をサポートする精度を表し、FP 32 は一般的にもっと一般的な精度です。実際の経験則によると、大規模なモデルを 1 回 (通常は複数回) 事前トレーニングするには約 6 np Flops が必要であり、6 は業界定数と呼ばれます。推論 (データを入力して大規模モデルの出力を待つプロセス) は、n トークンの入力と n トークンの出力の 2 つの部分に分かれているため、合計で約 2 np Flops が必要です。

初期の頃は、トレーニング用の計算能力を提供するために CPU チップが使用されていましたが、その後、Nvidia A100 や H100 チップなどの GPU が徐々に使用されるようになりました。CPU は汎用コンピューティングとして存在しますが、GPU は専用コンピューティングに使用でき、そのエネルギー効率は CPU をはるかに上回っているためです。 GPU は主に Tensor Core と呼ばれるモジュールを通じて浮動小数点演算を実行します。 したがって、一般的なチップには FP16/FP32 精度の Flops データがあり、これがチップの主な計算能力を表し、チップの主な測定指標の 1 つでもあります。

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

Nvidia A100チップの仕様、出典: エヌビディア

したがって、読者はこれらの企業のチップ導入を理解できるはずです。上図に示すように、Nvidias A100 80GB PCIeモデルとSXMモデルの比較では、FP16精度でTensor Core(AI計算専用のモジュール)の下で、PCIeとSXMはそれぞれ312TFLOPSと624TFLOPS(兆フロップス)であることがわかります。

大規模モデルパラメータが GPT 3 を例にとると、1,750 億のパラメータと 1,800 億のトークンのデータ (約 570 GB) があり、事前トレーニングには 6 np の Flops、つまり約 3.15 * 1022 Flops が必要になります。TFLOPS (兆 FLOP) を単位として使用すると、約 3.15 * 1010 TFLOPS となり、SXM チップで GPT 3 を 1 回事前トレーニングするには約 50480769 秒、841346 分、14022 時間、584 日かかります。

これは非常に膨大な計算量であることがわかります。事前トレーニングを実現するには、複数の最先端のチップが連携して動作する必要があります。また、GPT 4のパラメータ数はGPT 3の10倍(1.76兆)であり、データ量が変わらなくても、チップの数を10倍購入する必要があります。さらに、GPT-4のトークン数は13兆で、GPT-3の10倍です。最終的には、GPT-4には100倍以上のチップ計算能力が必要になる可能性があります。

大規模モデルのトレーニングでは、データストレージも問題となります。GPT 3トークンの数などのデータは1800億で、ストレージスペースの約570 GBを占め、大規模モデルの1750億のパラメータを持つニューラルネットワークは約700 GBのストレージスペースを占めます。GPUのメモリスペースは一般的に小さいため(上図で紹介したA100の場合は80 GBなど)、メモリスペースがこれらのデータを収容できない場合は、チップの帯域幅、つまりハードディスクからメモリへのデータ転送速度を調べる必要があります。同時に、1つのチップだけを使用するわけではないため、ジョイントラーニング方式を使用して複数のGPUチップで大規模モデルをジョイントトレーニングする必要があり、これにはチップ間のGPU転送速度が関係します。 したがって、多くの場合、最終的なモデルトレーニングの実践を制限する要因またはコストは、必ずしもチップの計算能力ではなく、多くの場合、チップの帯域幅です。データ転送が遅いため、モデルの実行時間が長くなり、電気代が高くなります。

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

H100 SXMチップ仕様、出典: エヌビディア

ここまでで、チップの仕様を大まかに理解できました。FP 16 は精度を表します。AI LLM のトレーニングでは主に Tensor Core コンポーネントが使用されるため、このコンポーネントの計算能力だけを見ればよいのです。FP 64 Tensor Core は、H 100 SXM が 64 精度で毎秒 67 TFLOPS を処理できることを意味します。GPU メモリは、チップに 64 GB のメモリしかなく、大規模モデルのデータ ストレージ要件を完全に満たすことができないことを意味します。したがって、GPU メモリ帯域幅はデータ転送速度を意味し、H 100 SXM の場合は 3.35 TB/s です。

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

AIバリューチェーン、出典:Nasdaq

データとニューロンパラメータの数の拡大により、コンピューティング能力とストレージ要件に大きなギャップが生じていることがわかりました。これら3つの主な要因により、産業チェーン全体が孵化しました。上の図に基づいて、産業チェーンの各部分の役割と機能を紹介します。

ハードウェア GPU プロバイダー

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

AI GPU チップランキング、出典: ラムダ

GPUなどのハードウェアは、トレーニングと推論のためのメインチップです。Nvidiaは現在、主要なGPUチップ設計者の中で絶対的なリーダー的立場にあります。学術界(主に大学や研究機関)では主に消費者向けGPU(ゲーム用メインGPUであるRTX)を使用し、産業界は主にH100、A100などを使用して大規模モデルの商用化を行っています。

Nvidia のチップがリストの大部分を占めており、すべてのチップは Nvidia 製です。Google にも TPU と呼ばれる独自の AI チップがありますが、TPU は主に Google Cloud によって使用され、B サイドの企業にコンピューティング パワーのサポートを提供しています。自社で購入する企業は、一般的に依然として Nvidia の GPU を購入することを好みます。

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

H 100 GPU 購入統計(企業別)、出典: オムディア

LLMの開発には中国をはじめ多数の企業が取り組んでおり、大型モデルは100以上、全世界で200以上の大型言語モデルがリリースされている。多くのインターネット大手がこのAIブームに参加している。これらの企業は、大型モデルを自ら購入するか、クラウド企業を通じてレンタルしている。2023年、Nvidiaの最先端チップH100は、リリースされるや否や多くの企業が契約した。H100チップの世界的な需要は供給をはるかに上回っており、現在最高級チップを供給しているのはNvidiaのみであり、その納品サイクルは驚異の52週間に達している。

Nvidiaの独占を考慮して、人工知能の絶対的リーダーの1つであるGoogleは、Intel、Qualcomm、Microsoft、AmazonとのCUDAアライアンスの設立を主導し、GPUを共同開発して、ディープラーニング業界チェーンにおけるNvidiaの絶対的な影響力を排除することを望んでいます。

超大手テクノロジー企業/クラウドサービスプロバイダー/国立研究所の場合、HPC(高性能コンピューティングセンター)を構築するために、数千または数万のH100チップを購入することがよくあります。たとえば、Tesla CoreWeaveクラスターは1万個のH100 80 GBチップを購入し、平均購入価格は$4.4万US(Nvidiaのコストは約1/10)、総コストは$4.4億USです。Tencentは5万チップを購入し、Metaは15万チップを購入しました。2023年末現在、高性能GPUの唯一の販売元であるNvidiaは、50万個以上のH100チップを注文しています。

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

Nvidia GPU 製品ロードマップ、出典: テックワイヤー

Nvidiaのチップ供給に関して言えば、上記は同社の製品イテレーションロードマップです。本稿執筆時点では、H200のニュースが発表されています。H200の性能はH100の2倍になると予想されており、B100は2024年後半または2025年初頭に発売される予定です。現在、GPUの開発は依然としてムーアの法則を満たしており、性能は2年ごとに2倍になり、価格は半分になります。

クラウドサービスプロバイダー

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

GPU クラウドの種類、出典: セールスフォース・ベンチャーズ

クラウドサービスプロバイダーは、HPCを構築するのに十分なGPUを購入した後、資金が限られているAI企業に柔軟なコンピューティングパワーと管理されたトレーニングソリューションを提供できます。 上図に示すように、現在の市場は主に3つのカテゴリのクラウドコンピューティングプロバイダーに分かれています。 最初のカテゴリは、従来のクラウドベンダー(AWS、Google、Azure)に代表される超大規模クラウドコンピューティングプラットフォームです。 2番目のカテゴリは、主にAIまたは高性能コンピューティング向けに展開される垂直クラウドコンピューティングプラットフォームです。 より専門的なサービスを提供するため、大手との競争の中でまだ一定の市場スペースがあります。 このような新興の垂直産業クラウドサービス企業には、CoreWeave(Cラウンドで$11億米ドルの資金調達、評価額$19億米ドル)、Crusoe、Lambda(Cラウンドで$2.6億米ドルの資金調達、評価額$15億米ドル以上)などがあります。 3番目のタイプのクラウドサービスプロバイダーは、主に推論サービスプロバイダーである新興の市場プレーヤーです。これらのサービスプロバイダーは、クラウドサービスプロバイダーからGPUをレンタルします。このタイプのサービスプロバイダーは、主に顧客向けに事前トレーニング済みのモデルを展開し、微調整や推論を実行します。この市場の代表的な企業には、Together.ai(最新の評価額は$12.5億米ドル)、Fireworks.ai(Benchmarkが主導、シリーズAの資金調達で$25百万米ドル)などがあります。

トレーニングデータソース プロバイダー

第 2 章の前半で述べたように、大規模モデルのトレーニングは主に事前トレーニング、微調整、強化学習の 3 つのステップを経ます。事前トレーニングには大量のデータが必要であり、微調整には高品質のデータが必要です。そのため、Google などの検索エンジン (大量のデータを持つ) や Reddit などのデータ企業 (高品質の対話データを持つ) は、市場から広く注目を集めています。

GPTなどの汎用的な大規模モデルとの競合を避けるため、一部の開発者はニッチな分野で開発を選択するため、金融、医学、化学、物理学、生物学、画像認識など、データ要件は業界固有になります。これらは特定分野向けのモデルであり、特定分野のデータを必要とするため、これらの大規模モデルにデータを提供する企業が存在します。収集したデータをラベル付けし、より高品質で特定のデータタイプを提供するという意味で、データラベリング企業とも呼ばれます。

モデル開発に携わる企業にとって、大量のデータ、高品質のデータ、特定のデータの 3 つが主なデータ要件です。

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

主要なデータラベリング会社、出典: ベンチャーレーダー

マイクロソフトの調査によると、SLM(小規模言語モデル)の場合、データ品質が大規模言語モデルよりも大幅に優れている場合、パフォーマンスがLLMよりも劣るとは限りません。実際、GPTは独創性とデータにおいて明確な優位性を持っていません。その成功は主に、この方向に賭ける勇気によるものです。セコイア・キャピタルはまた、GPTが現時点でこの点で深い堀を持っていないため、将来的に競争上の優位性を維持できない可能性があることを認めており、主な制限はコンピューティングパワーの獲得の制限から来ています。

データ量に関して言えば、EpochAIの予測によれば、現在のモデル規模の成長に基づくと、低品質と高品質のデータはすべて2030年に枯渇するだろう。そのため、業界は現在、無制限のデータを生成するために人工知能合成データを模索している。そうなると、ボトルネックとなるのは計算能力だけになる。この方向はまだ探索段階にあり、開発者の注目に値する。

データベースプロバイダー

データは存在しますが、通常はデータベースに保存する必要があります。データベースに保存することで、データの追加、削除、変更、クエリが簡単になります。従来のインターネット ビジネスでは、MySQL について聞いたことがあるかもしれません。また、Ethereum クライアント Reth では、Redis について聞いたことがあるでしょう。これらは、ビジネス データやブロックチェーン データを保存するローカル データベースです。さまざまなデータ タイプやビジネスには、さまざまなデータベースが適応されます。

AI データやディープラーニングのトレーニングおよび推論タスクの場合、現在業界で使用されているデータベースはベクター データベースと呼ばれます。ベクター データベースは、大量の高次元ベクター データを効率的に保存、管理、およびインデックス付けするように設計されています。データは単なる数値やテキストではなく、画像や音声などの大量の非構造化データであるため、ベクター データベースはこれらの非構造化データをベクトルの統一された形式で保存でき、ベクター データベースはこれらのベクトルの保存と処理に適しています。

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

ベクターデータベース分類、出典: 呉英俊

現在、主なプレーヤーには、Chroma($1800万の資金調達を獲得)、Zilliz(最新の資金調達ラウンドで$6000万を獲得)、Pinecone、Weaviateなどがあります。データ量の需要の増加と、さまざまなセグメントでの大規模なモデルとアプリケーションの出現により、Vector Databaseの需要が大幅に増加すると予想されます。また、この分野には強力な技術的障壁があるため、投資する際には、顧客を持つ成熟した企業を検討する傾向があります。

エッジデバイス

GPU HPC (高性能コンピューティング クラスター) をセットアップすると、通常、大量のエネルギーが消費され、大量の熱エネルギーが発生します。高温環境では、チップは温度を下げるために動作速度を制限します。これは一般にスロットリングと呼ばれています。HPC の継続的な動作を確保するには、いくつかの冷却エッジ デバイスが必要です。

したがって、ここでは、エネルギー供給(通常は電気を使用)と冷却システムという 2 つの方向の産業チェーンが関係しています。

現在、エネルギー供給側は主に電力を使用しており、データセンターとサポートネットワークは現在、世界の電力消費量の2%〜3%を占めています。BCGは、大規模なディープラーニングモデルのパラメータの増加とチップの反復により、大規模モデルのトレーニングに必要な電力は2030年までに3倍に増加すると予測しています。現在、国内外のテクノロジー企業はエネルギー企業に積極的に投資しており、投資の主なエネルギー方向は地熱エネルギー、水素エネルギー、バッテリーストレージ、原子力エネルギーなどです。

HPC クラスターの放熱に関しては、現在は空冷が主な方法ですが、多くの VC は HPC のスムーズな動作を維持するために液体冷却システムに多額の投資を行っています。たとえば、Jetcool は、同社の液体冷却システムにより、H100 クラスターの総消費電力を 15% 削減できると主張しています。現在、液体冷却は主に、コールドプレート液体冷却、浸漬液体冷却、スプレー液体冷却の 3 つの探索方向に分かれています。この分野の企業には、Huawei、Green Revolution Cooling、SGI などがあります。

応用

現在のAIアプリケーションの発展は、ブロックチェーン業界の発展と似ています。革新的な業界として、2017年にTransformerが提案され、2023年にOpenAIが大規模モデルの有効性を確認しました。そのため、現在、多くのFomo企業が大規模モデルの研究開発トラックに混雑しており、つまり、インフラストラクチャは非常に混雑していますが、アプリケーションの開発が追いついていません。

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

月間アクティブユーザー上位50人、出典: A16Z

現在、最初の10か月間に活躍したAIアプリのほとんどは検索型のアプリです。実際に出てきたAIアプリの数はまだ非常に限られており、アプリの種類も比較的単一です。ソーシャルやその他のタイプのアプリで成功しているものはありません。

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

また、大規模モデルに基づくAIアプリケーションの保持率は、既存の従来のインターネットアプリケーションよりもはるかに低いことがわかりました。アクティブユーザー数で見ると、従来のインターネットソフトウェアの平均は51%で、ユーザーの粘着性が強いWhatsappが最も高くなっています。しかし、AIアプリケーション側では、character.aiのDAU / MAUが41%に過ぎず、DAUは総ユーザー数の中央値の14%を占めています。ユーザー保持率で見ると、従来のインターネットソフトウェアの中で最も優れているのはYoutube、Instagram、Tiktokで、上位10位の平均保持率は63%です。比較すると、ChatGPTの保持率はわずか56%です。

Gate Ventures: AI x 暗号通貨初心者からマスターまで (パート 1)

AI アプリケーションの状況、出典: セコイア

Sequoia Capital USA のレポートによると、アプリケーションは、対象とする役割に基づいて、プロフェッショナル消費者、企業、一般消費者の 3 つのカテゴリに分類されます。

1. 消費者向け: 一般的には、テキストワーカーが GPT を使用して質疑応答を行う、3D レンダリング モデリングを自動化する、ソフトウェア編集、エージェントを自動化する、音声会話、交際、語学練習などに音声タイプのアプリケーションを使用するなど、生産性を向上させるために使用されます。

2. 企業向け: 通常はマーケティング、法律、医療デザインなどの業界。

現在、多くの人がインフラはアプリケーションよりはるかに大きいと批判していますが、私たちは実際に現代の世界が人工知能技術によって広く作り変えられたと信じています。ByteDanceのTiktok、Toutiao、Soda Musicなどを含む推奨システムが使用されているだけでなく、XiaohongshuとWeChatビデオアカウント、広告推奨技術など、個人向けのカスタマイズされた推奨事項はすべて機械学習アルゴリズムに属しています。したがって、現在活況を呈しているディープラーニングはAI業界を完全に代表しているわけではありません。汎用人工知能を実現する機会を持つ多くの潜在的な技術も並行して開発されており、これらの技術の一部はさまざまな業界で広く使用されています。

では、仮想通貨とAIはどのような関係を築いてきたのでしょうか?仮想通貨業界のバリューチェーンで注目すべきプロジェクトは何でしょうか? Gate Ventures「AI x 仮想通貨 初心者から達人まで(後編)」では、それらを一つずつ解説していきます。

免責事項:

上記の内容は参考目的のみであり、いかなるアドバイスとしてもみなされるべきではありません。投資を行う前に必ず専門家のアドバイスを求めてください。

ゲートベンチャーズについて

ゲートベンチャーズ は、Gate.io のベンチャー キャピタル部門であり、Web 3.0 時代の世界を再形成する分散型インフラストラクチャ、エコシステム、アプリケーションへの投資に重点を置いています。 ゲートベンチャーズ 世界的な業界リーダーと連携し、革新的な思考と能力を備えたチームやスタートアップを支援し、社会的および金融的なインタラクション モデルを再定義します。

公式ウェブサイト: https://ventures.gate.io/

ツイッター: https://x.com/gate_ventures

中くらい: https://medium.com/gate_ventures

この記事はインターネットから引用したものです: Gate Ventures: AI x Crypto 初心者からマスターまで (パート 1)

関連: ArtexSwap の Dex の別のアーキテクチャ

ArtexSwap は、Artela EVM++ と Aspect テクノロジーを使用して MEV リスクと Rug Pull 問題を解決し、トランザクションのセキュリティと効率を向上させ、高いセキュリティと柔軟性が求められる分散型取引シナリオに適した分散型取引所です。Ethereum の誕生以来、デジタル通貨、グローバル決済、アプリケーションの技術的な拠点となっています。DEX は分散型金融 (DeFi) の礎です。結局のところ、DEX がなければ、DeFi は単なる空論に過ぎません。ブロックチェーン上で実行されるプラットフォームとして、ユーザー間の直接取引を実行し、第三者機関によって規制されていないため、より高度な金融商品を作成できます。1. Dex の主流アーキテクチャ現在、DEX は Ethereum エコシステムで盛んに行われています。DEX にはさまざまな設計パターンがあり、それぞれが…

© 版权声明

相关文章