Baiduがia kunlunチップ開発を完了し、最大260のトップを獲得
目次:
Baiduは、AI(人工知能)アクセラレータの混雑した空間に入り込んでいます。 同社は、150Wで最大260 TOPSを提供するKunlunチップの開発が完了したことを発表しました。 チップは、サムスンの14nmプロセスで来年初めに生産に入り、HBMの2.5Dパッケージを含みます。
AI計算で150Wで最大260 TOPSを提供するBaidu Kunlun
Kunlunは、Baiduのニューラルネットワークプロセッサ用XPUアーキテクチャに基づいています。 このチップは150Wで260 TOPSに対応し、 512GB /秒の帯域幅を備えています。 Baiduによれば、このチップはクラウドコンピューティングと科学を対象としているが、同社はエッジバリアントの仕様を提供していなかった(通常、TDPははるかに低いため)。
Baiduは、自然言語処理モデルでは、Kunlunは従来の (指定されていない)FPGA / GPUシステムよりも推論が3倍高速であると主張していますが、他のさまざまなAIワークロードもサポートしていると述べていますそれは、チップがトレーニングのためにも可能であるか、または意図されているかどうかを示しています。
SamsungはBaidu用のチップを製造します 。これは、来年初めにI-Cubeインターポーザーに基づく14nm 2.5Dプロセスで生産され、32GBのHBM2メモリを統合する予定です。
市場で最高のプロセッサーに関するガイドをご覧ください
サムスン電子の製造マーケティング担当バイスプレジデント、ライアン・リー氏によれば、サムスンにとって、このチップは同社が製造業をデータセンターアプリケーションに拡大するのに役立ちます。
Kidlunで、Baiduは、 GoogleのTPU、QualcommのCloud 100、NvidiaのT4、IntelのNervana NNP-Iとその最近のデータを含むリストに、 データセンターのAI推論チップを備えた多くの企業に加わりますハバナゴヤの買収。 エッジでは、Huawei、Intel、Nvidia、Apple、Qualcomm、Samsungなどの企業が、個別または統合されたニューラルネットワークアクセラレータを使用しています。