Nnp、dlboost、keem bay、IAおよびニューラルネットワーク用の新しいIntelチップ
目次:
- NNP、DLBoostおよびKeem Bay、AIおよびニューラルネットワーク用の新しいIntelチップ
- プロセッサー:DLBoost
- Movidius:キームベイVPU
- Nervanaニューラルネットワークプロセッサ(NNP)
Intelは、11月12日 、マスマーケット、 NNP、DLBoost、キームベイから離れたAIサミットイベントで、新しい専用ハードウェアを発表しました 。 これらの製品は、2016年後半にMovidiusとNervanaを買収してから3年以上の成果の集大成であり、Nervanaの共同創設者であるNaveen Raoが率いるAI Products Groupの設立です。
NNP、DLBoostおよびKeem Bay、AIおよびニューラルネットワーク用の新しいIntelチップ
Raoは、IntelはすでにAI分野で大きな役割を果たしており、2019年のAIの収益は 、2017年の10億ドルを超える35億ドルを超えると述べています。 OpenVINOのフロントは、IOt、Agilex FPGA、PC上のIce Lake、Cascade LakeのDLBoost、さらには将来のディスクリートグラフィックス向けです。
プロセッサー:DLBoost
インテルはクーパーレイク56コアでbfloat16との互換性を実証しました 。これは、プロセッサーに搭載されたDLBoostのAI機能の一部として来年リリースされる予定です 。 Bfloat16は、AIトレーニングで単精度浮動小数点(FP32)と同様の精度を実現する数値形式です。
Intelはパフォーマンスの改善の見積もりを提供しませんでしたが、推論の目的で、クーパーレイクはSkylake-SPより30倍速いと述べました。 PC側では、Ice LakeはCascade Lakeにあるものと同じDLBoost AVX-512_VNNI命令を組み込んでいます。
Movidius:キームベイVPU
スマートカメラ、ロボット、ドローン、VR / ARなどの人工知能に対する戦略の一環として、インテルは2016年にMovidiusを買収しました 。 Movidiusは、その低電力チップを「ビジョンプロセッシングユニット」(VPU)と呼んでいます。 これらは、SHAVEコアと呼ばれる画像信号処理(ISP)機能、ハードウェアアクセラレーター、MIPSプロセッサー、および128ビットのプログラマブルベクトルプロセッサー(VLIW)を備えています。
市場で最高のプロセッサーに関するガイドをご覧ください
IntelはコードネームKeem Bayと呼ばれる「Gen 3」Intel Movidius VPUの詳細を発表しました 。 Intelによると、推論パフォーマンスはMyriad Xの10倍以上あり、同じ量のエネルギーを消費します。
Nervanaニューラルネットワークプロセッサ(NNP)
インテルには、トレーニングとディープニューラルネットワーク推論の両方に対応するNNPがあります。 Intelの推論用NNP-Iは、2つのIce Lake Sunny Coveコアと12のICEアクセラレーターコアに基づいています。 Intelは、ワットあたりの優れたパフォーマンスとコンピューティング密度を実現すると主張しています。 M.2フォームファクターでは、12Wで50 TOPSに対応します。これは、以前に発表されたように、4.8TOPS / Wに相当します。 Intelは、PCIeカードのフォームファクターが75Wを消費し、最大170 TOPS(INT8精度)を生成することを明らかにしました。
Intelは、Nvidiaの73%に対して、32枚のカードでは95%という高い線形に近いスケーリング効率を繰り返した。
Intelは、今年100億ドルと推定される収益を生み出した市場で、AI、5G、ニューラルネットワーク、自動運転など、あらゆる分野に対応する幅広いチップを用意しています。 お知らせします。
Tomshardwareフォント