アンドロイド

Nvidia【すべての情報】

目次:

Anonim

Nvidia Corporation (より一般的にはNvidiaとして知られています)は、デラウェア州に設立され、カリフォルニア州サンタクララに拠点を置くアメリカのテクノロジー企業です。 Nvidia は、ビデオゲームおよびプロフェッショナルマーケット向けのグラフィックスプロセッシングユニット、ならびに自動車およびモバイルコンピューティングマーケット向けのチップユニット (SoC)システムを設計しています。 そのコア製品ラインであるGeForceは、AMDのRadeon製品と直接競合しています。

最高の PCハードウェアおよびコンポーネントガイドを読むことをお勧めします

Nvidiaは GPUの製造に加えて、 世界中の研究者や科学者並列処理機能を提供し 、高性能アプリケーションを効率的に実行できるようにします。 最近では、モバイルコンピューティング市場に移行し、ビデオゲームコンソール、タブレット、自律航法および車両エンターテイメントシステム向けのTegraモバイルプロセッサを製造しています。 これにより、 Nvidiaは2014年以降、 ゲーム、プロフェッショナルビジュアライゼーション、データセンター、人工知能および自動車の4つの市場に注力する企業になりました。

コンテンツインデックス

NVIDIAの歴史

NVIDIAは、1993年にJen-Hsun Huang、Chris Malachowsky、およびCurtis Priemによって設立されました。 同社の3人の共同創設者は、このコンピューティングモデルでは汎用コンピューティングでは解決できない問題を解決できると信じて、コンピューティングの正しい方向はグラフィックアクセラレーション処理を通過すると仮定しました。 彼らはまた、ビデオゲームは計算上最も困難な問題の一部であり、売り上げが信じられないほど多いことを指摘しました

小さなビデオゲーム会社から人工知能の巨人へ

同社は40, 000ドルの初期資本で生まれ、当初は名前がなく、共同創設者は「次のリリース」のように、すべてのNVファイルに名前を付けました。 会社を組み込む必要性により、共同創設者はこれら2つの文字を含むすべての単語を確認し 、ラテン語の「envy」を意味する「invidia」に導きました

1998年RIVA TNTの発売により、 グラフィックアダプターの開発に対するNvidiaの評判が強化されました 。 1999年後半、NvidiaはGeForce 256(NV10)をリリースしました。これは、特に3Dハードウェアで消費者レベルの変換と照明(T&L)を導入しました。 120 MHzで動作し、4行のピクセルを備え、高度なビデオアクセラレーション、動き補償、およびハードウェアサブイメージブレンディングを実装しました。 GeForceは既存の製品を大幅に上回っています。

その製品の成功により、 NvidiaはMicrosoftのXboxゲームコンソール用のグラフィックハードウェアを開発する契約を獲得しNvidiaに2億ドルの利益をもたらしました。 ただし、このプロジェクトでは、他のプロジェクトから優秀なエンジニアの多くを採用しました。 短期的にはこれは問題ではなく、GeForce2 GTSは2000 の夏に出荷されました。2000 年12月、Nvidiaは 、消費者向けの3Dグラフィックテクノロジーのパイオニアである唯一のライバル3dfxの知的資産を取得することで合意に達しました 。 1990年代半ばから2000年までこの分野を率いていた。買収プロセスは2002年4月に終了した。

2002年7月、Nvidiaは非公開の金額でExlunaを買収しました。 Exlunaは、さまざまなソフトウェアレンダリングツールの作成を担当しました 。 その後、2003年8月に、NvidiaはMediaQを約7, 000万ドルで買収しました。 また、2004年4月22日に、高性能TCP / IPおよびiSCSIオフロードソリューションのプロバイダーであるiReadyも買収しました。

ビデオゲーム市場でのNvidiaの成功は非常に大きかったため、 2004年12月 、日本企業の新世代ビデオゲームコンソールであるPlayStation 3 RSXグラフィックプロセッサの設計でソニーを支援することが発表されました。その前任者の成功、つまり史上最高の販売を繰り返すという困難な仕事がありました。

2006年12月、Nvidiaは米国司法省から引用を受けました。 グラフィックカード業界での独占禁止法違反の可能性について 。 当時、AMDはATIを買収した後、その大きなライバルになりました。 それ以来、AMDとNvidiaは、Intelの統合チップを忘れていない、ビデオゲームグラフィックスカードの唯一のメーカーとなっています。

フォーブスは、過去5年間に達成した業績を挙げて、Nvidiaを2007年の年間最優秀企業に指名しました 。 2007年1月5日、NvidiaはPortalPlayer、Incの買収を完了したことを発表し、 2008年2月、NvidiaはPhysX物理エンジンとこのエンジンを実行する物理処理ユニットの開発者であるAgeiaを買収しました 。 Nvidiaは、PhysXテクノロジーを将来のGeForce GPU製品に統合する計画を発表しました。

Nvidiaが2008年7月に大きな困難に直面したのは、同社が製造した特定のモバイルチップセットとモバイルGPUに製造上の欠陥が原因で異常な故障率があったと報告された後、収益が約2億ドル減少したためです 。 2008年9月、Nvidiaは影響を受けた人々による集団訴訟の対象となり、欠陥のあるGPUがApple、Dell、およびHPが製造したノートブックの特定のモデルに組み込まれたと主張しました。 石けんオペラは2010年9月に終了し、Nvidiaは影響を受けたラップトップの所有者に修理または場合によっては製品交換の費用を払い戻すことで合意しました。

2011年11月、Nvidiaはモバイルワールドコングレスで最初に発表したモバイルデバイス用のARG Tegra 3チップシステムをリリースしました 。 Nvidiaは、このチップが最初のクアッドコアモバイルCPUを搭載していると主張しました。 2013年1月、NvidiaはTegra 4と 、新しいプロセッサーを搭載したAndroidベースのポータブルゲームコンソールであるNvidia Shieldを発表しました。

2016年5月6日、NvidiaはGeForce GTX 1080および1070グラフィックスカードを発表しました。これは、新しいPascalマイクロアーキテクチャに最初に基づいたものです。 Nvidiaは、両方のモデルがMaxwellベースのTitan Xモデルよりも優れていると主張しました。 これらのカードはそれぞれGDDR5XおよびGDDR5メモリを組み込み、16nm製造プロセスを使用します。 Pascalアーキテクチャは、同時マルチプロジェクション(SMP)と呼ばれる新しいハードウェア機能もサポートします。これは 、マルチモニターおよび仮想現実レンダリングの品質を向上させるように設計されています 。 Pascalは、NvidiaのMax-Q設計基準を満たすラップトップの製造を可能にしました。

2017年5月、Nvidiaはトヨタ自動車との提携を発表し、トヨタ自動車はその自律車両にNvidiaのDrive Xシリーズ人工知能プラットフォーム使用する予定です。 2017年7月、Nvidiaと中国の検索大手Baidu、Inc.は、クラウドコンピューティング、自動運転、コンシューマーデバイス、BaiduのAIフレームワークであるPaddlePaddleを含む強力なAIパートナーシップを発表しました。

ゲームを支配するNvidia GeForceとNvidia Pascal

GeForceは、Nvidiaが1999年に作成したグラフィックスプロセッシングユニット(GPU)に基づくグラフィックスカードのブランド名です 。 現在までに、GeForceシリーズは創業以来16世代に渡って知られています。 これらのカードのプロユーザー向けのバージョンはQuadroという名前で、ドライバーレベルでいくつかの差別化機能を備えています。 GeForceの直接の競争は、Radeonカードを搭載したAMDです。

Pascalは、以前のMaxwellアーキテクチャの後継としてビデオゲーム市場に参入したNvidia開発した最新のGPUマイクロアーキテクチャのコード名です 。 Pascalアーキテクチャは、2016年4月5日にサーバー向けのTesla P100を発表した2016年4月初めて導入されました 。現在、Pascalは主にGeForce 10シリーズで使用されており、GeForce GTX 1080およびGTX最初の1070ビデオゲームカードは、このアーキテクチャで、それぞれ2016年5月17日と2016年6月10日にリリースされました。 PascalはTSMCの16 nm FinFETプロセスを使用して製造されているため、 28 nm FinFETで製造されたMaxwellに比べてはるかに優れたエネルギー効率とパフォーマンスを提供できます。

Pascalアーキテクチャは、ストリーミングマルチプロセッサ( SM) と呼ばれる内部で構成されています機能ユニットは64のCUDAコアで構成され、32のCUDAコアの2つの処理ブロックに分割されます。そのうち、命令バッファ、ワーププランナー、2つのテクスチャマッピングユニット、2つのディスパッチユニットが付属しています。 これらのSMドライブは、AMDのCUに相当します。

NvidiaのPascalアーキテクチャは、ゲームの世界で最も効率的で高度なものになるように設計されています 。 Nvidiaのエンジニアリングチームは、非常に高いクロック速度が可能でありながら、タイトな電力消費を維持できるGPUアーキテクチャの作成に多大な努力を注いできました。 これを達成するために、すべての回路で非常に注意深く最適化された設計が選択されているため、 PascalはMaxwellよりも40%高い周波数に到達できます。設計レベルでのすべての最適化なしのnm。

メモリはグラフィックスカードのパフォーマンスの重要な要素であり、GDDR5テクノロジは2009年に発表されたため、今日の最も強力なグラフィックスカードではすでに時代遅れになっています。 これが、 PascalがGDDR5Xメモリをサポートする理由です。GDDR5Xは、これらのグラフィックスカードの発売時点で史上最速かつ最先端のメモリインターフェイス標準であり、最大10 Gbpsまたはビット間でほぼ100ピコ秒の転送速度に達しています。データの。 GDDR5Xメモリは、動作電圧が1.5Vと比較して1.35Vであるので、GDDR5に比べてグラフィックスカードの消費電力が少なく、高速のGDDR5チップが必要とする電力よりも多くなります。 この電圧の低下は、同じ消費電力で43%高い動作周波数に変換されます。

Pascalのもう1つの重要な革新は、パフォーマンスを損なうことなくメモリを圧縮する技術であり、GPUによる帯域幅の需要を減らします。 Pascalには、第4世代のデルタカラー圧縮テクノロジーが含まれています。 デルタカラー圧縮では、GPUはシーンを分析して、シーンの品質を犠牲にすることなく情報を圧縮できるピクセルを計算します。 Maxwellアーキテクチャは、Project Carsゲームの植生や車のパーツなどの一部の要素に関連するデータを圧縮できませんでしたが、 Pascalはこれらの要素に関するほとんどの情報を圧縮できるため、よりもはるかに効率的です。マクスウェル。 その結果、Pascalはメモリから抽出する必要があるバイト数を大幅に減らすことができます。 このバイト数の削減により、有効帯域幅がさらに20%増加し、GDDR5およびMaxwellアーキテクチャと比較して、GDDR5Xメモリを使用すると帯域幅が1.7倍に増加します。

Pascalはまた、 非同期コンピューティングに関して重要な改善を提供します。現在、ワークロードは非常に複雑であるため、非常に重要なものです。 これらの改善のおかげで、 Pascalアーキテクチャは、すべての異なるSMユニット間で負荷を分散する際により効率的です。つまり、未使用のCUDAコアはほとんどありません。 これにより、GPUの最適化を大幅に向上させ、GPUが持つすべてのリソースをより有効に活用できます。

次の表は、PascalベースのすべてのGeForceカードの最も重要な機能をまとめたものです。

NVIDIA GEFORCE PASCALグラフィックカード

CUDAコア 周波数(MHz) 記憶 メモリインターフェース メモリ帯域幅(GB /秒) TDP(W)
NVIDIA GeForce GT1030 384 1468年 2 GB GDDR5 64ビット 48 30
NVIDIA GeForce GTX1050 640 1455年 2 GB GDDR5 128ビット 112 75
NVIDIA GeForce GTX1050Ti 768 1392 4 GB GDDR5 128ビット 112 75
NVIDIA GeForce GTX1060 3 GB 1152 1506/1708 3 GB GDDR5 192ビット 192 120
NVIDIA GeForce GTX1060 6 GB 1280 1506/1708 6 GB GDDR5 192ビット 192 120
NVIDIA GeForce GTX1070 1920年 1506/1683 8 GB GDDR5 256ビット 256 150
NVIDIA GeForce GTX1070Ti 2432 1607/1683 8 GB GDDR5 256ビット 256 180
NVIDIA GeForce GTX1080 2560 1607/1733 8 GB GDDR5X 256ビット 320 180
NVIDIA GeForce GTX1080 Ti 3584 1480/1582 11 GB GDDR5X 352ビット 484 250
NVIDIA GeForce GTX Titan Xp 3840 1582年 12 GB GDDR5X 384ビット 547 250

人工知能とVoltaアーキテクチャ

NvidiaのGPUは、ディープラーニング、人工知能、および大量のデータの加速分析の分野で広く使用されています。 同社は 、人工知能を使用して癌の検出、天気予報、有名なテスラなどの自動運転車などの問題に取り組むために、 GPUテクノロジー基づくディープラーニングを開発しました

Nvidiaの目標は、ネットワークが「考えることを学ぶのを助けることです 。 NvidiaのGPUは、並列計算向けに設計されているため、ディープラーニングタスクに非常によく機能し、ディープラーニングで一般的なベクトルおよび行列演算を適切に処理します。 同社のGPUは、研究者、研究所、テクノロジー企業、および企業で使用されています。 2009年、Nvidiaはディープラーニングのビッグバンと呼ばれるものに参加しました。ディープラーニングニューラルネットワークが同社のグラフィックス処理ユニットと組み合わされたためです。 同じ年、Google BrainはNvidiaのGPUを使用して機械学習が可能なディープニューラルネットワークを作成しました。AndrewNgは、ディープラーニングシステムの速度を100倍向上できると判断しました。

2016年4月、Nvidiaは8 GPUクラスターベースのDGX-1スーパーコンピューター導入し、 GPUと特別に設計されたソフトウェアを組み合わせることで、ディープラーニングを使用するユーザーの能力を強化しました。 Nvidiaは、GPUベースのNvidia Tesla K80およびP100仮想マシンも開発しました。GoogleCloudは、Googleが2016年11月にインストールしたものです。Microsoftは、NシリーズのプレビューにNvidiaのGPUテクノロジーに基づくサーバーを追加しました。 Tesla K80カードに基づいています。 また、NvidiaはIBMと提携して、GPUのAI機能を向上させるソフトウェアキットを作成しました。 2017年、NvidiaのGPUは、富士通の高度なインテリジェンスプロジェクトの理研センターでもオンラインになりました。

2018年5月、Nvidi aの人工知能部門の研究者たちは 、同じ仕事をしている人を観察するだけでロボットが仕事を学ぶことができる可能性に気づきました これを実現するために、彼らは簡単なレビューとテストの後、次世代のユニバーサルロボットを制御するために使用できるシステムを作成しました。

Voltaは、Nvidiaが開発した最先端のGPUマイクロアーキテクチャーのコード名です 。これは、Pascalの後継アーキテクチャーであり、2013年3月にロードマップの将来の目標の一部として発表されました。アーキテクチャーは、Alessandro Voltaにちなんで名付けられました 、電池の物理学者、化学者および発明者。 Voltaアーキテクチャは、ゲームセクターには到達していませんが、Nvidia Titan Vグラフィックスカードでは、消費者セクターに重点を置いており、ゲーム機器にも使用できます。

このNvidia Titan Vは、GV100コアベースのグラフィックスカードと3つのHBM2メモリスタックで、すべて1つのパッケージに収められています 。 このカードには、3072ビットのメモリインターフェイスを介して動作する合計12 GBのHBM2メモリがあります。 そのGPUには、 2100万を超えるトランジスタ、5, 120のCUDAコア、および640のTensorコアが含まれており、ディープラーニングで110 TeraFLOPSのパフォーマンスを実現します。 その動作周波数は、ベースが1200 MHz、ターボモードで1455 MHzで、メモリは850 MHzで動作し、652.8 GB /秒の帯域幅を提供します。 メモリを最大32GBに増やすCEO Editionバージョンが最近発表されました。

NvidiaがVoltaアーキテクチャで製造した最初のグラフィックスカードは、Nvidia DGX-1システムの一部であるTesla V100でした 。 Tesla V100は、2017年6月21日にリリースされGV100コアを使用します。 Volta GV100 GPUは12 nm FinFET製造プロセス構築され、32 GBのHBM2メモリが最大900 GB /秒の帯域幅を提供できます。

Voltaは、2016年9月28日に発表されたXavierと呼ばれる最新のNvidia Tegra SoCも実現しています。 DLA(Deep Learning Accelerator)と呼ばれるオープンソース(Tensor Processing Unit)。 Xavierは、8KウルトラHD解像度(7680×4320ピクセル)でビデオをリアルタイムでエンコードおよびデコードできます。12の製造プロセスにより、TDPはすべて20〜30ワット、ダイサイズは約300 mm2と推定されています。 nm FinFET。

Voltaアーキテクチャ 、通常のCUDAコアと比較してディープラーニングタスクではるかに優れたパフォーマンスを提供するように特別に設計されたTensor Coreを最初に組み込んだことを特徴としています。 Tensorコアは、2つのFP16 4×4行列を乗算し、3番目のFP16またはFP32行列を結果に追加し、マージされた加算および乗算演算を使用して、オプションでFP16結果にダウングレードできるFP32結果を取得するユニットです。 テンソル核は、ニューラルネットワークのトレーニングを加速することを目的としています。

Voltaは、 Nvidiaが開発した短距離半導体通信用の有線ベースの通信プロトコルある高度な独自仕様のNVLinkインターフェースを含むことでも際立っており、データコードの転送やプロセッサシステムの制御に使用できます。 CPUとGPU、およびGPUのみに基づくもの。 NVLinkは、最初のバージョンと2番目のバージョンで、 データレーンごとおよびアドレスごとに20および25 Gb /秒のデータレートでポイントツーポイント接続を指定します。 実際のシステムの合計データレートは、入力データストリームと出力データストリームの合計に対して160および300 GB /秒です。 これまでに導入されたNVLink製品は、高性能アプリケーションスペースに焦点を当てています。 NVLINKは2014年3月に最初に発表され、Nvidiaが開発および開発した独自の高速信号相互接続を使用しています。

次の表は、Voltaベースのカードの最も重要な機能をまとめたものです。

NVIDIA VOLTAグラフィックカード

CUDAコア コアテンソル 周波数(MHz) 記憶 メモリインターフェース メモリ帯域幅(GB /秒)

TDP(W)

テスラV100 5120 640 1465年 32 GB HBM2 4, 096ビット 900 250
GeForce Titan V 5120 640 1200/1455 12 GB HBM2 3, 072ビット 652 250
GeForce Titan V CEOエディション 5120 640 1200/1455 32 GB HBM2 4, 096ビット 900 250

Nvidiaの未来はTuringとAmpereを通過します

これまでに出てきたすべての噂によると、2つの将来のNvidiaアーキテクチャはTuringとAmpereになります。この投稿を読んだときに、そのうちの1つがすでに公式に発表されている可能性があります。 今のところ、これらの2つのアーキテクチャについては何もはっきりしていませんが、チューリングはゲーム市場向けのVoltaの簡易バージョンであると言われていますが、実際には同じ製造プロセスで12 nmに到達すると予想されています。

アンペレは、チューリングの後継アーキテクチャのように聞こえますが、人工知能セクターの後継者でもある可能性があります。 7 nmで製造された状態で届くと予想するのは当然のようですが、これについては何もわかっていません。 噂によると、Nvidiaは新しいGeForceカードを8月の次の月にGamecomで発表する予定であり、実際に登場した場合にのみ、チューリングまたはアンペアがどうなるかについて疑問を残すことになります。

NVIDIA G-Sync、画像同期の問題の終了

G-SyncNvidiaによって開発され独自の適応同期テクノロジーであり 、その主な目的は画面のティアリングとVsyncのようなソフトウェア形式の代替の必要性を排除することです。 G-Sync は、出力デバイスが画面に適応するのではなく、出力デバイス 、グラフィックスカードのフレームレートに適応するように強制することにより、画面のティアリングを排除し 、画像のティアインを引き起こします。画面。

モニターがG-Sync互換であるためには、 Nvidiaから販売されているハードウェアモジュールが含まれている必要があります。 AMD(Advanced Micro Devices)は、G-Syncと同じ機能を持つが特定のハードウェアを必要としないFreeSyncと呼ばれるディスプレイ用の同様のテクノロジーをリリースしました。

Nvidiaは、画面に複製を描画している間に新しいフレームの準備ができる可能性を回避する特別な関数を作成しました。遅延や途切れを生成する可能性があるもので、モジュールは更新を予測し、次のフレームが完了するのを待ちます。 修正されていない更新シナリオでは、ピクセルの過負荷も誤解を招くようになり、ソリューションは次の更新がいつ行われるかを予測するため、ゴーストを回避するために各パネルオーバードライブ値を実装して調整する必要があります。

このモジュールは、156Kロジックエレメント、396 DSPブロック、67 LVDSチャネルを備えたアルテラArria V GXファミリFPGAに基づいています。 これはTSMC 28LPプロセスで製造され、3つのチップと組み合わせて合計768 MBのDDR3L DRAMを備え、特定の帯域幅を実現します。 使用されているFPGAは、モニターパネルを制御するためのLVDSインターフェイスも備えています。 このモジュールは、一般的なクライマーに取って代わるものであり、電源回路基板と入力接続のみを処理する必要があるモニターメーカーによって簡単に統合できるように設計されています。

G-Syncは、その独自の性質と、 DisplayPort 1.2aのオプション機能であるVESA Adaptive-Sync標準などの無料の代替手段が存在する場合でも引き続き推奨されるという事実のために、いくつかの批判に直面しています。 AMDのFreeSyncはDisplayPort 1.2aに基づいていますが、G-Syncが正常に動作するには、Nvidia GeForceグラフィックスカードが通常の画面スケーラーではなく、Nvidia製のモジュールを必要とし、 Kepler、Maxwell、Pascal、およびマイクロアーキテクチャーと互換性があります。ボルタ。

次のステップはG-Sync HDRテクノロジー行われました。G-SyncHDRテクノロジーは 、その名のとおり、 HDR機能を追加してモニターの画質を大幅に向上させます。 これを可能にするためには、ハードウェアの飛躍的な進歩が必要でした。 この新しいバージョンのG-Sync HDR は、インテルのアルテラArria 10 GX 480 FPGAを使用します。 これは、Micron製の3 GBのDDR4 2400MHzメモリを伴う 、幅広いアプリケーション向けにエンコードできる高度に高度でプログラム可能なプロセッサです。 。 これにより、これらのモニターの価格が高くなります。

これで、Nvidiaについて知っておく必要のあるすべての記事が終了します。 ソーシャルネットワークで共有して、より多くのユーザーにリーチできることを忘れないでください。 また、提案や何か追加することがあれば、コメントを残すこともできます。

アンドロイド

エディタの選択

Back to top button