この記事のポイント
- この記事はNVIDIAとGoogle DeepMindの提携による新しいAIモデルの開発と、Google Colabにおけるデータ分析加速について報じています。
- NVIDIAのNIM推論マイクロサービス支援のもと、開発者がAIモデル「Gemma 2」、「PaliGemma」、「RecurrentGemma」を簡単に利用できるようになりました。
監修者プロフィール
坂本 将磨
Microsoft AIパートナー、LinkX Japan代表。東京工業大学大学院で技術経営修士取得、研究領域:自然言語処理、金融工学。NHK放送技術研究所でAI、ブロックチェーン研究に従事。学会発表、国際ジャーナル投稿、経営情報学会全国研究発表大会にて優秀賞受賞。シンガポールでのIT、Web3事業の創業と経営を経て、LinkX Japan株式会社を創業。
AI技術の革新が止まらないなか、NVIDIAとGoogle DeepMindが新たなパートナーシップを結び、AIモデル開発に関するプロジェクトを発表しました。
この提携により、「Gemma 2」、「PaliGemma」、「RecurrentGemma」という3つの特化したAIモデルが注目されています。
また、Google ColabへのRAPIDS cuDFの統合により、データ分析の効率が飛躍的に向上し、1000万人を超える開発者が恩恵を受けることになります。
さらにFirebase Genkitとのコラボレーションによってアプリ開発のプロセスも加速される見込みです。NVIDIAとGoogle CloudのAI分野における連携拡大は、AIイノベーションの新たな地平を開くことになるでしょう。
本記事では、これらの進展について、詳しく解説していきます。
目次
NVIDIAとDeepMindの新たなパートナーシップによるAIモデルの開発
Google ColabとRAPIDS cuDFの統合によるデータ分析の加速
NVIDIAとDeepMindの新たなパートナーシップによるAIモデルの開発
2024年5月14日、テクノロジー業界の大手であるNVIDIAとGoogle DeepMindは、新しいAIモデルを開発するための協力関係を発表しました。
このパートナーシップは、「Gemma 2」、「PaliGemma」、「RecurrentGemma*」という3つのモデルに焦点を当てています。
各モデルは特定の分野に特化しており、Gemma 2は多目的に使える次世代モデル、PaliGemmaはビジョンと言語を組み合わせたタスクに特化し、RecurrentGemmaはテキスト生成タスクに適したモデルです。
これらのモデルはNVIDIAのNIM推論マイクロサービスによってサポートされ、開発者はNVIDIAのAI Enterpriseソフトウェアプラットフォームを通じてこれらのモデルを簡単に展開できるようになります。
Google ColabとRAPIDS cuDFの統合によるデータ分析の加速
Google Colabは、世界中の開発者にとって人気のある開発プラットフォームであり、毎月1000万人のユーザーに利用されています。
NVIDIAとGoogleは、RAPIDS cuDFというGPUデータフレームライブラリをGoogle Colabにデフォルトで統合することを発表しました。
このライブラリにより、Pythonで書かれたpandasベースのデータ処理ワークフローを最大50倍まで加速できるようになります。
データサイズが大きくなるとパフォーマンスが落ちる問題を解決するために設計されたRAPIDS cuDFは、GPUを利用して高速なデータ分析を実現し、開発者の探索分析や本番データパイプラインを加速します。
Firebase Genkitとのコラボレーションでアプリ開発を加速
NVIDIAとGoogleは、アプリ開発者が生成AIモデルをウェブやモバイルアプリケーションに簡単に統合できるようにするFirebase Genkitという新しいコラボレーションを発表しました。
これにより、開発者はカスタムコンテンツの提供、セマンティック検索、質問応答などの機能をアプリに追加できます。
また、開発者はローカルのNVIDIA RTX GPUを使用して作業を開始し、その後、Google Cloudインフラストラクチャにシームレスに移行できるようになります。
JavaScriptを使用してアプリを構築できるため、モバイルアプリ開発者にとっても簡単になります。
NVIDIAとGoogle CloudのAI分野における連携の拡大
NVIDIAとGoogle Cloudは、AIを推進するために複数の分野で協力しています。
今後登場するGrace Blackwell搭載のDGX Cloudプラットフォーム、JAXフレームワークのサポート、Google Kubernetes EngineでのNVIDIA NeMoフレームワークの利用など、幅広いパートナーシップが展開されています。
これらの連携により、顧客はGoogle Cloud上でNVIDIAの技術を活用してAIを用いたさまざまな用途に対応可能になり、AI分野におけるイノベーションのさらなる可能性が広がっています。
出典:NVIDEA