AI総合研究所

NVIDIAとGoogle DeepMindの提携によるAIモデル革新とGoogle Colabのデータ分析加速

この記事のポイント

  • この記事はNVIDIAとGoogle DeepMindの提携による新しいAIモデルの開発と、Google Colabにおけるデータ分析加速について報じています。
  • NVIDIAのNIM推論マイクロサービス支援のもと、開発者がAIモデル「Gemma 2」、「PaliGemma」、「RecurrentGemma」を簡単に利用できるようになりました。

監修者プロフィール

坂本 将磨

Microsoft AIパートナー、LinkX Japan代表。東京工業大学大学院で技術経営修士取得、研究領域:自然言語処理、金融工学。NHK放送技術研究所でAI、ブロックチェーン研究に従事。学会発表、国際ジャーナル投稿、経営情報学会全国研究発表大会にて優秀賞受賞。シンガポールでのIT、Web3事業の創業と経営を経て、LinkX Japan株式会社を創業。

AI技術の革新が止まらないなか、NVIDIAとGoogle DeepMindが新たなパートナーシップを結び、AIモデル開発に関するプロジェクトを発表しました。

この提携により、「Gemma 2」、「PaliGemma」、「RecurrentGemma」という3つの特化したAIモデルが注目されています。
また、Google ColabへのRAPIDS cuDFの統合により、データ分析の効率が飛躍的に向上し、1000万人を超える開発者が恩恵を受けることになります。

さらにFirebase Genkitとのコラボレーションによってアプリ開発のプロセスも加速される見込みです。NVIDIAとGoogle CloudのAI分野における連携拡大は、AIイノベーションの新たな地平を開くことになるでしょう。

本記事では、これらの進展について、詳しく解説していきます。

thumbnail

NVIDIAとDeepMindの新たなパートナーシップによるAIモデルの開発

2024年5月14日、テクノロジー業界の大手であるNVIDIAとGoogle DeepMindは、新しいAIモデルを開発するための協力関係を発表しました。
このパートナーシップは、「Gemma 2」、「PaliGemma」、「RecurrentGemma*」という3つのモデルに焦点を当てています。

各モデルは特定の分野に特化しており、Gemma 2は多目的に使える次世代モデル、PaliGemmaはビジョンと言語を組み合わせたタスクに特化し、RecurrentGemmaはテキスト生成タスクに適したモデルです。

これらのモデルはNVIDIAのNIM推論マイクロサービスによってサポートされ、開発者はNVIDIAのAI Enterpriseソフトウェアプラットフォームを通じてこれらのモデルを簡単に展開できるようになります。

Google ColabとRAPIDS cuDFの統合によるデータ分析の加速

Google Colabは、世界中の開発者にとって人気のある開発プラットフォームであり、毎月1000万人のユーザーに利用されています。

NVIDIAとGoogleは、RAPIDS cuDFというGPUデータフレームライブラリをGoogle Colabにデフォルトで統合することを発表しました。
このライブラリにより、Pythonで書かれたpandasベースのデータ処理ワークフローを最大50倍まで加速できるようになります。

データサイズが大きくなるとパフォーマンスが落ちる問題を解決するために設計されたRAPIDS cuDFは、GPUを利用して高速なデータ分析を実現し、開発者の探索分析や本番データパイプラインを加速します。

Firebase Genkitとのコラボレーションでアプリ開発を加速

NVIDIAとGoogleは、アプリ開発者が生成AIモデルをウェブやモバイルアプリケーションに簡単に統合できるようにするFirebase Genkitという新しいコラボレーションを発表しました。
これにより、開発者はカスタムコンテンツの提供、セマンティック検索、質問応答などの機能をアプリに追加できます。

また、開発者はローカルのNVIDIA RTX GPUを使用して作業を開始し、その後、Google Cloudインフラストラクチャにシームレスに移行できるようになります。

JavaScriptを使用してアプリを構築できるため、モバイルアプリ開発者にとっても簡単になります。

NVIDIAとGoogle CloudのAI分野における連携の拡大

NVIDIAとGoogle Cloudは、AIを推進するために複数の分野で協力しています。
今後登場するGrace Blackwell搭載のDGX Cloudプラットフォーム、JAXフレームワークのサポート、Google Kubernetes EngineでのNVIDIA NeMoフレームワークの利用など、幅広いパートナーシップが展開されています。

これらの連携により、顧客はGoogle Cloud上でNVIDIAの技術を活用してAIを用いたさまざまな用途に対応可能になり、AI分野におけるイノベーションのさらなる可能性が広がっています。

出典:NVIDEA

AI活用のノウハウ集「AI総合研究所」サービスご紹介資料

「AI総合研究所 サービス紹介資料」は、AI導入のノウハウがないというお客様にも使いやすい最先端のAI導入ノウハウを知れる資料です。

資料ダウンロード
監修者

坂本 将磨

Microsoft AIパートナー、LinkX Japan代表。東京工業大学大学院で技術経営修士取得、研究領域:自然言語処理、金融工学。NHK放送技術研究所でAI、ブロックチェーン研究に従事。学会発表、国際ジャーナル投稿、経営情報学会全国研究発表大会にて優秀賞受賞。シンガポールでのIT、Web3事業の創業と経営を経て、LinkX Japan株式会社を創業。

関連記事

AI導入の最初の窓口。

お悩み・課題に合わせて活用方法をご案内いたします。
お気軽にお問合せください。

ご相談
お問い合わせは
こちら!