Gadget Stream Online

Google Gemma:Geminiの軽量版がオープンAIモデルで登場。Chat with RTXでNVIDIA GPU でローカル実行も

gds-master + AI

「gdsマスター」は出版業界で編集者のキャリアを経て、コンテンツ制作の仕事をしている記事制作の専門家です。記事はAIによる自動生成ではなく、「gdsマスター」の手によるキュレーションと編集、AIとコラボレーションした執筆によって制作・配信しています。

Googleは2024年2月21日、軽量で最先端のオープンAIモデルである「Gemma」を発表しました。Gemmaは、Googleが2023年12月に発表した大規模言語モデルGeminiの軽量版で、Geminiのパラメーター数を約50分の1、約20億のパラメーターを持ちます。Geminiと同じ技術による軽量版がGemmaという訳ですね。これは、スマートフォンやIoTデバイスなどの低スペックなデバイスでも、AI機能を簡単に実装できることを意味します

Gemmaは、Colab と Kaggleのノートブックと、Hugging FaceMaxTextNVIDIA NeMoTensorRT-LLMなどで公開されています。ローカルの RTX AI PC まで、NVIDIA GPU 向けに Gemma を最適化も発表されています。

Gemmaは、テキスト生成、翻訳、画像認識、音声認識など、幅広いタスクに対応できます。また、精度の高い結果を出力することができ、研究開発や商用利用にも適しています。さらに、オープンソースとして公開されているため、誰でも自由に利用、改良、再配布することができます。

NVIDIA GPU での実行に最適化

同日、エヌビディアから、GemmaとChat with RTXの連携も発表されました。ユーザーは PC 上のローカル ファイルを大規模な言語モデルに簡単に接続することで、独自のデータを使用してチャットボットをパーソナライズできます。ここにGemmaを利用すれば、従来にはない精度でローカルPCでAIを動かせそうです。

先日、Chat with RTXを触れた際には日本語では動かなかったので、ここをクリアしてれることに期待大ですね。

参照元:Google NVIDIA

監修者のコメント:公式情報などをAIがまとめ監修者が編集しました。