「Lab Sessions 実験的なAIの新しいコラボレーションのシリーズ」
Lab Sessions Experimental AI Collaboration Series
私たちは、製品を開発したり、ハードウェアを進化させたり、新たな研究を行ったりする際に、最も重要なことは実際の人々に技術を提供することです。数年間にわたり、さまざまな分野の個人やコミュニティと協力し、新興技術を彼ら独自のニーズに合わせて形作ってきました。
Labs.googleは、AIを実験し続ける場所であり、仮説の検証、相互の学び、新しい技術の共同創造を行っています。しかし、私たちはさまざまな分野の既存および将来の共同作業をショーケースする方法を作りたいとも考えています。
それが、Lab Sessionsを発表する理由です。アーティストから学者、科学者から学生、クリエイターから起業家まで、ビジョナリーたちとの実験的なAIコラボレーションのシリーズです。下記またはlabs.google/sessionsで最初の3つのセッションをご覧いただけます。
Dan Deacon x Generative AI
最も最近のセッションの1つは、作曲家でデジタルミュージシャンのDan Deaconとのものでした。 DanはGoogleの研究者と協力し、Google I/O 2023のプレショーのパフォーマンスを作り上げました。 Danは、私たちのテキストから音楽へのモデルであるMusicLMを使用して、新しい音を新しい曲に作り出しました。彼は私たちの会話型AIであるBardを使用して、彼のガイド付き瞑想を作成するのを助けました。そして、彼は私たちの生成モデルであるPhenakiを使って、彼の歌詞をステージ上に投影される映像に変えました。BardとMusicLMで自分自身でも実験してみてください。
10:25
Lupe Fiasco x Large language models
ラッパーやMITの客員研究員であるLupe Fiascoともコラボレーションし、AIが彼の創造的なプロセスをどのように向上させるかを見てきました。 PaLM APIとMakerSuiteで実験を始めるにつれて、LupeはAIにラップを書かせたくなかったことが明らかになりました。代わりに、彼は自分自身の執筆プロセスをサポートしてくれるAIツールを望んでいました。
それで、私たちは一緒に新しいカスタムツールセットを作ることにしました。 Lupeの言葉遣いや言語技術は、大規模言語モデルでのプロンプトや作成方法に新しい視点をもたらしました。最終的な結果は、作家、ラッパー、言葉遣いの達人向けの10のAIツールがある実験であるTextFXです。お試しください。また、実験の構築方法について詳しく知りたい場合は、このブログ投稿またはオープンソースのコードをご覧ください。
10:25
Georgia Tech and RIT/NTID x Sign language recognition
昨年以来、ジョージア工科大学とロチェスター工科大学の聴覚障害者国立工業高等専門学校(NTID)の学生たちと共同で、AIコンピュータビジョンモデルが人々が新しい方法で手話を学ぶのにどのように役立つかを探求してきました。
Googleの研究者とKaggleコミュニティと協力して、学生たちはPopSignAIというゲームを作りました。このバブルランチャーゲームは、マカーサー・ベイツ発話発達検査に基づいて、250のアメリカンサインランゲージ(ASL)のサインを教えます。これは、言語を子供に教えるために最初に使用される概念です。聴覚障害のある幼児の95%は、ASLを知らない聴覚のある親に生まれます。
ゲームはPlay StoreおよびiOSアプリストアでダウンロードしてお試しください。または、popsign.orgにアクセスして詳細をご覧ください。
10:25
将来を見据えて
AIの潜在能力を引き出すためには、好奇心、創造性、思いやりのある人々が必要です。私たちはLab Sessionsをもっと共有し、AIがどこまで進化できるかを見ることを楽しみにしています。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles