「私たちの10の最大のAIの瞬間」
『私たちの10大AIの瞬間』
見逃したかもしれませんが、最近はAIがとても注目されています。しかし、Googleでは初期からAIが重要視されてきましたし、その理由は十分にあります。AIには日常のタスクを容易にする力があり、社会の最大の課題を解決する力もあります。私たちが25周年を祝う中で、これまでの私たちの最大のAIの瞬間を振り返り、私たちの前にさらに大きなマイルストーンが待っていることを期待しています。
2001年:機械学習によりGoogle検索のユーザーが綴りを修正できるようになる
Googleの共同創設者であるLarry Pageはかつて「理想の検索エンジンは、正確にあなたの意図を理解し、必要な情報を提供するものです」と述べました。私たちは、ウェブ検索の<better a="" spellingsを提案するために機械学習の簡単なバージョンを最初に使用し始めたときに、このビジョンを実現するために大きな進歩を遂げました。完璧には入力しなくても、必要なものを提供できます。
2006年:Google Translateが立ち上がる
5年後、私たちは機械学習を使って言語を自動的に翻訳するGoogle Translateを立ち上げました。最初はアラビア語から英語、英語からアラビア語への翻訳だったが、今日ではGoogle Translateは世界中の数百万人が話す133の言語をサポートしています。この技術はテキスト、画像、さらにはリアルタイムの会話を翻訳することができ、世界のコミュニティ全体の言語の壁を取り払い、人々のコミュニケーションを助け、情報へのアクセスを前例のない形で拡大するのに役立っています。
2015年:TensorFlowがAIを民主化
新しいオープンソースの機械学習フレームワークであるTensorFlowの導入により、AIがより利用しやすく、拡張可能で効率的になりました。また、世界中でのAIの研究開発のペースを加速させるのにも役立ちました。TensorFlowは現在、最も人気のある機械学習フレームワークの一つであり、画像認識から自然言語処理、機械翻訳まで、さまざまなAIアプリケーションの開発に使用されています。
2016年:AlphaGoが世界チャンピオンの囲碁プレーヤーに勝利
Google DeepMind Challenge Matchの一環として、2億人以上の人々がオンラインで視聴し、AlphaGoが機械には到達困難と考えられていた複雑な囲碁の世界チャンピオンに初めて勝利したAIプログラムとなりました。この重要な勝利は、複雑な問題を解決するための深層学習の可能性を示しました。AlphaGoの勝利は、世界でもトップクラスの囲碁選手である李世ドルに対するものであり、AIシステムが戦略的思考や創造性を必要とする複雑なゲームをマスターすることができるようになったことを示し、AIの将来についての世界的な議論を引き起こしました。
2016年:TPUにより高速かつ効率的なAIの展開が可能に
Tensor Processing Units、またはTPUは、機械学習のために特別に設計されたカスタムシリコンチップで、TensorFlowに最適化されています。従来のチップよりも高速にAIモデルをトレーニングおよび実行できるため、大規模なAIアプリケーションに最適です。8月に発表されたバージョンv5eは、最もコスト効率が高く、柔軟性があり、スケーラブルなCloud TPUです。
2017年:Google ResearchがTransformerを紹介
Google Researchの論文「Attention Is All You Need」は、Transformerという新しいニューラルネットワークアーキテクチャを紹介し、言語理解に役立ちました。Transformer以前は、機械は長い文章の意味を理解することがあまり得意ではありませんでした- 遠く離れた単語の関係を見ることができませんでした。Transformerはこれを大幅に改善し、今日の印象的な言語理解および生成のAIシステムの基盤となっています。Transformerは、機械が翻訳、テキストの要約、質問応答、さらには画像生成やロボット工学を実行することを革新しました。
2019: BERTが検索のクエリをより理解しやすくする手助けをします
Transformerに関する私たちの研究は、バイダイレクショナルエンコーダリプレゼンテーションからのTransformer、略してBERTの導入につながりました。これにより、検索はこれまで以上にユーザーのクエリを理解することができました。単語を個別に理解することを目指すのではなく、BERTのアルゴリズムはGoogleが文脈の中で単語を理解するのを助けました。これにより、検索全体の品質が大幅に向上し、キーワードを繋げるのではなく、自然に質問することがより簡単になりました。
2020: AlphaFoldがタンパク質の折りたたみ問題を解決します
DeepMind社は2020年に、タンパク質の折りたたみ問題の解決策として認識された「AlphaFold」というシステムでAIの分野で飛躍しました。タンパク質は生命の基本単位であり、タンパク質の折りたたみ方がその機能を決定します。誤った折りたたみは疾患を引き起こす可能性があります。50年間、科学者たちはタンパク質の折りたたみ方を予測し、疾患の理解と治療に役立てようとしてきました。AlphaFoldはまさにそれを実現しました。そして、2022年にはAlphaFoldのタンパク質構造を2億以上シェアしました。これには、ゲノム配列がほとんどの生物をカバーしています。これらの情報は、科学コミュニティに対して無償で提供されました。1百万以上の研究者が、新たなマラリアワクチンの加速、がん薬物探索の進歩、プラスチック分解酵素の開発など、さまざまな研究に使用しています。
2023: Bardが生成AIとの協力をサポートします
Google Researchが2021年にリリースした対話的な大規模言語モデル「LaMDA」は、Bardを含む世界中で注目を集める生成AIシステムの礎を築きました。Bardは2023年3月にローンチされ、世界中のほとんどの地域と40以上の言語で利用可能です。そのため、これまで以上に多くの人々が生産性を高め、アイデアを加速し、好奇心を刺激するために使用できるようになりました。さらに、Bardの最も賢く、最も能力のあるモデルをGmail、Docs、Drive、Flights、Maps、YouTubeなどのGoogleサービスと組み合わせることで、旅行計画の作成、回答の確認、メールや文書の要約など、さまざまなタスクをサポートするようになりました。
2023: PaLM 2がAIの未来を進化させます
今年の5月、私たちは次世代の大規模言語モデル「PaLM 2」を紹介しました。このモデルは、多言語、推論、コーディングの能力を改善しました。PaLM 2は先行モデルよりも能力が向上しており、より速く効率的です。すでに25以上のGoogle製品や機能にパワーを提供しています。これにはBard、GmailやWorkspaceの生成AI機能、およびGoogle検索に生成AIを深く統合するための実験であるSGEも含まれます。私たちはPaLM 2を利用して、医療からサイバーセキュリティまで、さまざまな研究を推進しています。
これらはGoogleのAIのイノベーションのほんの一部です。これらのイノベーションにより、数十億人が毎日使用している多くの製品が可能となりました。私たちはAIの原則に基づいて、大胆かつ責任のあるアプローチを取ることで、私たちの次の25年にわたる未来の進歩を可能にするために取り組んでいます。
このコレクションからさらに
25年間のGoogle – そして将来を見つめる
Googleは2023年9月に25歳を迎えるため、私たちはGoogleの歴史を振り返りつつ、技術の進化を展望して祝います。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 「AIによって生成されたコンテンツに対して、Amazonの自己出版サービスが厳格な取り締まりを行います」
- 「アマゾン、アントロピックへの40億ドルの投資でAIにさらに進出」
- 「Amazon SageMakerを使用して、Llama 2モデルのスループット性能を向上させる」
- 「包括的な革新:Amazon SageMakerでのHack.The.Bias」
- 認知コンピューティング:定義、動作、例など
- テキストから音楽を生成するAI:Stability Audio、GoogleのMusicLMなど
- 「インダストリー4.0 メタバースの解放:AR/VR、AI、および3Dテクノロジーが次世代産業革命を推進する方法」