Learn more about Search Results analyticsvidhya - Page 12

「OpenAIがGPT-4へのアクセスを提供」

今日、OpenAIの最先端のテキスト生成モデルであるGPT-4が一般に利用可能になりました。会社からの興奮したリリースによると、この画期的な技術に開発者がアクセスできるように、そのAPIを通じてビジネスが提供しています。GPT-4へのアクセスは、今月末までに新しい開発者にも開放されますが、成功した支払いの履歴を持つ既存のOpenAI API開発者は既にそれを利用することができます。OpenAIは、コンピューティングの可用性に基づいて、徐々に可用性の制約を引き上げる予定です。 GPT-4への需要の急増 3月以来、数百万人の開発者がGPT-4 APIの利用に興味を示し、OpenAIへのアクセスに対する膨大な需要が生まれています。GPT-4を利用する革新的な製品の多様性は急速に拡大しており、このモデルが持つ巨大なポテンシャルを明らかにしています。OpenAIによれば、GPT-4によって駆動されるチャットベースのモデルを使用したさまざまなユースケースが将来的にサポートされる可能性があります。 詳細はこちら:GPT-4のマスタープラン 強化された機能:テキスト、画像、およびコードの生成 GPT-3.5に比べて、GPT-4にはいくつかの改善があります。テキストだけでなく、画像入力も受け付け、コードを含むテキストを生成することができます。この増加した能力により、開発者はより多様で魅力的なアプリケーションを作成することができます。GPT-4の学術および専門的な基準におけるパフォーマンスは「人間レベル」であり、その優れた能力を示しています。 詳細はこちら:GPT-4が初の書籍の共同執筆を行いました! 画像理解:近日公開予定の機能 まだすべてのOpenAIのクライアントが利用できるわけではありませんが、GPT-4の画像理解機能は、OpenAIがパートナーのBe My Eyesと積極的に探求しているものです。OpenAIはいつより多くの顧客に利用可能になるかは明言していませんが、この機能はさまざまなアプリケーションに多くの可能性を秘めています。 GPT-4とGPT-3.5 Turboの微調整 OpenAIは、プログラマが自分のデータを使用してGPT-4とGPT-3.5 Turboを最適化することができるようにする予定です。今年中に、この機能は、OpenAIの他のテキスト生成モデルの一部に現在備わっているように一般公開される予定です。ユニークなデータでモデルを微調整することで、開発者はユニークなニーズに合わせてモデルをカスタマイズし最適化することができ、創造性に新たな可能性を生み出すことができます。 生成AIの競争の激化 3月にGPT-4がリリースされたことにより、生成AIの分野での競争が激化しました。リーディングのテキスト生成AIモデルであるAnthropicは、モデルClaudeのコンテキストウィンドウを9,000トークンから驚異的な100,000トークンに拡大しました。トークンは生のテキストの断片であり、コンテキストウィンドウは新しいテキストを作成する前にモデルが考慮するコンテンツです。検索、要約、執筆、コーディング、質問への回答など、Claudeはすべての作業に優れています。 コンテキストウィンドウの利点:GPT-4が先導 GPT-4は競争の中で最も大きなコンテキストウィンドウを持ち、最大32,000トークンに達します。モデルのコンテキストウィンドウが大きいほど、より多くの情報を前回の対話から保持することで、より一貫性のある文脈に即した回答が可能となります。小さなコンテキストウィンドウでは、モデルが最近の対話を「忘れる」ことが多く、話題から外れた回答になることがあります。 OpenAIの拡大オファリング:DALL-E 2とWhisper GPT-4に加えて、OpenAIはDALL-E…

「Inflection AIが22,000のGPUを搭載した巨大なスーパーコンピュータを解放」

イントロダクション このAI駆動の世界で、Inflection AIは「誰にでも個人用AI」を作り出すという大胆な一歩を踏み出しました。このAIスタートアップは、驚異的な22,000のNVIDIA H100 GPUを搭載した革命的なスーパーコンピュータを発表しました。これにより、計算パフォーマンスの限界を想像もつかない高みに押し上げています。Inflection AIは個人支援の風景を再定義し、この先駆的な驚異をイノベーションの最前線に押し上げることになります。 また読む: NVIDIAがAIスーパーコンピュータDGX GH200を構築 Inflection AIの台頭 その革新的なInflection-1 AIモデルで、有名なPiチャットボットの背後にある強力なエンジンを備え、Inflection AIは独自の地位を築きました。ChatGPTやGoogleのLaMDAモデルのような業界の巨人には達していないかもしれませんが、初期の報告では、Inflection-1は「常識的な」タスクで優れているため、個人支援アプリケーションには理想的な選択肢となっています。 未来の公開 長い期待の末、Inflection AIの野心的なスーパーコンピュータプロジェクトの詳細が明らかになりました。この巨大なマシンは「Inflectionスーパーコンピュータ」と名付けられ、驚異的な22,000のH100 GPUを搭載し、さらに700の4ノードラックにはIntel Xeon CPUが収まっています。この技術的な獣の欲求不満を満たすために、驚異的な31メガワットの電力が利用されます。 詳しくはこちら: CPU vs GPU:…

MLにおけるETLデータパイプラインの構築方法

データ処理から迅速な洞察まで、頑強なパイプラインはどんなMLシステムにとっても必須ですデータチーム(データとMLエンジニアで構成される)はしばしばこのインフラを構築する必要があり、この経験は苦痛となることがありますしかし、MLでETLパイプラインを効率的に使用することで、彼らの生活をはるかに楽にすることができます本記事では、その重要性について探求します...

AIが政府の偽の携帯電話接続を禁止するのを支援します

インドでの未承認の電話番号の問題に取り組む画期的な取り組みとして、通信連邦省は人工知能(AI)を活用して全国の携帯電話接続を分析することを展開しました。調査の結果、偽の文書が87.85億の接続のうち40.87万人(0.47%)の番号を取得していることが明らかになりました。AIの支援を受けて、政府はこのうちの38万人の偽の携帯電話番号を成功裏に禁止しました。 AI技術による不正な接続の実態の明らかになる 連邦省は、最初の段階で22のライセンスサービスエリア(LSA)のサークルで87億の携帯電話接続を調査しました。分析の結果、不自然なリンクの存在が明らかになり、テレコムサービスプロバイダーの44,582の販売ポイント(PoS)がこれらの未承認の接続を販売していることが明らかになりました。電気通信省(DoT)はこれらのPoSをブロックし、問題に対処するための取り組みが行われています。 FIRの登録とオフェンダーのブロックリスト化 省は、すべての州と連邦直轄地に対して、オフェンダーに対して最初の情報報告書(FIR)を登録するよう呼びかけました。これにより、不正な接続に関連するサイバー犯罪事件の増加に対抗するのに役立ちます。驚くべきことに、インド全体で登録されたFIRはわずか181件で、1,575件の不正なPoSをカバーしています。省は即座の行動を取り、不正な携帯電話接続を販売する人々を起訴することを強調しました。 また読む:業界の洞察:アナリティクスでのサイバー詐欺との戦い 地域の洞察:ジャム・カシミールとハリヤーナ 調査は、特定の地域における問題の規模を明らかにしました。ジャム・カシミールでは1.20億の携帯電話接続を分析し、15,194件の偽造または偽造文書を通じて入手された接続を発見しました。即座にこれらの偽の接続の14,494件を切断し、3,024の販売ポイント(PoS)をブロックしました。同様に、ハリヤーナでは3.08億の接続のうち、偽の文書を使用して5.33万件の接続が行われたことがわかりました。これにより、5.24万件の番号が切断されました。 省の緊急の対応要請 省は、この問題に対処するための緊急の必要性を強調し、オフェンダーに対してより多くのFIRを登録するよう求めました。さらに、国家犯罪記録局(NCRB)と中央機器識別レジスタ(CEIR)を犯罪および犯罪追跡ネットワークシステム(CCTNSネットワーク)と統合することを提案しました。この統合により、クレームを提出した後、紛失または盗難された携帯電話を自動的にブロックし、盗難された携帯電話の回収を支援することができます。 ハリヤーナでの前進 CCTNSをCEIRと統合して紛失または盗難された携帯電話を自動的にブロックするための国内初の取り組みであるハリヤーナは、大きな進展を遂げています。州は積極的にこの施設を活用し、サンチャル・サーティ・ポータルを通じて一般市民に情報を提供しています。 市民中心の取り組みの影響 今年初めに、連邦省はサンチャル・サーティ・ポータルを立ち上げました。このポータルは、電気通信の加入者に安全なデジタル空間を提供します。TAFCOPポータルを通じて、個人は自分の名前で登録された携帯電話接続の数を確認し、不正なリンクを報告することができます。 私たちの意見 インド政府がAI技術を利用して不正な電話番号を特定し、ブロックすることで、電気通信システムの完全性を確保する上で重要な一歩を踏み出しました。積極的な対策を取り、システムを統合することで、政府は不正な接続の存在を抑制することを目指しています。すべての州と連邦直轄地が積極的に取り組み、FIRを登録し、安全な電気通信ネットワークの整備に協力することが重要です。これらの取り組みにより、消費者が保護され、インドの電気通信ネットワークの完全性と信頼性に貢献することができます。

OpenAIが「スーパーアラインメント」を紹介:安全で整合性のあるAIの道を切り拓く

OpenAIは、超整合開発を紹介しています。これは、その広範な能力により、人類のために非常に大きな約束を持っています。超知能の出現に伴い、人類の可能な無力化またはさえ壊滅が深刻な危険と関連しています。 超整合の到来 超整合は、遠い可能性のように思われるかもしれませんが、次の10年以内に実現するかもしれません。我々は新しい統治構造を作り、超知能との整合性の問題に対処し、それらに関連する危険を効果的に制御する必要があります。 AIと人間の超整合:現在の課題 人間よりもはるかに賢いAIシステムが人間の意図と整合することを保証することは、重要な障害です。現在、私たちのAIを整合させるためのテクニックは、人間の監督に依存しています。しかし、人間の知能を超えるAIシステムを扱う場合、現在の整合方法は不十分です。これに対処するために、私たちは新しい科学的および技術的な突破口が必要です。 仮定の克服と整合性の拡大 現在のAI開発を指南しているいくつかの仮定は、超知能時代になると失敗する可能性があります。これらの仮定には、モデルがトレーニング中に監督を識別および覆す能力、および展開時の有利な一般化機能が含まれます。 OpenAIが構築するのは、ほぼ人間レベルの知能を持つ自動整合研究者です。彼らは、多くの計算能力を使用して、自らの努力をスケーリングし、超知能を反復的に整合させたいと考えています。 超整合の基盤の構築 自動整合研究者の目標を達成するために、OpenAIは次の3つの重要なステップを特定しました: 1. スケーラブルなトレーニング方法の開発 OpenAIは、スケーラブルなトレーニング戦略の作成に集中します。この方法は、人間が評価するのが困難な活動をAIシステムに教えるために不可欠です。 2. 結果モデルの検証 構築後の整合研究者の効果を検証することは重要です。モデルが人間の意図に合致し、計画どおりに機能することを確認するために、OpenAIは厳格なテストを行います。 3. 整合パイプラインのストレステスト OpenAIは、整合パイプラインを広範なストレステストにかけ、耐久性を確保します。困難な状況でシステムをテストすることで、潜在的な欠陥を見つけて修正することができます。 AIシステムの監視と一般化の活用 OpenAIは、人間にとって判断が難しい仕事の監視にAIシステムを活用することで、スケーラブルな監視を実現しようとします。この方法により、成功した整合性が保証されます。また、AIシステムが人間の制御下にない活動を処理できるようにする監視の一般化にも取り組みます。 整合性の検証:頑健性と解釈性 AIシステムの整合性を確保するためには、頑健性と解釈性の2つの重要な要素に焦点を当てる必要があります。OpenAIは、システムの内部を調査し、問題のある動作を自動的に検出することで、潜在的な整合性の問題を明らかにする予定です。 敵対的テスト:不整合の検出…

DataHour ChatGPTの幻視を80%減らす

はじめに 自然言語処理(NLP)モデルは近年、チャットボットから言語翻訳までさまざまなアプリケーションで人気が高まっています。しかし、NLPの最大の課題の1つは、モデルによって生成されるChatGPTの幻覚や不正確な応答を削減することです。この記事では、NLPモデルの幻覚を削減するために必要な技術と課題について説明します。 観測性、調整、テスト 幻覚を削減するための最初のステップは、モデルの観測性を向上させることです。これには、ユーザーフィードバックとモデルのパフォーマンスをプロダクションでキャプチャするフィードバックループの構築が含まれます。調整では、より多くのデータを追加したり、検索の問題を修正したり、プロンプトを変更したりすることで、不正確な応答を改善します。テストは、変更が結果を改善し、回帰を引き起こさないことを確認するために必要です。観測性の課題には、顧客が不正確な応答のスクリーンショットを送信することによって引き起こされるイライラが含まれます。これに対処するために、データの取り込みと秘密のコードを使用してログを毎日監視することができます。 言語モデルのデバッグとチューニング 言語モデルのデバッグとチューニングのプロセスでは、モデルの入力と応答を理解することが重要です。デバッグには、生のプロンプトを特定のチャンクや参照に絞り込むためにログが必要です。ログは、誰にでも理解しやすく、実行可能なものでなければなりません。チューニングでは、モデルにどれだけのドキュメントを与えるべきかを決定します。デフォルトの数値は常に正確ではなく、類似検索では正しい答えが得られないことがあります。目標は、何がうまくいかなかったのか、それを修正する方法を見つけることです。 OpenAI埋め込みの最適化 アプリケーションで使用されるOpenAI埋め込みのパフォーマンスを最適化することに直面したベクトルデータベースクエリアプリケーションの開発者は、いくつかの課題に直面しました。最初の課題は、モデルに渡す最適なドキュメント数を決定することであり、これはチャンキング戦略の制御とドキュメント数のための制御可能なハイパーパラメータの導入によって解決されました。 2番目の課題は、プロンプトのバリエーションであり、Better Promptというオープンソースライブラリを使用して、パープレキシティに基づいて異なるプロンプトバージョンのパフォーマンスを評価しました。3番目の課題は、マルチリンガルシナリオでの文の変換子よりもOpenAI埋め込みの結果の改善が見つかったことです。 AI開発の技術 この記事では、AI開発で使用される3つの異なる技術について説明しています。最初の技術はパープレキシティであり、与えられたタスクにおけるプロンプトのパフォーマンスを評価するために使用されます。2番目の技術は、ユーザーが異なるプロンプト戦略を簡単にテストできるパッケージの構築です。3番目の技術は、インデックスの実行であり、何かが欠けているか理想的でない場合に追加のデータを使用してインデックスを更新することが含まれます。これにより、質問のよりダイナミックな処理が可能になります。 GPT-3 APIを使用してパープレキシティを計算する スピーカーは、クエリに基づいてパープレキシティを計算するためにGPT-3 APIを使用した経験について説明しています。彼らはAPIを介してプロンプトを実行し、最適な次のトークンのログ確率を返すプロセスについて説明しています。また、新しい情報を埋め込むのではなく、特定の書き方を模倣するために大規模な言語モデルを微調整する可能性についても言及しています。 複数の質問に対する応答の評価 テキストでは、50以上の質問に対する応答の評価の課題について説明しています。すべての応答を手動で採点するのは時間がかかるため、会社は自動評価ツールの使用を検討しました。しかし、単純なはい/いいえの判断枠組みでは不十分であり、回答が正しくない理由は複数あります。会社は評価をさまざまなコンポーネントに分割しましたが、自動評価ツールの単一の実行は不安定で一貫性がありませんでした。これを解決するために、質問ごとに複数のテストを実行し、応答を完璧、ほぼ完璧、一部正しい情報を含む不正確、完全に不正確なものに分類しました。 NLPモデルでの幻覚の削減 スピーカーは、自然言語処理モデルでの幻覚を削減するためのプロセスについて説明しています。彼らは意思決定プロセスを4つのカテゴリに分け、50以上のカテゴリに対して自動機能を使用しました。また、評価プロセスをコア製品に展開し、評価を実行してCSBにエクスポートすることも可能にしました。スピーカーはプロジェクトに関する詳細情報のためのGitHubリポジトリに言及しています。そして、観測性、調整、テストなどの手順を取り上げ、幻覚率を40%から5%未満に削減することができました。 結論 NLPモデルにおけるChatGPTの幻想を減らすことは、可観測性、調整、テストといった複雑なプロセスを必要とします。開発者はプロンプトのバリエーション、埋め込みの最適化、複数の質問に対する応答の評価も考慮する必要があります。また、困惑度、プロンプト戦略のテスト用パッケージの作成、インデックスの実行といったテクニックもAI開発に役立つことがあります。AI開発の未来は、小規模でプライベート、またはタスク固有の要素にあります。 要点 NLPモデルにおけるChatGPTの幻想を減らすには、可観測性、調整、テストが必要です。…

OpenAIは、ChatGPTで「Bingで閲覧する」機能を無効化しました何が起こったのでしょうか?

意外な展開として、OpenAIは人気のチャットボットChatGPTの「Bingで閲覧」機能を無効にすることを決定しました。この決定により、ChatGPTのユーザーの間で疑問が生じています。ユーザーはこのウェブ閲覧機能を利用することに慣れていました。OpenAIは機能の再開について具体的なタイムラインを提供していませんが、ユーザーに対してオンラインで復活させるために熱心に取り組んでいると保証しています。 さらに読む: OpenAIのChatGPTアプリがBing統合の閲覧機能を導入 「Bingで閲覧」を無効にする決定 OpenAIは2023年7月3日に「Bingで閲覧」のベータ機能を正式に無効にすることを発表しました。この措置の主な理由は、OpenAIが望ましくない形でコンテンツが表示されたことです。特に、ユーザーがURLの全文をリクエストした場合、チャットボットが時折誤ってこのリクエストを満たしてしまいました。そのため、OpenAIはガイドラインに合致しないコンテンツの表示を防ぐために、この機能を無効にすることを決定しました。 ChatGPT Plusの加入者と独占的な機能 ChatGPT Plusの加入者は、無料ユーザーよりも追加の特典を享受することができます。特典には、よりパワフルなGPT-4へのアクセスやGPT-4プラグインストアへのアクセスが含まれます。彼らはまた、「Bingで閲覧」の機能にもアクセスできるようになりました。ChatGPTがマイクロソフトのBingブラウザに統合されたのは2月のことであり、これはOpenAIとテックジャイアントのパートナーシップの重要な節目となり、チャットボットの機能をさらに拡張しました。 論争とユーザーの反応 ウェブ閲覧機能を無効にする決定は、ChatGPT Plusのユーザーの間で論争を引き起こしました。一部の加入者は、OpenAIのこの動きに不満を表明し、ChatGPT Plusの価値提案に反すると感じています。OpenAIのフォーラムの1人のユーザーは、特に閲覧機能のためにChatGPT Plusを支払っていると述べ、その機能を削除する決定に失望していると述べました。 ChatGPTにおける「Bingで閲覧」の将来 OpenAIは「Bingで閲覧」機能の具体的な再開のタイムラインを提供していませんが、一時的な停止の原因に対処するために積極的に取り組んでいます。OpenAIは、ChatGPT Plusの加入者に対して、ベータフェーズ中の貴重なフィードバックに感謝の意を表し、それが貴重な学びの経験であったことを強調しました。同社は、できるだけ迅速に機能を復活させることに対してもコミットしています。 さらに読む: Google VS Microsoft: AIイノベーションの闘い 私たちの意見 OpenAIがChatGPTの「Bingで閲覧」機能を無効にする決定は、閲覧機能に頼っているユーザーの間で注目を集めています。この動きは一部の論争を引き起こしていますが、OpenAIはユーザーのフィードバックに基づいてChatGPTを改善することに真剣に取り組んでいるとユーザーに保証しています。OpenAIがチャットボットを洗練させ、向上させるにつれて、「Bingで閲覧」機能の復活を期待できます。…

ドライバーレスカーの闇 プライバシーの侵害

自動運転車の出現は、より安全で効率的な移動の未来として長く称賛されてきました。しかし、自動運転技術がサンフランシスコなどの都市で現実のものとなるにつれて、この理想的なビジョンの真実はかなり異なるものとなっています。報告によれば、これらの車両に埋め込まれた常時オンの監視カメラは、個人のプライバシーに重大なリスクをもたらす可能性があります。法執行機関は、これらのカメラで撮影された映像へのアクセスを要求しています。これにより、専門家たちが指摘する監視と憲法上の権利の侵害への懸念が生じています。 約束されたビジョンと気まずい現実 自動車メーカーやテック企業の元々のビジョンでは、自動運転車は知能のあるAI駆動の驚異として描かれ、乗客と一般の安全を向上させるものとされていました。しかし、真実は最初に描かれた理想的なシナリオからは程遠いものとなっています。これらの車両は一般の安全に頻繁に障害物となり、専門家たちが長らく警告してきたプライバシーの懸念を抱えています。 また読む:Didi Neuron:未来の無人タクシー 法執行機関による映像の要求:驚くべき事実 Bloombergの最新の報告によれば、Googleの子会社であるWaymoは、自動運転車業界の重要なプレイヤーです。彼らの自律走行中に撮影された映像について、法執行機関からの要求にさらされています。この事実は、自動運転車の約束された未来からの心配な逸脱を示しており、自動車産業における監視技術の使用についての疑問を提起しています。 ディストピアの可能性:監視とプライバシーの専門家が声を上げる プライバシーや監視に関する懸念が高まる中、この開発の影響について専門家たちは注目を集めています。反監視活動家であるアルバート・フォックス・カーン氏は、監視技術監視プロジェクトのディレクターであり、自動車の監視、カメラ映像の継続的な記録などは車両を警察の道具に変える可能性があり、自動車会社が技術を投資し、社会を独裁主義に向かわせないようにする必要性を強調しています。 自動運転技術のグローバルな拡大:データの収集と取り扱い 自動運転技術がカリフォルニアを超えてテキサスやアリゾナなどの都市に広がり、さらには世界的な場所に到達するにつれて、企業がユーザーデータをどのように収集、保存、取り扱うかを理解することが重要になってきます。自動運転システムの拡大は、データプライバシーや法執行機関によるユーザー情報の誤用の可能性について重要な問題を提起しています。 令状と召喚状のジレンマ テック企業によるユーザーデータの収集は、必然的に法的な注目を集めます。情報時代では、ユーザーデータの要求は令状や召喚状を通じて避けられないものとなっています。この問題は、欧州連合が最近自律走行車に対する法的枠組みを確立し、製造業者がデータを収集し、当局に提供することを可能にする可能性があるため、アメリカ合衆国を超えて広がっています。この規定の完全な影響はまだ見えていません。 個人の安全のコスト:プライバシー対監視 WaymoやCruiseなどの企業は、安全な自律型車の構築に対する公約を一般に保証していますが、個人の安全はしばしば後退します。プライバシーの専門家は、監視技術やデータ収集システムが法執行機関の要求に対して脆弱であり、憲法上のプライバシー権を侵害し、弱者のコミュニティに不釣り合いな影響を与えると強調しています。 スポットライトの中のカメラ:恐ろしい経験 カメラの存在は自動運転システムの機能に不可欠です。外部カメラは車両が道路を進むのを支援し、内部カメラは顧客サポートを提供するとされています。しかし、テストドライブ中に一部の乗客が顔を隠して旅行をする光景から、常時監視に対する不快感が明らかになっています。 法執行機関の関心:Waymoと捜査令状 最近の報告では、法執行機関が自動運転車のカメラで撮影された映像の潜在的な価値を認識していることが示されています。Bloombergの調査によれば、Waymoはサンフランシスコでの自律型車のビデオ録画に関して少なくとも9つの捜査令状の対象となっています。ただし、通常ギャグオーダーが伴うことがあるこのような要求の真の範囲は不明です。 企業の対応:プライバシーに向けて努力 Waymoは、適用される法律と法的手続きに準拠しているかどうかを確認するために、各法執行機関からの要求を審査していると主張しています。データの共有を最小限に抑え、過度に広範な要求には反対しています。同様に、Cruiseもプライバシーの重要性を強調し、法的手続きまたは個人の安全が危険にさらされている緊急の状況にのみ、データを提供しています。 私たちの意見 自動運転車革命が勢いを増す中、個人のプライバシーへの侵害が重要な懸念となっています。監視カメラの使用やユーザーデータの収集は、安全性、監視、および憲法上の権利のバランスについて重大な問題を提起します。自動車メーカーやテクノロジー企業は、プライバシー保護を優先すべきです。また、自動運転の未来の約束が個人の自由の犠牲とならないようにも注意する必要があります。監視、データプライバシー、および自動運転車におけるAI技術の責任ある使用についての議論は、今後数年間の交通の未来を形作るでしょう。 詳しくはこちら:AIが自動車産業をどのように変えているのか?

AI技術はリサイクルをどのように変革しているのでしょうか?

世界的な廃棄物危機が深刻なレベルに達しています。世界銀行によると、固形廃棄物の生産量は2050年までに73%増加し、38.8億トンになると推定されています。特にプラスチック廃棄物は重大な課題を提起しており、1950年から2015年までに83億トン以上が生産されました。しかし、イギリスのスタートアップ企業であるGreyparrotは、人工知能(AI)の力を活用して廃棄物処理とリサイクルを革新しています。GreyparrotはAIシステムを展開し、廃棄物をリアルタイムで分析することで、より効率的かつ持続可能な廃棄物管理の方法を確立しています。 廃棄物分析革命:GreyparrotのAIソリューション Greyparrotの創設者であるMikela Druckmanは、先進的な廃棄物分析の必要性を認識しました。革新的なAIシステムを通じて、Greyparrotはヨーロッパの廃棄物リサイクル施設のコンベアベルト上にカメラを設置し、廃棄物が通過する際にAIソフトウェアを利用して分析します。AI技術は画像処理の面で驚異的な進展を遂げていますが、さまざまな種類のゴミを認識するためには重要な課題があります。 ゴミの認識の複雑さ:障害の克服 ゴミを正確に識別することは簡単な作業ではありません。Mikela Druckmanによると、しわくちゃで汚れたコカ・コーラのボトルなどのアイテムがゴミ箱に入っている場合、AIシステムはそのような材料を分析し分類する際に複雑な課題に直面します。しかし、これらの障害にもかかわらず、GreyparrotのAIシステムは現在、年間320億個の廃棄物オブジェクトを追跡しています。したがって、運用効率を向上させ、規制上の決定に情報を提供するための広範なデジタル廃棄物マップを作成しています。 廃棄物管理の強化:広範な影響 GreyparrotのAI技術は廃棄物管理施設に限定されるものではありません。収集されたデータと洞察は広範な影響を持っています。廃棄物管理者はこの情報を活用して運用を最適化し、資源の利用を効率化することができます。さらに、規制当局は廃棄物の状況をより良く理解し、問題のある材料を特定し、包装デザインの改善に役立てることができます。Druckman氏は廃棄物管理と気候変動の相互関係を強調しており、将来にわたってより持続可能な未来を創造するために、資源の回収と再利用の重要性を強調しています。 真実の明らかにする:グリーンウォッシングへの闘い グリーンウォッシング、つまり包装や広告でのエコフレンドリーな主張の誤解を招くことは、持続可能性運動において重要な課題です。Druckman氏は、虚偽の主張や消費者の混乱について懸念を表明しています。GreyparrotはAI技術を活用することで、リサイクルプロセス全体で信頼性のあるデータと透明性を提供し、グリーンウォッシングに立ち向かうことを目指しています。これにより、小売業者と消費者は情報を得て、本当に持続可能な実践を支持することができます。 技術の役割:PolytagのUVタグ イギリスの企業であるPolytagも、プラスチックボトルのリサイクルの課題に取り組むために技術を活用しています。使用済みボトルが本当にリサイクルされるようにするため、Polytagは人間の目には見えない紫外線(UV)タグを適用しています。これらのタグ付きボトルが指定されたリサイクル施設に到着すると、Polytagの機械がタグを読み取り、ボトルの数が瞬時にPolytagの顧客がアクセスできるクラウドベースのアプリにアップロードされます。 私たちの意見 GreyparrotやPolytagなどのイノベーティブなソリューションとAI技術の組み合わせは、廃棄物管理を変革し、リサイクルの実践を革新する可能性を秘めています。AIによる廃棄物分析により、運用効率を向上させることができます。さらに、規制を情報化し、グリーンウォッシングに立ち向かい、より持続可能な未来を創造することができます。これらの技術の進歩を受け入れ、責任ある廃棄物管理の実践を促進することは、地球規模の廃棄物危機に取り組み、将来の世代のために地球を保護するために重要です。 関連記事:食品廃棄物管理:AI駆動の食品廃棄物技術

AIが生成したコンテンツは開発者のリスクを高める可能性があります

最近の出来事において、人気のあるゲームプラットフォームであるSteamは、著作権法に違反する可能性のあるAI生成コンテンツに対して厳しい姿勢を取っています。いくつかの開発者は、AI生成のアセットを使用したゲームをプラットフォームに公開しようと試みる中で、拒絶と欲求不満に直面しています。これにより、ゲーミングコミュニティでは、AI技術の使用とその潜在的な法的影響についての議論が巻き起こっています。 関連記事:2023年のゲーム開発における機械学習とAI Redditユーザーの苦境 すべてはRedditユーザーのpotterharry97がSteamの承認プロセスでの痛い経験を共有したことから始まりました。彼らは、AIによって作成されたアセットを含むゲームを提出する予定でした。フルローンチ前にこれらのアセットを改善する意図がありましたが、Valveは迅速にその提出を拒否し、潜在的な著作権問題を理由に挙げました。Valveは、ゲームの配布前にAIのトレーニングデータの所有権の適切な確認が必要であるとの回答で明確にしました。 開発者の失望 potterharry97の経験に続いて、別の開発者であるArtoonuというペンネームを使用した開発者もRedditで同様の苦境を報告しました。この開発者は以前、Steamで数多くのNSFWビジュアルノベルを成功裏にリリースしていました。しかし、新しいゲームにAI生成のアートを使用しようとした際、Valveによって提出が拒否されました。繰り返される拒否により、Artoonuのような開発者たちは、クリエイティブプロセスにおけるAI技術の有用性について疑問を抱いています。彼らは、商業利用のためにAI生成のアセットを利用できない場合、その技術はアイデアや参考資料の生成以外の目的にはほとんど役立たないと述べています。 Oleg Skutteの出来事 不満が高まる中、インディーゲーム開発者のOleg Skutteは、Valveとの経験を語りました。Skutteは最近、Locomotoricという物理シミュレーションゲームをリリースしました。しかし、彼は新しいAIパワードの冒険ゲーム、DREAMIOを公開しようとした際に同じ問題に直面しました。彼はイラストにStable Diffusionを使用し、ストーリーを生成するためにChatGPTを使用しました。しかし、彼の提出はSteamによって拒否されました。 SteamではAIコンテンツが禁止されているのか? これらの出来事にもかかわらず、Steamは明示的にAIコンテンツを禁止していません。Steamのガイドラインは、特定のタイプのコンテンツ(ヘイトスピーチ、実在する人物の露骨な画像、児童を巻き込む搾取的な素材など)を許可していないことを明確に述べています。しかし、ガイドラインの重要な段落には、適切な配布権を持っていないコンテンツやアップローダーが所有していないコンテンツを許可しないと記載されています。 関連記事:AIコンテンツ作成:トップ10のツール、インパクト、将来[2023] Valveの立場 Valveが著作権侵害の可能性のあるAI生成コンテンツに対して厳しい姿勢を取ることは、知的財産権を保護するための一歩です。AI技術はゲーム業界において革新的な可能性を示していますが、著作権侵害や誤用への懸念も抱えています。Valveの決定は、クリエイターの権利を守り、プラットフォーム上での倫理基準を維持するという同社の取り組みを反映しています。 今後の展望 ゲーミング業界が進化する中で、開発者は著作権法に注意を払い、倫理的なガイドラインに従う必要があります。AI生成コンテンツにおいては、トレーニングデータが著作権の制約から解放されていることを検証することが重要です。これには、コンテンツクリエイターからの明示的な許可や公開されているデータセットの使用が必要となる場合があります。 Valveが著作権侵害の可能性のあるAIアートを含むゲームを承認しないことは、クリエイティブな権利を保護するための大胆な一歩です。一部の開発者には欲求不満を引き起こしましたが、これは責任あるAIの使用と知的財産の尊重の重要性を示しています。ゲーミングワールドが技術の進歩を受け入れるにつれて、開発者は適法かつ倫理的な基準を遵守し、活気ある持続可能なゲーミングエコシステムを提供するために適応する必要があります。 関連記事:2023年におけるAIがゲームテストを革新する方法

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us