Learn more about Search Results A - Page 333

「2023年の最高のAI文法チェッカーツール」

Grammarly  Grammarlyは、人工知能によって強力にサポートされたウェブベースのライティングチューターです。文法、スペル、句読点、明確さ、スタイル、トーンのエラーを瞬時に修正します。Windows、Mac、iOS、Androidのいずれでも、Grammarlyは50万以上のアプリやウェブサイトと完璧に動作します。エッセイチェッカーや引用ジェネレーター、文法、スペル、句読点、そして盗作を検出するためのツールなど、多くの機能を備えています。Grammarlyは、個人、グループ、組織、学校など、さまざまなコンテキストで使用できる多目的なツールです。さまざまな要件に対応するために、いくつかの異なるパッケージを提供しています。編集ソフトウェアに加えて、Grammarlyは開発者ブログ、教育ブログ、ビジネスブログ、テックブログなど、さまざまな追加リソースも提供しています。 Linguix  そのため、Linguixは、数百万のウェブサイトのコンテンツの品質を向上させることができる無料のライティングアシスタントアプリケーションを開発しました。このソフトウェアには、メール、論文、ウェブサイト、ニュースレター、広告など、ドキュメントの品質を向上させるためのいくつかのツールがあります。ユーザーは、ソフトウェアの詳細な分析と先進的な言語洞察を使用して、文法、冗長性、魅力的なフレーズ、ビジネスの定型句などの問題を見つけることができます。また、コンテンツの品質スコアも提供されます。これは、エンゲージメント、読みやすさ、クライアントのスタイルガイドへの準拠の点でコンテンツのパフォーマンスを示します。Linguixは、Microsoft Office、Adobe Creative Suite、WordPress、MailChimp、FacebookのBusiness Managerなど、多くの有名なプログラムと互換性があります。211,000人以上の人々が使用し、多くの人々が自分をより良いライターにするのに役立ったと高い評価を与えています。 Scribens  Scribensは、Wordの組み込みのチェッカーよりも文法の間違いを10倍正確に見つけると主張しています。他の文法チェッカーと同様に、このツールは問題のある単語をフラグ表示し、単語をクリックすると修正のルールを説明します。Scribensには、繰り返しや長文のインスタンスを見つけ、代替案を提案するための組み込みの語彙があります。このツールでは、編集を目立たせるために青で句読点の間違いを強調表示します。一方、動詞の誤った使用は緑で強調表示されます。その他の文法のエラーは赤でマークされます。スタイル(冗長性、語彙の向上、肯定的および軽蔑的な意味合いを持つ単語のリストなど)、提案される類義語、統計情報(FleschおよびGunning Fogの読みやすさ指数を含む)の結果は、画面の左パネルにライターのレポート形式で表示されます。編集を行った後、ファイルを.txt、.odt、または.docxドキュメントとして保存することができます。 GrammarCheck GrammarCheckを使用すると、シンプルなインターフェースで簡単に作業を公開することができます。このソフトウェアは、イギリス、カナダ、オーストラリア、ニュージーランド、南アフリカ、さらには機械で話される英語のさまざまなバリエーションを理解します。文法とスペルの間違いは、GrammarCheckによってそれぞれ赤と青で強調表示されます。より詳細な校正を行うためには、「Deep Check」オプションを選択し、修飾語の欠落、不適切な時制、スタイルの悪さ、さらには盗作のインスタンスなどの問題を明らかにすることができます。このウェブサイトでは編集のみが可能であり、完了した作業をレビューするための方法はありません。文法チェックを開始するには、「テキストをチェックする」ボタンを選択し、空のボックスにテキストを入力します。 Sapling  Saplingは、任意のメッセージングサービスで正確かつ迅速に書くのを助けるチャットボットです。Eメールやソーシャルメディアの投稿を、このプラットフォームのサポートを受けて迅速かつ簡単に作成することができます。そのため、このツールは、顧客サービス担当者が、顧客から「昨日」回答が必要と報告されることが多い、Eコマース、ゲーム、物流などの業界で働いている場合に特に便利です。さらに、Saplingのデータベースにクライアントや共同作業者への返信を保存することもできます。将来的には、このリポジトリにアクセスしてタイムリーなメッセージを取得することができます。無償、プロ(月額$25)、エンタープライズ(カスタマイズ)のサブスクリプションオプションがあります。 Ginger Gingerの強力な言い換えツールを使用すると、メッセージを伝えるための最適な方法を選択するのに役立ちます。他の文法チェッカーとは異なり、Gingerには「すべてを修正」する機能があり、1つの文や段落内のすべてのエラーを同時に修正することができます。さらに、このプログラムには、最も厳密な著者でも満足させるいくつかの文法関連の改善があります。完全なGinger Grammar Bookのウェブサイトでは、各品詞とカンマの使用についてのタブがあり、各ルールが説明されています。Gingerの特定のセクションで一般的に混同される単語やスペルミスのある単語をチェックすることができます。このプラットフォームは、無料および有料のサブスクリプションオプションがあり、ブラウザのアドオン、デスクトップアプリ、モバイルアプリからアクセスできます。Ginger Premiumの定期購読者は、月間、四半期、年間、半年ごとの請求サイクルを選択することができます。一方、Ginger Businessプランでは、最大100,000人の従業員をカバーすることができます。 Trinka AI…

光ベースのコンピューティング革命:強化された光ニューラルネットワークでChatGPTタイプの機械学習プログラムを動かす

ChatGPTのいくつかの単純な問いに対して洗練されたエッセイ、メール、およびコードを生成する能力は、国際的な注目を集めています。MITの研究者たちは、ChatGPTの責任者よりもはるかに能力のある機械学習プログラムの道を開く可能性のある方法を報告しています。さらに、彼らの技術は、現在の最先端のスーパーコンピュータよりも少ないエネルギーを消費するかもしれません。 チームは、新しいシステムの最初の実験的デモンストレーションを報告しています。このシステムは、光の動きに基づいて計算を行うために数百のマイクロンスケールレーザーを使用しています。この新しいシステムは、現在の最先端のデジタルコンピュータよりもエネルギー効率が100倍以上高く、計算密度も25倍以上高くなっています。 さらに、彼らは「将来の改善のためにはさらに数桁の改善が必要」と指摘しています。これにより、科学者たちは「データセンターから分散型エッジデバイスまでの機械学習タスクを加速するための大規模な光電子プロセッサへの道を開く」と述べています。将来的には、携帯電話のような小さなデバイスでも、巨大なデータセンターでしか計算できないプログラムを実行することができるかもしれません。 脳の情報処理を模倣する大規模な機械学習モデルは、ChatGPTのような深層ニューラルネットワーク(DNN)の基礎です。機械学習が拡大する一方で、現在のDNNを駆動するデジタル技術は停滞しています。また、そのエネルギー需要が極めて高いため、これらのDNNは非常に大きなデータセンターにしか存在しません。これがコンピューティングアーキテクチャのイノベーションを推進しています。 データサイエンスの分野は、深層ニューラルネットワーク(DNN)の台頭により進化しています。従来のコンピュータハードウェアの能力を超えるこれらのDNNの指数関数的な拡大に対応するため、光ニューラルネットワーク(ONN)が最近進化して、高いクロックレート、並列処理、および最小のデータ損失でDNNタスクを実行するようになりました。低い電光変換効率、巨大なデバイスのフットプリント、およびチャネルのクロストークは、ONNの計算密度を低下させますが、インライン非線形性の欠如は大きな遅延を引き起こします。研究者は、これらの課題すべてを一度に解決するための空間-時間-多重化ONNシステムの実験的な実証を行いました。彼らは、大量に製造され、優れた電光変換特性を示す垂直共振器面射出レーザー(VCSEL)のマイクロメートルスケールのアレイを使用してニューロンエンコーディングを行っています。 研究者は、これらの3つの問題を一度に解決する小さな設計を初めて提供しています。現代のLiDARリモートセンシングとレーザープリンティングは、このアーキテクチャに基づいており、垂直面射出レーザー(VCSEL)アレイ上に構築されています。これらの措置は、将来的には2桁の改善となる可能性があります。光電子プロセッサは、集中化および分散型のインフラストラクチャ全体で機械学習プロセスの高速化に新たな機会を提供します。

中国からの新しいAI研究が提案するSHIP:既存のファインチューニング手法を改善するためのプラグアンドプレイの生成AIアプローチ

この論文では、既存の微調整手法を改善するための SyntHesIzed Prompts (SHIP)という新しいアプローチについて取り上げています。 微調整:プレトレーニングの後、モデルはより小さなタスク固有のデータセットで微調整されます。これには新しいデータに対してトレーニングプロセスを継続することが含まれます。一般的な知識を特定のタスクに適用できるようにするために、プレトレーニングで獲得したモデルの知識を調整することが目的です。 研究者が取り組んでいる問題は、いくつかのクラスにデータがないシナリオです。彼らはクラス名を提供することで特徴を合成できる生成モデルをトレーニングすることを目指しました。これにより、データのないカテゴリの特徴を生成することが可能になります。 データのないカテゴリの特徴を生成するとは、トレーニングデータセットに存在しないクラスやカテゴリの表現を合成するプロセスを指します。これは、特定のクラスの実データを収集することが難しいまたは不可能なシナリオで特に有用です。 その後、研究者はオリジナルのラベル付きデータと新たに合成された特徴を使用してCLIPを微調整しました。しかし、生成モデルは通常、トレーニングに大量のデータを必要とするため、データの効率性とは相反する大きな障害です。彼らは、敵対的なトレーニングを必要とするモデルよりもトレーニングが容易で低データのシナリオで効果的な変分オートエンコーダ(VAE)をフレームワークとして利用することを提案しました。 GANとVAEは両方とも新しいデータサンプルを生成することができる生成モデルですが、アーキテクチャ、目標、トレーニング方法などが大きく異なります。GANは高品質でリアルなサンプルを生成する能力で知られていますが、トレーニングが難しい場合もあります。一方、VAEは確率的なフレームワークを提供し、特にデータが限られているシナリオでは取り扱いが容易ですが、GANほど鮮明またはリアルなサンプルを生成しないかもしれません。 CLIP(Contrastive Language–Image Pretraining)は、テキストの説明から画像を理解し生成するためのOpenAIによって開発されたモデルです。大規模なデータセットで事前トレーニングされ、視覚と言語の表現が整列しています。事前トレーニングされた言語エンコーダはよりリアルな特徴の生成を支援します。この論文は、合成データを利用してCLIPの微調整手法の性能を向上させることを目指して、ベースから新しい一般化、クロスデータセットの転移学習、および一般化されたゼロショット学習について包括的な実験を行い、最先端のパフォーマンスを達成しました。 提案されたモデルのアーキテクチャは、VAEフレームワークを利用して特徴をエンコードおよび生成し、CLIPを統合して画像特徴を抽出し再構築します。トレーニング中、モデルは特徴を潜在空間にエンコードし、それを再構築する方法を学習します。生成段階では、この学習されたエンコーディングを使用して新しいクラスの特徴を合成し、データのないクラスでもCLIPを微調整できるようにします。軽量なMLPと凍結されたCLIPテキストエンコーダからなる新しいCLIPベースのジェネレータは、潜在コードを変換し、特徴再構築用の最終的なプロンプトを構築する上で重要な役割を果たします。 研究者が観察した実験結果: ベースから新しい一般化:ImageNet、Caltech101、OxfordPets、StanfordCars、Flowers102、Food101、FGVCAircraft、SUN397、DTD、EuroSAT、UCF101を含む11の多様な画像分類データセットで実験が行われました。データセットはベースクラスと新しいクラスに分割され、ベースクラスでクラスごとに16のサンプルでトレーニングが行われました。評価はベースクラスと新しいクラスの両方で行われました。 一般化されたゼロショット設定:論文では、ベースから新しい一般化をより現実的な一般化されたゼロショット設定で評価しました。この設定では、ベースデータと新しいデータがテストデータセットで混在しています。結果は以前の手法では性能が著しく低下することを示しましたが、提案された方法であるSHIPは新しいクラスでの性能を改善し続けました。 他の手法との比較:CLIP、CoOp、CLIP-Adapter、Tip-Adapterなどの他の手法と比較されました。提案されたSHIP手法は、さまざまなデータセットで新たなクラスでの性能を向上させました。 結論: この論文では、既存のファインチューニング手法を改善するために、新しいSyntHesIzed Prompts (SHIP)アプローチを提案しました。特に一部のクラスにデータがないシナリオで、この手法はさまざまなタスクで最先端のパフォーマンスを達成しました。データのないカテゴリに対して特徴を合成し、元のラベル付き特徴と新たに合成された特徴の両方を使用してCLIPをファインチューニングすることで、この手法は優れた結果を得ることができました。論文は、追加のトレーニングコストを制約として認識し、将来の研究でSHIPの密な予測タスクへの適用可能性を探求する意図を表明しています。 全体として、この論文は、特定のクラスのデータの不足の課題に対処し、合成データを使用してCLIPのファインチューニング手法のパフォーマンスを向上させるという点で、この分野への重要な貢献を示しています。

「LangchainとOpenAIを使用したGoogleドキュメントのためのチャットボット」

イントロダクション この記事では、OpenAIとLangchainを使用してGoogleドキュメント用のチャットボットを作成します。では、なぜ最初にこれを行う必要があるのでしょうか?Googleドキュメントの内容をOpenAIにコピー&ペーストするのは手間がかかります。OpenAIには文字トークンの制限があり、特定の情報しか追加できません。したがって、スケールで実行するか、プログラムで実行する場合は、ライブラリのヘルプが必要です。そこで、Langchainが登場します。LangchainをGoogleドライブとOpenAIと接続することで、製品ドキュメント、研究ドキュメント、または会社が使用している内部の知識ベースなど、ドキュメントを要約し関連する質問をすることでビジネスへの影響を創出することができます。 学習目標 Langchainを使用してGoogleドキュメントのコンテンツを取得する方法を学ぶことができます。 GoogleドキュメントのコンテンツをOpenAI LLMと統合する方法を学ぶことができます。 ドキュメントのコンテンツを要約し、関連する質問をする方法を学ぶことができます。 ドキュメントに基づいて質問に答えるチャットボットを作成する方法を学ぶことができます。 この記事は、Data Science Blogathonの一部として公開されました。 ドキュメントの読み込み 始める前に、Googleドライブにドキュメントを設定する必要があります。ここで重要なのは、Langchainが提供するドキュメントローダーであるGoogleDriveLoaderです。これを使用して、このクラスを初期化し、ドキュメントIDのリストを渡すことができます。 from langchain.document_loaders import GoogleDriveLoader import os loader = GoogleDriveLoader(document_ids=["あなたのドキュメントID"], credentials_path="credentials.jsonファイルへのパス") docs…

「Advanced Reasoning Benchmark(ARB)に会いましょう:大規模な言語モデルを評価するための新しいベンチマーク」

自然言語処理は近年、特に洗練された言語モデルの作成によって大きく進化しています。翻訳や推論を含むほとんどの自然言語タスクで、GPT 3.5、GPT 4、BERT、PaLMなどの有名なモデルの性能が著しく向上しています。これらのAIの分野での進展を評価するために、いくつかのベンチマークが使用されています。ベンチマークは、言語モデルの能力をテストするために作成された標準化されたタスクの集合です。 最初のいくつかの言語理解ベンチマークであるGLUEとSuperGLUEベンチマークを考慮すると、BERTやGPT-2などのモデルはより難解でした。これらのベンチマークを超えるように言語モデルが進化しているため、モデルの開発とベンチマークの難易度の間で競争が発生しています。モデルを大きくし、大規模なデータセットでトレーニングすることが性能向上のカギです。LLM(言語モデル)は、知識と数量的推論の能力を測定するさまざまなベンチマークで優れたパフォーマンスを示していますが、これらのモデルが現在の基準で高得点を取ると、これらのベンチマークはモデルの能力を評価するためにはもはや有用ではないことが明らかです。 これらの制限に対処するため、研究者チームはARB(Advanced Reasoning Benchmark)という新しいユニークなベンチマークを提案しました。ARBは数学、物理学、生物学、化学、法律など、さまざまな主題領域でより難解な問題を伝えるために作成されています。ARBは、以前のベンチマークとは異なり、複雑な推論問題に焦点を当ててLLMのパフォーマンスを向上させることを目指しています。チームはまた、ARBの一部として、洗練された象徴的思考と深い専門知識を要する数学と物理学の問題のセットを導入しました。これらの問題は非常に困難であり、現在のLLMの範囲外です。 チームは、GPT-4やClaudeなどの新しいモデルをARBベンチマークで評価しました。これらのモデルは、ARBに含まれるより困難なタスクにおいて50%未満のスコアで対応することが困難であることを示す結果が示されています。チームはまた、評価プロセスを改善するための評価基準に基づいた評価アプローチを示しました。この戦略を使用することで、GPT-4はARBの問題を解決しようとする際に自身の中間推論プロセスを評価することができます。これにより、レビュープロセスの範囲が広がり、モデルの問題解決戦略が明らかになります。 ARBの象徴的なサブセットは人間のレビューも受けています。人間の注釈者は問題を解決し、独自の評価を提供するように求められました。人間の評価者とGPT-4の評価基準に基づいた評価スコアとの間には有望な一致があり、モデルの自己評価が人間の判断と合理的に一致していることを示しています。数百の専門的な推論を必要とする問題があり、これまでにLLMが通常苦労してきた量的分野で、新しいデータセットは以前のベンチマークを大幅に上回っています。 過去のベンチマークの多肢選択問題とは異なり、多くの問題は短答えや自由回答の形式で構成されており、LLMの評価がより困難になります。専門レベルの推論タスクと現実的な問題形式の組み合わせにより、モデルが複雑な現実世界の問題を処理する能力をより正確に評価することが可能になります。

ジョージア工科大学の論文は、より速く潜在的な超伝導体を特定するAI手法を提案しています

「超電導体は、輸送、エネルギー、その他の産業において、最先端技術において重要な要素ですジョージア工科大学とハノイ科学技術大学の新しい論文は、AIによって駆動された手法を使用して、より迅速に潜在的な超電導体を特定することを提案しています論文によれば、共同チームは...」

「LG AI Researchが提案するQASA:新しいAIベンチマークデータセットと計算アプローチ」

人間は推論が得意であり、これが他の生物との違いです。推論には連想思考と論理的思考が含まれます。推論の一つの単純な方法は、何、いつ、どこ、なぜなどの質問をすることです。この推論によって、新たな発見や革新的なアイデアへと導かれることがあります。 さて、自分自身が自分自身の科学論文を書く際に行き詰まり、適切な好奇心のある質問をすることに困難を感じたと想像してください。科学論文や専門記事の量が増加しているため、従来のプロセスは時間がかかるため実現不可能となっています。科学論文を読むことで質問が生まれ、テストや深い質問が含まれることがありますが、これらはフルスタックの推論を必要とします。このような自然な高度な質問に答えるために、LGの研究者は科学論文に対する質問応答(QASA)アプローチを提案しています。これはフルスタックの認知推論を含んでいます。 研究者は、読者と著者が抽象的な部分だけでなく、科学論文全体を読みながら質問をするための3つのステップの手法を設計しました。最初は、読者が高度な表面的な質問、テスト、深い質問をすることを許可することです。次に、これらの質問と回答は、専門の読者が行った質問と比較されます。最後に、読者と著者は収集された質問に対して多面的な長文回答を提案するよう招待されます。 研究者によると、QASAにはAI/ML論文に関する1798の質問応答ペアが含まれています。平均して、各論文には15.1から29の質問があり、39.4%が深い推論レベルの質問です。彼らのQASAアプローチには、段落から関連情報を抽出するための連想的選択、各抽出段落から根拠のみを把握するための根拠生成、および根拠を包括的な回答に関連付けるための体系的な構成が含まれています。 現実的な質問を確保するために、質問者は自分の選んだ論文を選び、深い読書と呼ばれるすべてのセクションを読むか、スキム読書と呼ばれる特定のセクションを読むかを選択し、回答を含まない質問を準備することが許されています。回答者も、質問者が取り組んだ論文から関連する回答を提供するために論文を選ぶことができます。回答者は、選択した段落から自己生成された根拠に基づいて包括的な文章として回答するようにガイドされます。 研究者は、評価者が同じ質問に対して2つの回答を比較するペアワイズ評価手法を実施しました。評価者には、QASAスキームからの回答とInstructGPTからの回答の2つを提供しました。フルスタックのQAからの回答は、InstructGPTからの回答よりもより完全で根拠がある傾向があります。 QASAアプローチは、事前学習された言語モデル(LM)を使用して各サブタスクをモデリングします。公開および合成データは、科学論文と原稿におけるフルスタックの認知推論を提供するためのテストベッドとして機能することができます。これにより、有用な情報を手動で読み取り、再ランキングする労力が軽減されます。

「AIにおける説明可能性の勾配の必要性」

自動運転車、コンピュータビジョン、そして最近では大規模な言語モデルの進歩により、科学は時折魔法のようなものに感じられることもあります!モデルは日々ますます複雑になっており、それは…

「AIの求人市場の黙示録を避けるために:サバイバーのガイド — パート1」

「あなたはすでに空中で永続的に聞こえるブーンにイライラしているかもしれませんが、それは過熱したノートパソコンのファンの音だけではありませんそれは人工知能(AI)についての絶え間ない話し声です、特に...」

「FACTOOLにご紹介いたします:大規模言語モデル(例:ChatGPT)によって生成されたテキストの事実エラーを検出するためのタスクとドメインに依存しないフレームワーク」

GPT-4は、自然言語処理のいくつかのタスクを1つのシーケンス生成問題に統合した生成型の人工知能(AI)技術の一例です。この統合アーキテクチャは、優れた効率性と対話性を備えており、自然言語インターフェースを使用してコード生成、数学の問題解決、科学論文の作成などのさまざまな活動を実行することができます。ただし、このような生成型のパラダイムには特定の困難もあります。大規模言語モデル(LLM)の制約により、自動生成されたテキストはしばしばエラーや真実からの逸脱を示します。 LLMは説得力のある情報を作成する傾向がありますが、その事実についてはより正確で正確である必要があるかもしれません。この制約により、医療、金融、法律などの高いリスクを伴うさまざまな産業で生成型AIの使用が制限されます。したがって、生成された材料の有用性と信頼性を向上させるために、これらの誤りを体系的に特定することが重要です。たとえば、品質保証のための取得増強検証モデル、テキスト要約のための幻覚検出モデル、およびコードの実行に対する評価モデルなど、機械学習モデルによって生成される事実の誤りを検出および軽減するための現在の文献の焦点となっている特定のタスクがあります。 LLMが処理する活動とドメインの柔軟性の高さを考慮すると、これらのアプローチはそれぞれの分野で成功を収めています。ただし、同様に適応性のあるより包括的な事実性の検出および検証フレームワークも必要です。また、事実性の検出の問題は、現在の文献では次のいずれかの形で簡約されることがしばしばあります。すなわち、(i) 主張が与えられた場合に主張が事実的に正確であるかを評価すること、または(ii) 生成された主張が与えられた証拠によってサポートされているかを検出することです。 生成型モデル(ChatGPTなど)と関わる際にユーザーが頻繁に行う執筆タスクでは、明示的な主張や証拠がない長文生成の事実性を評価する必要があります。本研究では、上海交通大学、カーネギーメロン大学、香港城市大学、ニューヨーク大学、Meta AI、香港科技大学、上海人工知能研究所の研究者がFACTOOLを提案しています。FACTOOLは、LLMによって生成されたドキュメントの事実誤りを検出するためのタスクおよびドメインに依存しないフレームワークです。利用可能なデータを考慮して、コンテンツの事実性を評価するために、LLMの批判的思考能力を使用します。彼らはベンチマークを作成し、以下の4つのタスクについて実験を行っています: 知識ベースの品質保証 コードの生成 数学の問題解決 科学文献レビューの執筆 彼らは事実性の識別の仕事に取り組み、最新の生成型AIモデルをより包括的に監査するためにそれを拡張します。さまざまなドメインと活動にわたる事実性の識別のための統一かつ適応可能なフレームワークを提供するために、「ツールの使用」と「事実性の検出」を統合しています。FACTOOLを使用して現代のチャットボットの事実性を分析すると、GPT-4がほとんどの状況で最も高い事実性を持っていることがわかります。KBベースの品質保証テストでは、緻密に調整されたチャットボット(Vicuna-13B)が立派な事実性を持っていることが示されます。ただし、科学文献レビューや算術問題の解答など、より難しいタスクには苦労しています。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us