「ICML 2023でのGoogle」

Google at ICML 2023

Cat Armatoさんによる投稿、Googleのプログラムマネージャー

Googleは、言語、音楽、視覚処理、アルゴリズム開発などの領域で、機械学習(ML)の研究に積極的に取り組んでいます。私たちはMLシステムを構築し、言語、音楽、視覚処理、アルゴリズム開発など、さまざまな分野の深い科学的および技術的な課題を解決しています。私たちは、ツールやデータセットのオープンソース化、研究成果の公開、学会への積極的な参加を通じて、より協力的なエコシステムを広範なML研究コミュニティと構築することを目指しています。

Googleは、40回目の国際機械学習会議(ICML 2023)のダイヤモンドスポンサーとして誇りに思っています。この年次の一流学会は、この週にハワイのホノルルで開催されています。ML研究のリーダーであるGoogleは、今年の学会で120以上の採択論文を持ち、ワークショップやチュートリアルに積極的に参加しています。Googleは、LatinX in AIとWomen in Machine Learningの両ワークショップのプラチナスポンサーでもあることを誇りに思っています。私たちは、広範なML研究コミュニティとのパートナーシップを拡大し、私たちの幅広いML研究の一部を共有することを楽しみにしています。

ICML 2023に登録しましたか? 私たちは、Googleブースを訪れて、この分野で最も興味深い課題の一部を解決するために行われるエキサイティングな取り組み、創造性、楽しさについてさらに詳しく知ることを願っています。 GoogleAIのTwitterアカウントを訪れて、Googleブースの活動(デモやQ&Aセッションなど)について詳しく知ることができます。Google DeepMindのブログでは、ICML 2023での技術的な活動について学ぶことができます。

以下をご覧いただき、ICML 2023で発表されるGoogleの研究についてさらに詳しくお知りください(Googleの関連性は太字で表示されます)。

理事会および組織委員会

理事会メンバーには、Corinna CortesHugo Larochelleが含まれます。チュートリアルの議長には、Hanie Sedghiが含まれます。

Google Researchブースの活動

プレゼンター:Bryan PerozziAnton TsitsulinBrandon Mayer タイトル:Googleにおける非教師ありグラフ埋め込み(論文、EXPOワークショップ) 7月25日(火)午前10:30 HST

プレゼンター:Zheng Xu タイトル:差分プライバシーを用いたGboard言語モデルのフェデレーテッドラーニング(論文1、論文2、ブログ投稿) 7月25日(火)午後3:30 HST

プレゼンター:Thomas Kipf タイトル:自己教師ありのシーン理解(論文1、論文2) 7月26日(水)午前10:30 HST

プレゼンター:Johannes von OswaldMax Vladymyrov タイトル:トランスフォーマーが勾配降下法で文脈を学ぶ(論文) 7月26日(水)午後3:30 HST

採択論文

ビジョントランスフォーマーを220億パラメータにスケーリングする(ブログ投稿参照) Mostafa DehghaniJosip DjolongaBasil MustafaPiotr PadlewskiJonathan HeekJustin GilmerAndreas SteinerMathilde CaronRobert GeirhosIbrahim AlabdulmohsinRodolphe JenattonLucas BeyerMichael TschannenAnurag ArnabXiao WangCarlos RiquelmeMatthias MindererJoan Puigcerver, Utku EvciManoj KumarSjoerd van SteenkisteGamaleldin F. ElsayedAravindh MahendranFisher YuAvital OliverFantine HuotJasmijn BastingsMark Patrick CollierAlexey GritsenkoVighnesh BirodkarCristina VasconcelosYi TayThomas MensinkAlexander KolesnikovFilip PavetićDustin TranThomas KipfMario LučićXiaohua ZhaiDaniel KeysersJeremiah HarmsenNeil Houlsby

Transformersを介した高速な推論 – 仮説に基づくデコーディングによる Yaniv LeviathanMatan KalmanYossi Matias

両方の世界の最適化方針 – ポリシーの最適化における最善の手法 Christoph Dann、Chen-Yu Wei、Julian Zimmert

機械学習における流入、流出、および相互関係 Mukund SundararajanWalid Krichene

勾配降下によるTransformerの文脈学習 Johannes von OswaldEyvind NiklassonEttore Randazzo、João Sacramento、Alexander MordvintsevAndrey ZhmoginovMax Vladymyrov

大規模言語モデルのための平行多様デコーディングによる算術サンプリング Luke VilnisYury Zemlyanskiy、Patrick Murray*、Alexandre Passos*、Sumit Sanghai

概算保証を持つ差分プライバシー階層的クラスタリング(ブログ記事を参照)Jacob Imola*、Alessandro EpastoMohammad MahdianVincent Cohen-AddadVahab Mirrokni

プライベート機械学習のための多エポック行列分解メカニズム Christopher A. Choquette-ChooH. Brendan McMahanKeith RushAbhradeep Thakurta

モデルの選択に関係なく凸ポテンシャルブースターに対するランダム分類ノイズの敗北しないことを示す Yishay MansourRichard Nock、Robert Williamson

Simplexランダム特徴 Isaac Reid、Krzysztof Choromanski、Valerii Likhosherstov、Adrian Weller

ビジュアル言語理解のための事前トレーニングとしてのスクリーンショット解析 Pix2Struct Kenton LeeMandar Joshi、Iulia Turc、Hexiang Hu、Fangyu Liu、Julian EisenschlosUrvashi KhandelwalPeter ShawMing-Wei ChangKristina Toutanova

Mu2SLAM:マルチタスク、多言語音声および言語モデル Yong ChengYu ZhangMelvin JohnsonWolfgang MachereyAnkur Bapna

単一のサンプルによる堅牢な予算ペーシング Santiago Balseiro、Rachitesh Kumar*、Vahab MirrokniBalasubramanian SivanDi Wang

検索ベースモデルにおける統計的な視点 Soumya BasuAnkit Singh Rawat、Manzil Zaheer

テンソル分解のための近似最適なコア形状 Mehrdad Ghadiri、Matthew FahrbachGang FuVahab Mirrokni

バッチを使用した効率的なリスト復号回帰 Abhimanyu Das、Ayush Jain*、Weihao KongRajat Sen

少数のショット学習を使用した言語モデルの効率的なトレーニング Sashank J. ReddiSobhan MiryoosefiStefani KarpShankar KrishnanSatyen KaleSeungyeon KimSanjiv Kumar

マトロイド上の完全動的副モジュラ最大化 Paul Duetting、Federico Fusco、Silvio LattanziAshkan Norouzi-FardMorteza Zadimoghaddam

GFlowNet-EMで学習するための構成的潜在変数モデル、Edward J Hu、Nikolay Malkin、Moksh Jain、Katie Everett、Alexandros Graikos、Yoshua Bengio

AdオークションでのCTR予測のための改良されたオンライン学習アルゴリズム、Zhe FengChristopher Liaw、Zixin Zhou

大規模言語モデルはロングテールの知識を学習するのに苦労する、Nikhil Kandpal、Haikang Deng、Adam RobertsEric Wallace、Colin Raffel

予算とROIの制約を持つマルチチャネル自動入札、Yuan Deng、Negin Golrezaei、Patrick Jaillet、Jason Cheuk Nam Liang、Vahab Mirrokni

多層ニューラルネットワークは学習可能なヒルベルト空間のはしごである、Zhengdao Chen

ユーザーレベルのプライベート凸最適化について、Badih GhaziPritish KamathRavi KumarRaghu MekaPasin ManurangsiChiyuan Zhang

PAC一般化における不変表現、Advait U Parulekar、Karthikeyan Shanmugam、Sanjay Shakkottai

正則化と分散重み付き回帰は線形MDPで最小極限最適性を達成する:理論と実践、Toshinori Kitamura、Tadashi Kozuno、Yunhao Tang、Nino Vieillard、Michal Valko、Wenhao Yang、Jincheng Mei、Pierre Menard、Mohammad Gheshlaghi Azar、Remi Munos、Olivier PietquinMatthieu Geist、Csaba Szepesvari、Wataru Kumagai、Yutaka Matsuo

ベルマンフォードの高速化:最小違反順列を用いて、Silvio Lattanzi、Ola Svensson、Sergei Vassilvitskii

学習アルゴリズムの統計的区別性、Alkis Kalavasis、Amin KarbasiShay Moran、Grigoris Velegkas

スロット中心モデルによるテスト時間の適応、Mihir Prabhudesai、Anirudh Goyal、Sujoy PaulSjoerd van SteenkisteMehdi S. M. SajjadiGaurav AggarwalThomas Kipf、Deepak Pathak、Katerina Fragkiadaki>

ユーザーレベルのプライバシーの下でのヒストグラム推定への貢献の境界づけアルゴリズム、Yuhan Liu*、Ananda Theertha SureshWennan ZhuPeter KairouzMarco Gruteser

ヒントとクエリを使用したバンディットオンライン線形最適化、Aditya Bhaskara、Ashok Cutkosky、Ravi KumarManish Purohit

CLUTR:カリキュラム学習による教師なしタスク表現学習、Abdus Salam Azad、Izzeddin Gur、Jasper Emhoff、Nathaniel Alexis、Aleksandra Faust、Pieter Abbeel、Ion Stoica

CSP:地理空間ビジュアル表現のための自己教師付き対照的空間事前学習、Gengchen Mai、Ni Lao、Yutong He、Jiaming Song、Stefano Ermon

分子グラフのためのEwaldベースの長距離メッセージパッシング、Arthur Kosmala、Johannes Gasteiger、Nicholas Gao、Stephan Günnemann

バイナリ行列分解のための高速(1+ε)-近似アルゴリズム、Ameya Velingker、Maximilian Vötsch、David Woodruff、Samson Zhou

ユーザーレベルの差分プライバシーを持つフェデレーテッド線形コンテキストバンディット、Ruiquan Huang、Huanyu Zhang、Luca Melis、Milan Shen、Meisam Hejazinia、Jing Yang

モデルベースの学習が探索と転送に果たす役割の調査 ジェイコブ・C・ウォーカー、エスター・ヴェルテス、李燁、ガブリエル・デュラック・アーノルド、アンケシュ・アナンド、テオファネ・ウェーバー、ジェシカ・B・ハムリック

ラベルの差分プライバシーとプライベートトレーニングデータのリリース ロバート・ブサ・フェケテアンドレス・ムニョスウマル・シャイードセルゲイ・ヴァシルヴィツキー

分布に特化した専門家を用いた生涯言語の事前学習 チェン・ウーヤン、周雁琪杜楠黄燕萍ジェームズ・ローダン陳志峰クレア・クイ

低ランク報酬を持つマルチユーザ強化学習 ディラージュ・マイソア・ナガラージュ、スハス・S・コウシック、ナマン・アガルワルプラニート・ネトラパリプラティーク・ジェイン

視覚ロボット操作のためのマルチビューマスクワールドモデル イョンギョ・ソ、キム・ジュンス、スティーブン・ジェームズ、キミン・リー、シン・ジンウ、ピーター・アベール

PaLM-E: 体現された多モーダル言語モデル(ブログ記事を参照) ダニー・ドリースフェイ・シアメフディ・S・M・サジャディコリー・リンチアーカンシャ・チョウダリーブライアン・イッチャーアイザーン・ワヒドジョナサン・トンプソンクアン・ヴオンティアンヘ・ユーウェンロング・ホアンイエヴゲン・チェボタルピエール・セルマネダニエル・ダックワースセルゲイ・レヴィンヴィンセント・ヴァンホウキカロル・ハウスマン、マルク・トゥサン、クラウス・グレフアンディ・ゼングイゴール・モーダッチピート・フローレンス

オートチューン圧縮によるプライベートフェデレーテッドラーニング エナヤト・ウラー、クリストファー・A・ショケット・チューピーター・カイルーズセウング・オー

線形関数近似を用いた敵対的MDPのための洗練された遺憾 Yan Dai、Haipeng Luo、Chen-Yu Wei、ジュリアン・ジンメルト

一定のメモリでImageNet-1Kへのデータセットの蒸留のスケーリングアップ Justin Cui、Ruoche Wan、シー・シー、Cho-Jui Hsieh

AdaGradステップサイズでのSGD:未知のパラメータ、非有界勾配、アフィン分散に対して高確率で完全な適応性を持つ Amit Attia、トメール・コレン

値の推定のための分位数時間差学習の統計的利点 Mark Rowland、Yunhao Tang、Clare Lyle、Rémi Munos、マーク・G・ベルマレ、ウィル・ダブニー

画像特徴の霧の中で位置情報パターンのマスクを揭示する Chieh Hubert Lin、Hung-Yu Tseng、Hsin-Ying Lee、Maneesh Kumar Singh、ミン・ホーシュアン・ヤン

最適な率でのユーザーレベルのプライベートな確率的凸最適化 Raef Bassily、ズィテン・サン

テキスト-イメージモデルでのプロンプトアンサンブルを改善するためのシンプルなゼロショットプロンプトウェイト技術 James Urquhart Allingham、ジエ・レンマイケル・W・デューセンベリーシュイエ・グーユイン・ツイダスティン・トランジェレマイア・ジェイ・リュウバラジ・ラクシュミナラヤナン

大規模な言語モデルはプログラムの不変性について論じることができるか? ペイ・カクシンデビッド・ビーバーケンセン・シチャールズ・サットンペンチェン・ユイン

連続観測下の同時シャッフル差分プライバシー Jay Tenenbaum, Haim Kaplan, Yishay Mansour, Uri Stemmer

定数の重要性:差分プライベート連続観測における細かい誤差境界 Hendrik Fichtenberger, Monika Henzinger, Jalaj Upadhyay

交差エントロピー損失関数:理論的分析と応用 Anqi Mao, Mehryar Mohri, Yutao Zhong

オンライン関数近似を用いた敵対的なコンテキストMDPの効率的なレート最適遺憾 Orin Levy, Alon Cohen, Asaf Cassel, Yishay Mansour

マトロイド制約を持つストリーミング副標本最大化における公正性 Marwa El Halabi, Federico Fusco, Ashkan Norouzi-Fard, Jakab Tardos, Jakub Tarnawski

The Flan Collection:効果的なインストラクションチューニングのためのデータとメソッドの設計(ブログ記事を参照) Shayne Longpre, Le Hou, Tu Vu, Albert Webson, Hyung Won Chung, Yi Tay, Denny Zhou, Quoc V Le, Barret Zoph, Jason Wei, Adam Roberts

ネットワーク制御のためのグラフ強化学習によるバイレベル最適化 Daniele Gammelli, James Harrison, Kaidi Yang, Marco Pavone, Filipe Rodrigues, Francisco C. Pereira

複数の分位数リリースのための学習拡張プライベートアルゴリズム Mikhail Khodak*、Kareem Amin, Travis Dick, Sergei Vassilvitskii

LegendreTron:適切な多クラス損失学習 Kevin H Lam, Christian Walder, Spiridon Penev, Richard Nock

プログラミング言語の分布の影響の測定 Gabriel Orlanski*, Kefan Xiao, Xavier Garcia, Jeffrey Hui, Joshua Howland, Jonathan Malmaud, Jacob Austin, Rishabh Singh, Michele Catasta*

分布の偏りの下でのマルチタスク差分プライバシー Walid Krichene, Prateek Jain, Shuang Song, Mukund Sundararajan, Abhradeep Thakurta, Li Zhang

Muse:マスクされた生成トランスフォーマーによるテキストから画像への生成 Huiwen Chang, Han Zhang, Jarred Barber, AJ Maschinot, José Lezama, Lu Jiang, Ming-Hsuan Yang, Kevin Murphy, William T. Freeman, Michael Rubinstein, Yuanzhen Li, Dilip Krishnan

循環クライアント参加を伴うフェデレーテッド平均化の収束について Yae Jee Cho, Pranay Sharma, Gauri Joshi, Zheng Xu, Satyen Kale, Tong Zhang

オンラインから非凸への変換による最適確率非滑らか非凸最適化 Ashok Cutkosky, Harsh Mehta, Francesco Orabona

ターゲット指向の拡張によるドメイン外の頑健性 Irena Gao, Shiori Sagawa, Pang Wei Koh, Tatsunori Hashimoto, Percy Liang

無限ガウス混合モデルの多項式時間とプライベート学習 Jamil Arbas, Hassan Ashtiani, Christopher Liaw

事前計算メモリまたはオンザフライエンコーディング? 検索の拡張におけるハイブリッドアプローチ Michiel de Jong, Yury Zemlyanskiy, Nicholas FitzGerald, Joshua Ainslie, Sumit Sanghai, Fei Sha, William W. Cohen

スケーラブルな適応的計算のための反復生成 Allan Jabri*、David J. FleetTing Chen

スケーリング球状CNN Carlos Esteves、Jean-Jacques Slotine、Ameesh Makadia

スクラッチからのN:M構造化スパースマスクの学習STEP Yucheng Lu、Shivani AgrawalSuvinay SubramanianOleg Rybakov、Christopher De Sa、Amir Yazdanbakhsh

拒否を伴う層別の敵対的な頑健性 Jiefeng Chen、Jayaram Raghuram、Jihye Choi、Xi Wu、Yingyu Liang、Somesh Jha

特権情報はラベルノイズを説明する時にいつ効果があるのか?Guillermo Ortiz-Jimenez*、Mark CollierAnant NawalgariaAlexander D’AmourJesse BerentRodolphe JenattonEffrosyni Kokiopoulou

弾力性のある入力シーケンスにおける適応的計算 Fuzhao Xue*、Valerii LikhosherstovAnurag ArnabNeil HoulsbyMostafa Dehghani、Yang You

ニューラルネットワークの記憶は局所化できるのか? Pratyush Maini、Michael C. MozerHanie Sedghi、Zachary C. Lipton、J. Zico Kolter、Chiyuan Zhang

制御可能性に配慮した非教示スキルの発見 Seohong Park、Kimin Lee、Youngwoon Lee、Pieter Abbeel

バイストライド多スケールグラフニューラルネットワークによるメッシュベースの物理シミュレーションの効率的な学習 Yadi Cao、Menglei Chai、Minchen Li、Chenfanfu Jiang

線形スケッチングにおけるフェデレーテッド・ヘビーヒッター・リカバリー Adria GasconPeter KairouzZiteng SunAnanda Theertha Suresh

ベンチマーキング・グラフニューラルネットワークのためのグラフ生成モデル Minji Yoon、Yue Wu、John PalowitchBryan Perozzi、Russ Salakhutdinov

ペアワイズ・ミスランキング・ロス・サロゲートのためのH-一貫性の境界 Anqi Mao、Mehryar Mohri、Yutao Zhong

線形関数近似による効率的なオンライン強化学習のための改善済みの遺憾 Uri Sherman、Tomer KorenYishay Mansour

不変スロットアテンション:スロット中心の参照フレームによるオブジェクトの発見 Ondrej Biza*、Sjoerd van SteenkisteMehdi S. M. SajjadiGamaleldin Fathy ElsayedAravindh MahendranThomas Kipf

バンディットフィードバックからのマルチタスクオフポリシー学習 Joey Hong、Branislav Kveton、Manzil Zaheer、Sumeet Katariya、Mohammad Ghavamzadeh

片側リプシッツ関数に対する最適なノーリグレット学習 Paul DuettingGuru GuruganeshJon SchneiderJoshua Ruizhi Wang

平均場ゲームでの効率的かつ独立した学習のためのポリシーミラーアセント Batuhan Yardim、Semih Cayci、Matthieu Geist、Niao He

一般総和マルコフゲームにおける遺憾最小化と均衡への収束 Liad Erez、Tal Lancewicki、Uri Sherman、Tomer KorenYishay Mansour

複数の報酬で強化学習をより効率的にすることができる Christoph DannYishay MansourMehryar Mohri

履歴依存型動的コンテキストによる強化学習 Guy Tennenholtz、Nadav Merlis、Lior ShaniMartin MladenovCraig Boutlier

物理的な動的システムの拡散モデルにおけるユーザー定義のイベントサンプリングと不確実性量子化 Marc Anton Finzi*、Anudhyan Boral、Andrew Gordon Wilson、Fei ShaLeonardo Zepeda-Nunez

離散キーバリューボトルネック Frederik Träuble、Anirudh Goyal、Nasim Rahaman、Michael Curtis Mozer、Kenji Kawaguchi、Yoshua Bengio、Bernhard Schölkopf

DSGD-CECA:通信最適な正確なコンセンサスアルゴリズムを用いた分散SGD Lisang Ding、Kexin Jin、Bicheng Ying、Kun Yuan、Wotao Yin

グラフ用の疎なトランスフォーマー:Exphormer Hamed Shirzad、Ameya VelingkerBalaji Venkatachalam、Danica J. Sutherland、Ali Kemal Sinop

高速、微分可能、スパースなTop-k:凸解析の視点 Michael Eli Sander*、Joan PuigcerverJosip Djolonga、Gabriel Peyré、Mathieu Blondel

アルゴリズムリソース割り当てのランダム化試験における改善されたポリシー評価 Aditya Mate、Bryan Wilder、Aparna TanejaMilind Tambe

ソースフリードメイン適応の汎化可能な手法を探索するために Malik Boudiaf*、Tom DentonBart van MerrienboerVincent DumoulinEleni Triantafillou

分布シフトの存在下での学習率スケジュール Matthew FahrbachAdel JavanmardVahab MirrokniPratik Worah

すべての意味が同じではない:自己教師あり学習と自動温度個別化を用いた対照的な学習 Zi-Hao Qiu、Quanqi Hu、Zhuoning Yuan、Denny Zhou、Lijun Zhang、Tianbao Yang

説明と予測の関係について:因果関係の視点 Amir-Hossein Karimi*、Krikamol Muandet、Simon Kornblith、Bernhard Schölkopf、Been Kim

プロンプトチューニングにおける注意の役割 Samet Oymak、Ankit Singh Rawat、Mahdi Soltanolkotabi、Christos Thrampoulidis

レイテントディフュージョンを用いたパラメトリックなレイアウト生成の PLay Chin-Yi ChengForrest HuangGang LiYang Li

非線形ポリシーオプティマイゼーションのための学習済み局所線形モデルの力 Daniel Pfrommer、Max Simchowitz、Tyler Westenbroek、Nikolai Matni、Stephen Tu

グラフニューラルネットワークの説明のための関連ウォーク検索 Ping Xiong、Thomas Schnake、Michael Gastegger、Grégoire Montavon、Klaus Robert Muller、Shinichi Nakajima

コードの大規模言語モデルのためのリポジトリレベルのプロンプト生成 Disha Shrivastava、Hugo LarochelleDaniel Tarlow

頑健でプライベートな確率的線形バンディット Vasileios Charisopoulos*、Hossein EsfandiariVahab Mirrokni

シンプルディフュージョン:高解像度画像のためのエンドツーエンドディフュージョン Emiel HoogeboomJonathan HeekTim Salimans

結びつけられた拡張:表現の類似性を制御することでデータ拡張を改善する Emirhan Kurtulus、Zichao LiYann DauphinEkin D. Cubuk

なぜ公開事前学習はプライベートモデルトレーニングに必要なのか?Arun Ganesh、Mahdi Haghifam*、Milad NasrSewoong OhThomas SteinkeOm ThakkarAbhradeep Guha ThakurtaLun Wang

一ステップRLと強化学習の評価規制の間の接続Benjamin EysenbachMatthieu GeistSergey Levine、Ruslan Salakhutdinov

差分プライベート最適化における均一リプシッツ条件の先行研究*Rudrajit Das*、Satyen KaleZheng XuTong Zhang、Sujay Sanghavi

効率的なグラフフィールドインテグレータとポイントクラウドの出会いKrzysztof Choromanski、Arijit Sehanobish、Han Lin、Yunfan Zhao、Eli Berger、Tetiana Parshakova、Alvin Pan、David Watkins、Tianyi Zhang、Valerii Likhosherstov、Somnath Basu Roy Chowdhury、Avinava DubeyDeepali JainTamas Sarlos、Snigdha Chaturvedi、Adrian Weller

組み合わせ最適化を用いたニューラルネットワークプルーニングの高速化Riade Benbaki、Wenyu Chen、Xiang Meng、Hussein HazimehNatalia PonomarevaZhe Zhao、Rahul Mazumder

リインフォースメントラーニングのジャンプスタート(ブログ記事を参照)Ikechukwu Uchendu*、Ted XiaoYao Lu、Banghua Zhu、Mengyuan Yan、Joséphine Simon、Matthew Bennice、Chuyuan Fu、Cong Ma、Jiantao Jiao、Sergey LevineKarol Hausman

POMDPでの学習は、ヒンドサイト観測可能性によりサンプル効率的Alekh Agarwal、Christoph DannTong Zhang、Jonathan Lee

ES-Singleによる展開計算グラフの低分散勾配推定Paul Vicol

予測、表現、制御のためのマスクされた軌道モデルPhilipp Wu、Arjun Majumdar、Kevin Stone、Yixin Lin、Igor Mordatch、Pieter Abbeel、Aravind Rajeswaran

特徴シーブを使用したディープネットワークの単純性バイアスの克服Rishabh TiwariPradeep Shenoy

広告オークションの福利最大化のためのクリックスルーレート予測のペアワイズランキング損失Boxiang Lyu、Zhe Feng、Zachary Robertson、Sanmi Koyejo

高速なFord-Fulkersonのための予測フローSami Davies、Benjamin Moseley、Sergei VassilvitskiiYuyan Wang

多言語ニューラル機械翻訳のスケーリング則Patrick FernandesBehrooz GhorbaniXavier GarciaMarkus FreitagOrhan Firat

時系列構造の発見のための順次モンテカルロ学習Feras SaadBrian PattonMatthew Douglas HoffmanRif A. SaurousVikash Mansinghka

バンディット問題における確率的勾配の成功Jincheng Mei、Zixin Zhong、Bo DaiAlekh Agarwal、Csaba Szepesvari、Dale Schuurmans

プライベート推定におけるサブセットベースのインスタンス最適性Travis DickAlex KuleszaZiteng SunAnanda Theertha Suresh

機械翻訳におけるフューショット学習の非合理的な効果 ザビエル・ガルシア、ヤミニ・バンサル、コリン・チェリージョージ・フォスターマキシム・クリクン、メルビン・ジョンソン、オルハン・フィラット

チュートリアル

ビジョンにおける自己教師あり学習:研究の進歩からベストプラクティスへのガイド チェン・シンレイ、イーシャン・ミスラ、ランドール・バレストリエロ、マチルド・カロン、クリストフ・フェイヒテンホーファー、マーク・イブラヒム

DP-fy MLの方法:差分プライバシーによる機械学習の実践的なチュートリアル(ブログ投稿を参照) セルゲイ・ヴァシリヴィツキナタリア・ポノマレヴァツェン・シン

ニューラルネットワークの一般化理論の最近の進展 テングユ・マアレックス・ダミアン

EXPOデイのワークショップ

Tensorflowにおけるグラフニューラルネットワーク:実践的なガイド ブライアン・ペロッツィ、アントン・ツィツーリンブランドン・メイヤージョナサン・ハルクロウなどの主催者

Googleスポンサードの関連ワークショップ

LatinX in AI(LAXAI)プラチナスポンサーの基調講演者:モニカ・リベロ パネリスト:Yao Qin

Women in Machine Learning(WiML)プラチナスポンサーパネリスト:Yao Qin

ワークショップ

実践におけるフェデレーテッドラーニングと分析:アルゴリズム、システム、アプリケーション、機会 主催者:ピーター・カイルズツェン・シン スピーカー:ブレンダン・マクマハン

ヘルスケアにおける解釈可能な機械学習(IMLH) 主催者:ラミン・ザビフ

データ駆動型学習の時代における知識と論理的推論(Beliz Günel) 主催者:ベリズ・グネル

選好に基づく学習の多様な側面(MFPL) 主催者:ロバート・ブーサ・フェケテモハマド・ガヴァムザデ

科学と機械学習モデリングの相乗効果(SynS & ML) スピーカー:セルカン・アリック

コミュニケーションエージェントにおけるマインド理論(Pei Zhou) 主催者:ペイ・チョウ

人工知能とヒューマンコンピュータインタラクション 主催者:李陽フォレスト・ホワイト

データ中心の機械学習研究(DMLR) 主催者:アリシア・パリッシュナジョン・キム スピーカー:ピーター・マットソン

情報理論からアプリケーションへのニューラル圧縮 スピーカー:ヨハネス・バレ パネリスト:ジョージ・トデリチ

ニューラル対話AIワークショップ – 信頼性、拡張性、適応性、能力、人間中心のチャットボットに残された課題 主催者:アフマド・ベイラミ

見かけの相関、不変性、安定性(SCIS) 主催者:アミール・フェデル


* Googleでの作業

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

ラミニAIに会ってください:開発者が簡単にChatGPTレベルの言語モデルをトレーニングすることができる、革命的なLLMエンジン

LLMをゼロから教えることは難しいです。なぜなら、微調整されたモデルがなぜ失敗するのかを理解するのには時間がかかり、小さ...

人工知能

カスタム指示でChatGPTを自分のニーズに合わせて調整する

最近、OpenAIはChatGPTの最大限の活用をするためにカスタムインストラクションを導入しました

人工知能

2023 AIインデックスレポート:将来に期待できるAIトレンド

レポートからいくつかの要点があり、これらはAIの将来に備えるための準備をしてくれます

AIニュース

「交通バスのカメラを使用して交通を監視する」

オハイオ州立大学の研究者は、既にキャンパスエリアバスサービスの公共交通バスに設置されているカメラを使用して交通を監視...

機械学習

「メタに立ち向かい、開発者を強力にサポートするために、アリババがAIモデルをオープンソース化」

重要な進展として、中国の電子商取引巨人であるアリババが、強力な人工知能モデルをサードパーティの開発者に公開することを...

コンピュータサイエンス

「ナノフォトニクスがカメラレンズを平らにする」

「ナノスケールメタ光学は、スマートフォンから隆起を取り除きながら、より良いイメージングの可能性を秘めています」