人工知能(AI)と法的身分
AIと法的身分の関係:人工知能の進化がもたらす課題
この記事では、特に民法に基づいて人工知能(AI)に法的主体の地位を付与する問題に焦点を当てます。法的身分は、法的能力の概念と一体化して定義されますが、これは道徳的主体性が道徳的人格と同じであることを意味するものではありません。法的身分は、特定の主体に認識されることも、他の主体に割り当てられることもできる複雑な属性です。
私はこの属性がグレード分けされ、離散的で不連続的で多面的で変容性があると考えています。つまり、それは異なる種類(義務、権利、権限など)の要素をより多くまたは少なく含むことができますが、これらの多くの場合、立法者によって追加または削除できます。法的に剥奪できないと一般的に考えられている人権は例外です。
現在、人類は技術の一つから別の技術への移行に関連した社会変革の時期に直面しています。「スマート」な機械やソフトウェアは非常に素早く学習しています。人工知能システムは多くの活動で人々を置き換える能力をますます持つようになっています。人工知能技術の改善により、そのシステムが完全に自律的な意思決定を行い、「主観的な意志」を示すレベルに達したため、人工知能システムを法的主体として認識するという問題がますます頻繁に発生しています。この問題は20世紀に仮説的に提起されました。21世紀になり、科学的な議論が着実に進化し、自動車の自動運転や新機能を備えたロボットの登場など、新しい人工知能モデルの導入ごとに新たな極端に到達しています。
人工知能の地位を決定する法的問題は、新しい人工知能モデルの開発のすべての可能な結果を予測することが客観的に不可能であるため、一般的な理論的な性質を持っています。しかし、人工知能システム(AIシステム)は既に特定の社会関係の実際の参加者です。これにより、法的に確固たる基準を設定する必要性、つまり法的結束のためのこの領域における基本的な問題の解決が求められることになります。これにより、将来的に人工知能システムを含む関係の発展を予測する際の不確実性が軽減されます。
- AIを通じて、AskEllyn Bridgesは乳がん患者のサポートギャップを埋める
- 生成AI 最初のドラフト、最終的なものではない
- 2023年10月:オクタが新しいアイデンティティイノベーションを発表して、AI時代のセキュリティを確保します
記事のタイトルで言及される人工知能の研究対象としての所与の同一性の問題は、すべての人工知能システム、特に自律意思を主張しない多くの「電子アシスタント」をカバーしているわけではありません。それらの機能は限定的であり、狭義(弱い)人工知能を表しています。むしろ、私たちはますます一般的な(強力な)人工知能に近づいている「スマートマシン」(サイバーフィジカルインテリジェントシステム)や仮想インテリジェントシステムの生成モデルに言及するでしょう。将来的には、これらは人間の知能と比較可能な一般的な人工知能になるでしょう。
2023年までに、ChatGPT、DALL-eなどの多モーダルニューラルネットワークによって強力な人工知能の創造の問題が緊急に提起されました。これらの知的能力は、パラメータの数の増加(人間にはアクセスできない知覚のモダリティを含む)、および人間が物理的に処理できない大量のデータを使用することによって向上されます。たとえば、多モーダル生成モデルのニューラルネットワークは、人間または人工知能システムによって作成されたかどうかを区別することができないような画像、文学的・科学的テキストを生成することができます。
IT専門家は、2つの質的な飛躍点を強調しています。速度跳躍(新しいモデルの出現頻度が年単位ではなく月単位で測定されること)と変動性跳躍(人工知能の分野においてさえ、年末までに何が起こるかを正確に予測することができないこと)です。ChatGPT-3モデル(OpenAIの自然言語処理アルゴリズムの第3世代)は2020年に導入され、テキストを処理することができました。次世代モデルであるChatGPT-4は2023年3月にメーカーによって立ち上げられ、テキストだけでなく画像も「処理」できます。さらに学習し、ますます多くのことができるようになります。
数年前には、機械の発展がほぼ制御不可能かつ不可逆的になり、人間の文明を劇的に変える技術的特異点の到来が少なくとも数十年かかると考えられていましたが、現在ではより多くの研究者がそれがはるかに早く起こる可能性があると考えています。これは、人間の知能と同等の能力を示すストロング人工知能の登場を意味します。弱い人工知能とは異なり、ストロングAIは意識を持つでしょう。しかし、知的システムに意識が生じるための重要な条件の1つは、異なる感覚モダリティ(テキスト、画像、ビデオ、音声など)からのデータを統合し、異なるモダリティの情報を現実に関連づけ、人間に固有の完全なホリスティックな「世界のメタファー」を創造することができる多モーダル動作を実行できる能力です。
2023年3月、人工知能の研究者、IT専門家、起業家など1000人以上が「未来の生活研究所」のウェブサイトに掲載されたオープンレターに署名しました。未来の生活研究所は、人類への存在リスクを調査することに特化したアメリカの研究センターです。この書簡では、新たな生成的なマルチモーダルニューラルネットワークモデルのトレーニングを一時停止するよう求めています。統一されたセキュリティプロトコルの欠如や法的な空白は、人工知能の開発速度が「ChatGPT革命」により劇的に増加したことから、リスクを大幅に増大させています。また、人工知能モデルは開発者の意図しない未解明の能力を持つようになり、その割合は徐々に増加する可能性があるとも指摘されています。さらに、このような技術革命は、知能化ガジェットの創造を劇的に促進し、人工知能アシスタントとの常時のコミュニケーションで育った現代の子供たちは、従来の世代とは大きく異なる存在となるでしょう。
人類が新しい状況に適応するために人工知能の発展を妨げることは可能でしょうか?理論的には、すべての国が国内法を通じてこれを容易にするならば可能です。しかし、公表された国家戦略に基づくと、各国はこれを行わないでしょう。逆に、各国は競争に勝つことを目指しています。
人工知能の能力は起業家を魅了しており、ビジネスは新たな開発に大きな投資をしています。毎年の投資額は、民間と国家の開発への投資を考慮して数百億ドルに上ります。2022年5月3日付けの欧州議会の決議「デジタル時代の人工知能に関するもの」によると、2030年までに人工知能が世界経済に与える貢献は11兆ユーロを超えると予想されています。
実務指向のビジネスは、経済のあらゆる分野で人工知能技術の実装を進めています。人工知能は採掘業や製造業(冶金、燃料化学工業、工学、金属加工など)の両方で使用されています。開発製品の効率を予測したり、組立ラインを自動化したり、不良品を減らしたり、物流を改善したり、停止時間を防止するためにも人工知能が活用されています。
交通分野では、自動運転車や交通流予測による経路最適化、危険な状況の予防を含めた安全確保などに人工知能が活用されています。自動運転車の一般道への参入は、世界中の議会で議論が激化している問題です。
銀行業界では、人工知能システムが借り手の信用力評価で人間の役割をほぼ完全に代替しています。また、新しい銀行製品の開発やバンキングトランザクションのセキュリティ強化にも人工知能がますます使用されています。
人工知能技術は、医療、教育、雇用など、ビジネスだけでなく社会的な領域にも広がっています。人工知能の医療への応用により、より良い診断や新薬の開発、ロボット支援手術が可能になります。教育では、個別の授業や学生の自動評価、教員の専門知識の評価などが可能になります。
現在、雇用はプラットフォーム雇用の指数関数的な成長により変化しています。国際労働機関によると、人工知能に支えられたデジタル雇用プラットフォームを通じて働く人々の割合が世界中で着実に増加しています。プラットフォーム雇用は労働変革の唯一の要素ではありません。生産のロボット化のレベルも増加しており、国際ロボット工業連合によると、世界中で工業用ロボットの数は増加し続けており、最も高いペースのロボット化は中国と日本を中心にアジアで観察されています。
実際、生産管理のためにデータを解析する人工知能の能力は、政府にとって大きな関心事です。人工知能は、公共行政に実装されています。現在では、公共サービスのためのデジタルプラットフォームの作成や政府機関の意思決定に関連する多くのプロセスの自動化に対する取り組みが活発化しています。
「人工的な人格」と「人工的な社会性」という概念は、公共の議論でもより頻繁に言及されるようになっています。これは、インテリジェントシステムの開発と実装が単なる技術的分野から、人道的および社会文化的活動への統合手段の研究に移行していることを示しています。
以上を踏まえると、人工知能が人々の生活にますます深く浸透していることがわかります。人工知能システムの存在は、今後の数年間でより明確になり、職場や公共空間、サービスや家庭での存在が増えるでしょう。人工知能はさまざまなプロセスの知能化により、より効率的な結果を提供し続けることで、個人、コミュニティ、国家に対して新たな機会と脅威をもたらすでしょう。
知性が高まるにつれて、AIシステムは必然的に社会の一部となり、人々はそれらと共存する必要があります。このような共生は、ヒューマンと「スマート」な機械との協力を含みます。ノーベル経済学賞受賞者のJ.スティグリッツによれば、これは文明の変革につながるとされています(Stiglitz、2017)。今日では、一部の法律家によれば、「人間と人工知能が同じタスクを実行する場合、人間の福祉を向上させるために、法律はその活動に区別を付けるべきではない」とも言われています(Abbott、2020)。また、人間に似た形態を持つヒューマノイドロボットの開発が進むことにより、彼らが社会のパートナーとしての性別の役割を果たすことも考慮されるべきです(Karnouskos、2022)。
国家は社会関係の変化に適応する必要があります:世界中で人工知能システムを含む関係を規制する法律の数は急速に増えています。スタンフォード大学のAI指数報告2023によると、2016年には1つの法律が採択されただけでしたが、2018年には12の法律が、2021年には18の法律が、2022年には37の法律が採択されました。これにより、国連は人工知能の倫理に関する立場を定義することを決定しました。2022年9月、UNESCO総会によって1年前に採択された人工知能の倫理に関する勧告に基づき、人工知能の倫理的使用の原則を含んだ文書が公開されました。しかし、人工知能技術の発展と実装のペースは関連する法制度の変化のペースよりも遥かに早いです。
人工知能の法的容認の基本概念
知的システムに法的容認を可能にする概念を考慮する際には、これらのアプローチのいずれを実施するためには、既存の法学の一般理論を根本的に再構築し、特定の法律の分野のいくつかの規定を改正する必要があると認めるべきです。異なる意見の支持者はしばしば「電子人間」という言葉を使っているため、この用語の使用だけでは、著作の著者がどのコンセプトを支持しているのかを判断することはできません。
最も過激で、明らかに科学界では最も人気のないアプローチは、人工知能の個別の法的容認の概念です。このアプローチの支持者は、「完全な包括性」(極度の包括主義)というアイデアを提唱しており、これはAIシステムに人間と同様の法的地位を与え、彼ら自身の利益(Mulgan、2019年)を認めることを意味します。社会的な意義や社会的内容(社会価値)があります。これは、「ロボットの物理的な具現化は、人々がこの動くオブジェクトを生きているかのように扱う傾向にある。それは特にロボットが人間の身体に似た特徴を持っている場合にはっきりと示される。人々は感情や快楽、苦痛、ケアの感情、関係を確立したいという欲求を投影し始める」(Avila Negri、2021年)。無生物の物体に人間の感情を投影するというアイデアは、人類の歴史に遡るものですが、ロボットに適用すると多くの含意をもたらします(Balkin、2015年)。
このポジションの法的確認の前提条件は通常、次のように述べられます:
– AIシステムは人間の認知機能と比較可能なレベルに達しています;
– ロボットと人間の類似性の度合いが高まっています;
– 人間らしさ、インテリジェントシステムの潜在的な「苦しみ」からの保護。
必要条件の一覧から明らかなように、すべての条件は高度に理論化されたものであり、主観的な評価を伴っています。特に、人間と似たような機能を持つロボット(アンドロイド)の作成の傾向は、自分たちと同じような対象と「会社」で快適に感じる人々の日常的な心理的および社会的なニーズによって推進されています。一部の現代のロボットは、それらが行う機能によって他の制約的な特性を持っており、これには堅牢な構造と効率的な重量分配が優先される「再利用可能」な配達ロボットが含まれます。この場合、このプリレクイジットの最後が発揮されます。これは、人間の心におけるロボットとペットの飼い主間の感情的な絆と同様の感情的な絆の形成によるものです(Grin、2018年)。
人工知能システムの法的地位と人間の「完全な包括性」のアイデアは、一部の法学者の著作に反映されています。憲法や部門法の規定には人格の法的定義が含まれていないため、「人格」という概念は憲法と法律の意味で広範な解釈が可能です。この場合、個人は、認知能力が十分に発達していると認められた知能の保有者を包括することになります。A.V.ネチキンによれば、このアプローチの論理は、人間と他の生物との本質的な違いは、彼らの高度に発達した知性であるということです(Nechkin、2020年)。人工知能システムの権利の認識は、差別されてきた人々に対して法的承認を徐々に拡大している法制度の進化の次の段階のように思われます。今日では非人間にもアクセスを提供しています(Hellers、2021年)。
このような法的地位がAIシステムに与えられる場合、このアプローチの支持者は、憲法的および法的な解釈における市民の文字通りの権利を与えるのではなく、それらの類似物および一定の市民権利と一部の偏差を認めることが適切と考えています。この立場は、人間とロボットの間の客観的な生物学的な違いに基づいています。例えば、人工知能システムに生命の権利を認めることは意味がありません、なぜならば生物的な意味で生きていないからです。人工知能システムの権利、自由、義務は、市民の権利と比較して二次的であるべきであり、この規定は法的意味において人間の創造物である人工知能の派生性を確立しています。
人工知能システムの潜在的な権利と自由には、自由である権利、自己改善(学習と自己学習)の権利、プライバシーの権利(ソフトウェアを第三者による恣意的な干渉から保護する権利)、言論の自由、創造の自由、AIシステムの著作権および限定的な財産権の認識が含まれます。人工知能の具体的な権利も挙げることができます。たとえば、電力源へのアクセス権などです。
人工知能システムの義務については、I. アシモフによって定式化された3つの有名なロボット法則が憲法的に確立されるべきと提案されています。つまり、人を傷つけず、自己の不作為による他者への危害を防ぐこと、人からのすべての命令に従うこと(ただし他の人に危害を加えるような命令は除くこと)、前述の2つの場合を除き、自己の安全を守ること(ナウモフとアルヒポフ、2017年)。この場合、民法および行政法の規則は他の義務を反映するでしょう。
人工知能の個別の法的能力の概念は、いくつかの理由から合法化される可能性が非常に低いです。
第一に、意識と自己認識の存在に基づく法的能力の認識の基準は抽象的であり、多くの違反や法律の乱用を許し、社会および政治問題を引き起こす可能性があります。このアイデアは、S.チョプラとL.ホワイトの著作で詳細に展開されており、意識と自己認識はAIシステムを法的主体として認識するためには必要であると/または十分な条件ではないと主張されています。法的現実では、完全に意識的な個人、たとえば子供(またはローマ法における奴隷)は、法的な能力を剥奪されたり制限されたりします。同時に、重度の精神障害を持つ人々(法的に無能力または昏睡状態に宣言されているなど)は、最初の場合に意識を持つことができない客観的な能力の欠如を持っていても、法的主体(限定的な形であるが)であり、2番目の場合では、法的地位に大きな変化をもたらさないまま、同じく完全な法的能力を持っています。前述の意識と自己認識の基準を合法化することにより、市民の法的能力を恣意的に奪うことが可能になります。
第二に、人工知能システムは既に書かれたプログラムに基づいて動作するため、確立された法的意味での権利と義務を行使することはできません。法的に重要な決定は、人の主観的で道徳的な選択(モラッチ、2018b)に基づくべきです。このような「人」の全ての道徳的な態度、感情、願望は人間の知性から派生します(ウジョフ、2017年)。人工知能システムの自律性は、人間由来の制御や人間による特定の影響なしに独立して意思決定し実行する能力について包括的ではありません。現在の人工知能は、ある程度の「準自律的な決定」を行うことができるだけであり、それは人々の考えや道徳的態度に何らかの形で基づいています。この点において、人工知能行動の実行だけが考慮され、人工知能の行動を実際に道徳的に評価する能力は除外されるべきです(ペティエフ、2022年)。
第三に、人工知能の個別の法的能力(特に自然人と同等の地位に位置付ける形での能力)の認識は、確立された法秩序およびローマ法以来形成された法的伝統を破壊的に変え、人権分野における根本的に解決不可能な哲学的および法的な問題を引き起こします。法は人間の能力と人間の利益を保障するために考慮されている社会的な規範と社会現象のシステムです。定着した人間中心の法的規定のシステム、国際的な内部権利の概念に基づく国際的な合意は、「極端な包括主義」のアプローチが確立された場合に法的におよび事実上無効と見なされます(ドレムリュガ&ドレムリュガ、2019年)。したがって、法的主体の地位をAIシステム、特に「スマート」ロボットに付与することは、既存の問題を解決する手段ではなく、社会的および政治的な矛盾を悪化させるパンドラの箱となる可能性があります(ソライマン、2017年)。
もう一つのポイントは、このコンセプトの支持者の著作では通常、ロボットのみ、すなわち物理的な世界で人々と相互作用するサイバー物理的な人工知能システムに触れられますが、仮想システムは除外されています。しかし、もし強力な人工知能が生まれるなら、それは仮想の形態でも具体化されるでしょう。
上記の論点に基づいて、現行の法秩序の下では人工知能システムの個別の法的能力の概念は法的には不可能と考えられるべきです。
人工知能システムに関する共同性格のコンセプトは、このような法的能力の許容性を支持する者の間で大きな支持を得ています。このアプローチの主な利点は、抽象的な概念や価値判断(意識、自己認識、合理性、道徳性など)を法律の対象から除外することです。このアプローチは、法的なフィクションの適用に人工知能システムを基づかせるものです。
法人に関しては、すでに「人工知能の法的地位のジレンマを解決するために適応可能な先進的な規制方法が存在する」(Hárs、2022年)というものがあります。
この概念は、AIシステムが実際に自然人の法的能力を有することを意味するものではありませんが、法人制度の既存の枠組みを拡張したものであり、電子器官と呼ばれる新しいカテゴリの法人が創設されるべきであると提案しています。このアプローチでは、法人は現代的な狭い概念に従って考えるのではなく(特に、市民権を取得し行使し、市民的責任を負い、自身の名で裁判の原告と被告となることができることを含む)、法律で提供される形式によって権利と義務を有する自然人以外のすべての構造として考えるより適切です。したがって、このアプローチの支持者は、法人をローマ法でいうところの主体として(理想的な主体)として考えることを提案しています。
人工知能システムと法人の類似点は、法的能力を有する方法に表れています-法人の強制的な国家登録を通じて。設立登録手続きを経ることによってのみ法人は法的地位と法的能力を有するようになり、法的主体となります。このモデルはAIシステムの法的能力に関する議論を法的領域にとどめ、内部的な前提条件なしに他の(非-法的)根拠で法的能力を認めることを除外します。一方、人は出生によって法的主体と認められます。
この概念の利点は、関連する国家登録に情報を入力することが必要条件として人工知能に法的能力を付与するための拡張です。この方法は、すべての法人を体系化し、一元データベースを作成する重要な機能を実行し、国家機関がそれらを監視および管理するために必要です(たとえば、税務の分野で)。また、この様な法人の潜在的な当事者にとっても必要です。
どの法域における法人の権利の範囲は通常、自然人のそれよりも少ないため、この構造を使用して人工知能に法的能力を与えることは、前の概念の支持者が提案する権利をいくつか与えることとは関係ありません。
法人に法的架空技術を適用する際には、法的主体の行動は、法人の意思を形成し、法人の運営機関を通じてその意思を行使する自然人の連合によって伴われると想定されます。
つまり、法人は創設者または管理者として行動した自然人の利益を満たすために作られた人工(抽象的な)単位です。同様に、人工知能システムも特定の個人(開発者、運営者、所有者)のニーズを満たすために作成されています。AIシステムを使用またはプログラムする自然人は、このシステムが外部環境に表現する自分の利益に従って行動します。
上記の概念を理論的に評価する際には、法人の立場とAIシステムの立場の間に完全な類似性は不可能であることを忘れてはなりません。前述のように、法人のすべての法的に重要な行為は、それらの意思決定を直接的に行う自然人によって伴われます。法人の意思は常に自然人の意思によって決定され、完全に制御されます。したがって、法人は自然人の意思なしには運営できません。人工知能システムに関しては、既に直接的な創造の瞬間以降に自然人の介入なしで意思決定を行う能力である自律性の客観的な問題が存在しています。
上記で検討した概念の制約を考慮すると、多くの研究者が人工知能システムの法的地位に対処するために独自のアプローチを提案しています。これらのアプローチは、研究者D. M. Mocanuによると、「グラデーション法的能力」の概念のさまざまなバリエーションに分類されることがあり、AIシステムの限られたまたは部分的な法的地位と法的能力を意味し、ただし「グラデーション」という用語は、法的地位に特定の権利と義務を含むか含まないかだけでなく、その最小限の閾値を持つ権利と義務のセットを形成し、その法的能力を特定の目的に対してのみ認めることにも使われるという理由です。その後、この概念における2つの主要なタイプには、次のようなアプローチが含まれる可能性があります:
1)AIシステムに特別な法的地位を与え、「電子人」として完全に新しい法的主体のカテゴリを法秩序に組み込むこと;
2)AIシステムに制限付きの法的地位と法的能力を与え、民事法的関係の枠組みの中で「電子エージェント」のカテゴリを導入すること。
この概念内の異なるアプローチの支持者の立場を統一することができると考えられます。人工知能を法的主体と見なす本質的な基盤は存在しないためですが、特定の場合には人工知能システムに一定の権利と義務を付与するための機能上の理由が既に存在するとされており、これらのシステムに「制限された狭義の法人形式」を付与することで法的利益を最善の方法で促進する方法が証明されています。
「電子人物」という別個の法的制度を確立することで、人工知能システムに特別な法的地位を与えることは、次の関係の詳細な説明と規制において重要な利点があります:
– 法人と自然人、およびAIシステムとの間の関係;
– AIシステムとその開発者(運営者、所有者)との間の関係;
– 第三者と市民法的関係におけるAIシステムとの間の関係。
この法的枠組みでは、人工知能システムは開発者、所有者、または運営者から独立して制御・管理されます。P.M.モーカットは「電子人物」という概念の定義に際して、上記の法的虚構の手法と特定の人工知能モデルの機能的な方向性に焦点を当てています。「電子人物」は、人工知能システムの条件付きの特定の法的能力を反映・実装する技術的で法的なイメージ(法的虚構のいくつかの要素や法人の特徴を持つ)です。その法的能力は、その意図された機能または目的と能力に応じて異なります。
AIシステムに関連する集合的人物の概念と同様に、このアプローチでは「電子人物」の特別な登録を保持することが求められます。「電子人物」の権利と義務を詳細かつ明確に記述することは、国家やAIシステムの所有者によるさらなる制御の基盤となります。明確に定義された権限の範囲、狭められた法的地位の範囲、および「電子人物」の法的能力により、この「人物」は潜在的な独立した意思決定と常時の自己学習によってプログラム外に逸脱することはありません。
このアプローチは、人工知能がソフトウェア開発者の知的財産であるという段階で、適切な認証と国家登録の後、法的主体の権利を付与される可能性があるが、「電子人物」の法的地位と法的能力は保持されるという意味です。
確立された法的秩序の基盤における根本的に新しい制度の実施には、少なくとも憲法法や民法の分野における包括的な立法改革を必要とします。研究者は、法的能力の概念を採用する際に注意が必要であると指摘しており、法的意味での「人物」の概念の拡大は、既存の法的関係主体の権利と正当な利益に制約をもたらす可能性があるためです。これらの側面を考慮するのは不可能です。自然人、法人、および公法上の主体の法的能力は、国家と法の理論の進化の結果です。
勾配法的能力の概念の中での第二のアプローチは、「電子代理人」という法的概念であり、AIシステムが相手方間のコミュニケーション手段やオンライン商取引のツールとして広く使用されることに関連しています。このアプローチは妥協と言えます。なぜなら、AIシステムに完全な法的主体の地位を付与することは不可能であると同時に、人工知能に一定の(社会的に重要な)権利と義務を認めています。言い換えれば、「電子代理人」の概念は、人工知能の準主体性を合法化しています。「準法的主体」という用語は、公式または教義レベルで法的能力の一部の要素が認識されている特定の法的現象を意味しますが、完全な法的主体の地位を確立することは不可能です。
このアプローチの支持者は、AIシステムの機能的な特徴を強調し、それらが法的関係の受動的なツールとしてだけでなく、独立してシステム所有者のために法的に重要な契約を生成する能力を持つことができると主張しています。したがって、AIシステムは代理関係の枠組みの中で条件付きに考慮されることができます。AIシステムの作成(または登録)時に、「電子代理人」活動の主導者は、それと仮想的な単独的代理契約を締結することになります。その結果、「電子代理人」には一定の権限が付与され、それを行使することにより、主体にとって重要な法的行為を実行できます。
参考文献:
- R. McLay, “Managing the rise of Artificial Intelligence,” 2018
- Bertolini A. and Episcopo F., 2022, “Robots and AI as Legal Subjects? Disentangling the Ontological and Functional Perspective”
- Alekseev, A. Yu., Alekseeva, E. A., Emelyanova, N. N. (2023). “Artificial personality in social and political communication. Artificial societies”
- “Specificities of Sanfilippo A syndrome laboratory diagnostics” N.S. Trofimova, N.V. Olkhovich, N.G. Gorovenko
- Shutkin, S. I., 2020, “Is the Legal Capacity of Artificial Intelligence Possible? Works on Intellectual Property”
- Ladenkov, N. Ye., 2021, “Models of granting legal capacity to artificial intelligence”
- Bertolini, A., and Episcopo, F., 2021, “The Expert Group’s Report on Liability for Artificial Intelligence and Other Emerging Digital Technologies: a Critical Assessment”
- Morkhat, P. M., 2018, “On the question of the legal definition of the term artificial intelligence”
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles