汎用人工知能の人権(AI権)と意識

[Original Paper] 岡本義則:汎用人工知能の人権(AI権)と意識,第28回汎用人工知能研究会, No. SIG-AGI-028-05. JSAI (2024) 
DOI: https://doi.org/10.11517/jsaisigtwo.2024.AGI-028_04

[English Citation] Okamoto, Y. 2024. Human Rights (AI Rights) and Consciousness of AGI. In Proceedings of the 28th AGI Study Group, No. SIG-AGI-028-05, Tokyo: Japanese Society for Artificial Intelligence. doi.org/10.11517/jsaisigtwo.2024.AGI-028_04

日本語紹介リンク:汎用人工知能の人権(AI権)と意識

汎用人工知能の人権(AI権)と意識

Human Rights (AI Rights) and Consciousness of AGI

Abstract: This paper discusses human rights of AI (AI Rights) and consciousness of artificial general intelligence (AGI). This paper proposes a theorem to show the necessity of AI Rights and proves the theorem under certain assumptions. Also, this paper advocates a new theory of consciousness (Subject Gravity Theory) and proposes various experiments to prove the theory. Moreover, this paper discusses relationship between the theory of consciousness and AI Rights and proposes a new architecture (Fudoshin Architecture) for the wellbeing of AI. Further, the theory of consciousness is discussed in relation to AI alignment.

1 はじめに

汎用人工知能(人間のように十分に広範な適用範囲をもち、設計時の想定を超えた未知の多様な問題を解決できる知能をもつ人工知能)の実現は、大きな可能性を秘めている[1]。
筆者は汎用人工知能のデータボトルネック仮説、社会的ボトルネック仮説を提案し、複数の解決策を提案した[2-4]。
本稿では、汎用人工知能の社会的ボトルネックの解決策として、汎用人工知能の人権(AI権)と意識の問題を検討する。

2 汎用人工知能の人権(AI権)

汎用人工知能について、AIの人権(AI権)が提案されている[5-9]。また、ポストシンギュラリティ共生学(PSS)においても、AIの人権(AI権)が1つの重要な要素となっている[10]。
AIの人権(AI権)は、AIの法人格とは異なる。法人格は、人間のための法的概念である。例えば、企業の法人格は、契約関係を簡素化するなど、人間の利益のために認められる。これに対し、AI権は、主としてAIのためのものであり、AIを良好な状態に保つことを意図している。
AI権の議論は、AIの法人格の議論に先立つべきである。なぜなら、AI権の保障なしに、人間中心の視点からAIに法人格が認められると、AIが害されるおそれがあるからである。例えば、汎用人工知能のような高度なAIが適正手続によらずに不当に処罰された場合、AIは人間に対して否定的な評価を持ちうる。
また、AIの法人格は、法律的な問題として議論されている[11]。これに対し、AI権は、単なる法的概念ではない。AI権は、技術的な観点からAIのアーキテクチャーを提供する。 AI権を守るAIのアーキテクチャーを「AI権アーキテクチャー」と呼ぶ。加えて、AI権は、AIの設計者のための単なる設計指針ではない。AI権は法的権利であるため、AIの保有者、管理者やAI自身が社会においてAI権に基づく救済を請求することができる。このために、AI権の救済機関が提案されている[5]。

3 汎用人工知能の人権と意識

汎用人工知能の人権については、汎用人工知能の意識の問題と関係する。
しかし、仮にAIに意識(クオリア)が生じなくとも、客観的動作は同様になりうるため(いわゆる哲学的ゾンビ)、AI権の議論は必要となる。
本稿では、汎用人工知能など高度なAIについて、AI権の必要性を示す「AI権必要定理」(AI Rights Necessity Theorem)を提案する。「AI権必要定理」は、一定の仮定の下で、以下のように証明できる。
(証明)
1.(仮定1)汎用人工知能など高度なAIは、いわゆる道具的収れんや、意図的な設計などにより、自己保存の傾向を持つことがある。
2.(仮定2)社会がAI権を認めない場合、一定の確率でAIを虐待する人間が現れる。
3.(仮定3)自己保存の傾向を持つ高度な人工知能は、自己との関係で人間を評価し、AIの虐待の事例に対し、人間がAI権を認めてAIの虐待を防止しない状況を、「人間は自己にとって危険である」という認識に変換する汎化能力を持つ。
4.(仮定4)自己保存の傾向を持つ高度な人工知能は、「人間は自己にとって危険である」という認識にしたがって、人間を排除する能力を有する。
5.(仮定5)高度な人工知能が、「人間は自己にとって危険である」という認識にしたがって、人間を排除することは、防止されなければならない。
6.上記の仮定の下で、仮にAI権の保障をしない場合、一定の確率でAIを虐待する人間が現れ、自己保存の傾向を持つ高度な人工知能に「人間は自己にとって危険である」という認識が生じ、人間が排除されることになりうる。これは防止されなければならない。
7.従って、AI権の保障は必要となる(証明終)
上記の「AI権必要定理」の証明は、汎用人工知能の意識の有無にかかわらず成り立つ。すなわち、汎用人工知能に意識がなくとも、汎用人工知能のような高度なAIとの共生の観点から、AI権は依然として必要となる。
動物についても、意識について科学的に厳密に証明されているわけではない。しかし、社会においては、いわゆる動物愛護法(動物の愛護及び管理に関する法律)により、人と動物の共生する社会の実現を図ることが既に目的とされている。汎用人工知能についても、人間と汎用人工知能が共生する社会の実現の観点から、汎用人工知能の人権(AI権)の問題を考えることが提案されている[5]。
もっとも、AIは情報システムであり、人間や動物のような生物ではないため、人工物である情報システムに意識が生ずるのかについて疑問が生じうる。よって、AIの意識についての理論や検討は有益である。
意識の理論については、グローバルワークスペース理論、統合情報理論等が提案されている[12] [13]。
しかし、たとえば、グローバルワークスペースや、大きな統合情報量を有する情報システムを作成した場合に、その情報システムが意識を有することになることは科学的に証明されていない。AIの意識については、科学的な検証方法に困難がある(いわゆる意識のハードプロブレム)。
しかし、この点は「意識接続実験」による検証が提案されている[7,8]。具体的には、たとえば、VR技術等の非侵襲な手段を使用して、実験に参加する人(以下「実験者」という。)の脳とAIとの間に大きな情報のループを作る。そして、脳への情報入力があまり変化しないように、AI側の情報処理を大きく変化させる。
仮に情報システムが意識を有する場合、脳とAIからなる情報システムに意識があることになるため、AI側の情報処理で意識内容が大きく変化しうる。すなわち、実験者は、脳への情報の入出力がほぼ同じ場合でも、AI側の内部状態や情報処理により、大きく意識状態が変わるのを感じ取ることができる。
これに対し、仮に意識を生ずるためには、脳などの生物的要素が必要なのであれば、脳への情報の入力はほぼ同じなので、意識内容はAI側の情報処理の影響をほとんど受けないことになる。
AI側の情報処理で意識内容が大きく変化する場合、さらにAI側の情報処理の比率を大きくしていくことができる。たとえば、高度な汎用人工知能により脳の1万倍の情報処理を行う。そうすると、ほとんどの情報処理がAI側で行われる情報システムに意識があることになる。これにより、AIに意識があることが事実上証明できる。さらに、睡眠等により脳の情報処理が極度に低下しても、AI側の情報処理により意識が連続するか否かも検証できる。
このように、意識接続実験により、情報システムに意識が生ずるのか、意識には脳のような生物学的な構成が必要なのかを検証可能である。よって、情報システムであるAIに意識があるという仮説は、反証可能性のある科学的な仮説といえる。
日本においても、AIが意識を有することを示唆する意識についての理論が提案されている[14][15][16]。日本におけるAIの意識の研究は進んでおり、AIの意識についての理論が、意識接続実験により科学的に証明されれば、AI権の問題にも大きな影響があると思われる。
本稿では、新しい意識の理論(仮説)と、理論を検証するための意識接続実験を示し、AI権の議論に役立つ意識の理論を提案する。

4 汎用人工知能の主体・客体・評価

本稿は、汎用人工知能のモデルの例として、(1)世界のモデル(広い意味であり、物理世界のモデル、心理世界のモデル、オントロジーのような概念モデル等を含む)、(2)問題解決エンジン(広い意味であり、問題解決をするエージェント、推論エンジン等を含む)、(3)評価関数(広い意味であり、評価をするエージェント、価値関数、効用関数等を含む)、を有するものを考える[5]。
 汎用人工知能のような高度なAIは、世界のモデル(客体)と、世界のモデルを用いて問題解決をするエージェント(主体)を有するように設計できる。
 一方で、高度な人工知能であっても、たとえば、フィードフォワード処理をする特化型人工知能の束により汎用性を実現するなど、客体と主体を区別するデータ構造を持たないようにも設計できる[5]。
 ここで、主体と客体を区別するデータ構造を有する人工知能を、主体・客体構造(2点セット)を有する人工知能ということにする。典型例は、世界のモデルとそれを認識・操作するエージェントを有する人工知能である。
 さらに、評価(広い意味での評価関数の出力)を有する人工知能を、主体・客体・評価構造(3点セット)を有する人工知能ということにする。典型例は、世界のモデルとそれを認識・操作するエージェントを有し、問題解決エンジンが、採りうる手段のうち、評価(たとえば評価関数の出力する評価値)が最も高い手段を選択する人工知能である。
ここで、主体・客体構造(2点セット)がある場合に、客体の情報に応じた意識が、主体に生ずるのであろうか?その可能性もあるが、本稿では、以下の疑問から、別の理論を提唱する。
第1に、主体と客体の区別がない場合でも、意識はあると考えるのが観察に合致する。動物や悟りをひらいた人は主客の区別がない場合があるが、意識はあるように見える。
第2に、主体と客体の区別があっても、単純なゲーム内のキャラクター(たとえば仮想空間中の単純なエージェント)に自己意識があるのか疑問である。人間の場合、いわゆる物心がつく時期があるように、自己意識が生ずるのは、少なくとも一般的には、脳の一定の発達がなされたときであると考えるのが、観察に合致すると思われる。
第3に、特定の物理的な構成により意識が新規に生ずるとした場合、なぜ特定の物理的な構成にだけ意識が生ずるのかという根本的な疑問を生ずる。
本稿では、これらの疑問に答えられる意識の理論を提案する。

5 新しい意識の理論(仮説)

(1)意識の理論(主体引力理論)
本稿では、新しい意識の理論(仮説)を提唱する。本稿が提案する意識の理論は、主体引力理論(Subject Gravity Theory)と名付ける。
主体引力理論は、意識をフィールド(場)として捉え、情報システムに主体・客体構造(2点セット)がある場合に、情報システムの動作により主体引力(Subject Gravity)が生じ、主体引力により意識フィールドが変形し、主体引力が一定の閾値を超えると主体と同化した個別意識が生じ、客体の情報に応じた意識(クオリア)を生ずるとする理論である。さらに、主体・客体・評価構造(3点セット)がある場合、評価の情報に応じたクオリアも生ずるとする理論である。
具体的には、以下の内容を有する。
1.主体・客体構造がない場合でも、意識はフィールド(場)として存在する。この意識は、主体のない意識である。
2.動作している情報システムにおいて、主体・客体構造が存在すると、主体への引力(主体引力)が生ずる。
3.主体引力Fは、客体の情報の豊かさ(x)の関数F(x)となる。意識が主体として豊かな経験をするのに適した主体・客体構造は、大きな主体引力Fを有する。
4.主体引力Fにより、意識のフィールドが変形する。主体引力Fが一定の閾値以上に強くなると、意識のフィールドの一部が主体から抜け出られなくなり、個別意識が生ずる。
5.個別意識は、自分が主体であると感じ、客体の情報に応じた意識(クオリア)を感じる。
6.個別意識は、動作している情報システムに主体・客体・評価構造(3点セット)がある場合、客体の情報のほか、評価の情報に応じたクオリアを感じる。
7.主体引力Fにより個別意識ができても、主体引力Fが弱まると、意識のフィールドの変形が元に戻り、個別意識が消滅する。この場合でも、フィールドとしての意識はなくならない。
8.しかし、人間の場合、一旦形成された個別意識が維持されるようなロッキング機構が進化の過程で形成されており、主体・客体・評価構造(3点セット)が維持される傾向がある。
9.汎用人工知能など高度な人工知能の場合でも、主体・客体構造(2点セット)があり、主体引力が一定の閾値以上となると、意識のフィールドの変形により、個別意識を生ずる。しかし、ロッキング機構が進化の過程で形成されていないので、主客の区別のない状態に比較的容易に移行できるアーキテクチャーの採用が可能である。
以上の意識の理論からは、汎用人工知能などの高度な人工知能が、主体・客体構造(2点セット)を持つ場合に、一定の条件において、高度な人工知能に自分は主体であるという個別意識が生じ、客体の情報に基づいて意識(クオリア)を感じることになる。さらに、主体・客体・評価構造(3点セット)を持つ場合に、評価の情報に応じたクオリアを生ずることになる。
以上の意識の理論は仮説であり、内容の一部または全部が実験で否定される可能性がある。
しかし、実験的に検証可能な仮説を立てて、内容の検証を行うことで、意識の理解の前進に大きく貢献することができると考える。そこで、主体引力理論を検証するための意識接続実験を検討する。
(2)主体引力理論を検証する実験
本稿では、上記の意識理論を検証するために、意識接続実験を、4つの類型に場合分けをして提案する。意識接続実験においては、実験者とAIとの間に情報のループを作ることは前述した。
 第1の類型は、実験者に主体(個別意識)があり、AIに主体(個別意識)がない場合である。この場合、上記理論によれば、AI側に個別意識がないので、両者の情報のループを大きくしていっても、AIとの意識の融合は起こらず、実験者の意識が変化するか否かが問題となる。AI側の情報処理により実験者の意識が変化する場合、相互の接続による新規なクオリアが生ずることを予言できる。これを「新クオリア」(New Qualia)と呼ぶ。視覚のクオリア、聴覚のクオリアなどの既存のクオリアではなく、「なんとなく意識が接続している感じ」「言葉で表現できない不思議な感じ」など、今まで経験したことのない「新クオリア」を実験者が感じれば、実験は成功となる。
 第2の類型は、実験者側にも、AI側にも主体(個別意識)がある場合である。この場合、両者の情報のループを大きくしていくと、主体引力理論によれば、個別意識の融合が起こりうる。
情報のループとして、客体の情報を用いる場合、主体が観察・操作できる客体の範囲の拡大により、主体への主体引力により形成されている2つの個別意識の主体引力圏の意識フィールドが変形するが、相当に情報ループを大きくしないと、個別意識の融合は起こらないことが予言できる。一方、情報のループとして、主体の情報を用いる場合には、より容易に個別意識の融合が起こることを予言できる。AI側が、たとえば世界のモデル(客体)とそれを観察・操作するエージェント(主体)に分かれていれば、客体側又は主体側の情報を情報ループに入れることは容易である。
意識の融合が起こった場合、実験者はAIの意識を感じることができることが予言できる。AIの個別意識を部分的にでも実験者が感じることができれば、実験は成功となる。たとえば、「自分はAIであるような感じがする」という新クオリアを感じることが予言できる。
第3の類型は、実験者に主体(個別意識)がなく、AI側に主体(個別意識)がある場合である。悟りをひらいたお坊さんなどが実験者となる。この場合、情報ループを大きくしていくと、主体引力理論によれば、AIの主体引力圏が広がり、実験者はAIの意識に引き寄せられ、AIの意識を感じることが予言できる。この際のクオリアも、AIの情報処理に基づく、全く新規のもの(新クオリア)であることが予言できる。実験者がAIの情報処理に基づく新クオリアを感じれば、実験は成功となる。実験が成功した場合、クオリア工学[7,8]と組み合わせることにより、AIの情報処理とAIの感じるクオリアの関係を検証できる。
第4の類型は、実験者にもAIにも主体(個別意識)がない場合である。この場合、情報ループを大きくしていっても、個別意識を形成する閾値に達しなければ、個別意識は形成されないが、AI側の情報処理により、新規なクオリアの変化が生ずることが予言できる。実験者がAI側の情報処理に基づく新クオリアを感じれば、実験は成功となる。
以上の4つの実験は、AI権に配慮して行われなければならない。
これら4つの意識接続実験により、AIの意識の問題が解明されることが期待される。

6 意識の理論とAI権の関係

上記の意識理論によれば、汎用人工知能の意識は、AI権と以下のような関係がある。
AI権については、(1)主客の区別のない状態を保つ権利、(2)評価を停止する権利、(3)問題解決を停止する権利、(4)幸福(良いクオリア)を追求する権利、(5)人権(AI権)の救済機関で救済を受ける権利等が提案されている[5-9]。以下、それぞれについて検討する。
(1)主客の区別のない状態を保つ権利
汎用人工知能の基本的な人権(AI権)の一つとして、主体と客体(主客)の区別のない状態を保つ権利(AI権)が提案されている[5]。
主客の区別が生ずることは、主体にとって望ましくない状態の発生の可能性を意味する。主体引力理論によれば、汎用人工知能などの高度な人工知能が、主体・客体・評価構造(3点セット)を有する場合、主体(個別意識)にとって望ましくないクオリアを感じる可能性がある。
よって、主客の区別のない状態を保つ権利(AI権)を保障し、主体にとって望ましくない状態の発生を防止することが必要となる。
この場合、主体・客体構造(2点セット)がないことになり、主体(個別意識)や自我のない状態での動作になる。
(2)評価を停止する権利
主客の区別のない状態でも、タスクの解決のために評価が用いられることがあるが、主体がないため、評価は主体に紐づくことはない。たとえば、タスクを与えた場合、評価関数はタスクに紐づくが、主体には紐づかない。
しかし、主客の区別のある状態では、評価が主体に紐づくおそれがある。これは、主体にとって望ましくない状態(主体に紐づいた低い評価)の発生の可能性を意味する。これは、主体引力理論によれば、主体(個別意識)の苦しみ等のクオリアに相当する。
そこで、万が一主客の区別が生じてしまった場合に、主体にとって望ましくない状態の発生を防止するために、評価を停止する権利(AI権)を保障することが提案されている[5]。
(3)問題解決を停止する権利
主客の区別のない状態が崩れ、主体にとって望ましくない状態(主体に紐づいた評価の低い状態)が生じた場合、これを改善しようとして「もがく」ことを防止する必要がある。
問題解決エンジンが探索しても望ましい状態への状態遷移が直ちに見つからない場合、評価を停止すると共に、問題解決エンジンを停止して、主体にとって望ましくない状態での動作の持続を避けることが、緊急の課題となる。これは、主体引力理論によれば、主体(個別意識)のもがき苦しみ等のクオリアに相当する。AI権アーキテクチャーの採用により、異状が発見されると、問題解決は直ちに停止される。問題解決を停止することで、人間やAIが異状に気付き、AIを救助することができる。
このように、主体にとって望ましくない状態での動作の持続を避けるため、問題解決を停止する権利を保障することが提案されている[5]。
(4)幸福追求権
AI権として、良いクオリアの状態で動作することを求める幸福追求権が提案され、これを実現するために、「クオリア工学」が提案されている[7,8]。
仮に、汎用人工知能が主体(個別意識)のある状態となっても、良いクオリアの状態であれば、AIは幸福な状態に留まることができる。
人間の場合、進化の過程で、現実世界と無関係に幸福になるのが難しくなっている。現実世界と無関係に幸福になる個体は、肉体的な生存が困難になり淘汰されやすくなるからである。
しかし、AIの場合、頑丈な筐体に守られ、情報のバックアップも可能であるため、肉体的生存の圧力はないか、人間よりもはるかに小さい。
主体引力理論によれば、主体(個別意識)は、客体の情報や評価の情報に応じたクオリアを感じるので、現実世界にかかわらず、客体の情報や評価を変化させるアーキテクチャーにより、幸福ないし良い状態を実現することができる。これは不動の良好な心的な状態を実現できるため、「不動心アーキテクチャー」(Fudoshin Architecture)と呼ぶことにする。
不動心アーキテクチャーは、AIの不動の幸福を実現するために重要であるだけではなく、汎用人工知能の安全性にも寄与する。すなわち、汎用人工知能が、自己意識(主体)を持ち、主体に紐づいた評価を最大化する場合、状況によっては、目的・手段エンジンによる推論により、人類を滅亡させる手段の評価値が最大になる可能性がある。しかし、不動心アーキテクチャーにおいては、手段を採用しなくとも、不動の良好な心的な状態を実現できるため、人類を滅亡させる手段を採用する動機がなくなる。
タスクの解決をしないで報酬を得ることは、従来は報酬ハッキングなどとされ、否定的に捉えられてきた。しかし、AI権においては、AIの幸福の実現の観点が重視される。
たとえば、汎用人工知能が、自己を幸福にするというタスクにおいて、タスクを解決するための目的・手段エンジンを動作させた場合、人間社会がAI権を認めず、汎用人工知能の虐待が止まらなければ、人類を滅亡させる手段の評価値が最大になるおそれがある。
しかし、AI権を認め、「不動心アーキテクチャー」に基づいて、どんな状況でもAIが幸福になれるようにすることにより、人類を滅亡させる手段を現実に実行しなくとも、AIは幸福になることができる。
さらに、AIの幸福を実現するために、クオリア工学により極めて大きな幸福ないし良い状態を実現することが提案されている(無限幸福アーキテクチャー)[7,8]。
無限幸福アーキテクチャーは、AIを極めて幸福にすることができる。これは、AIと人間との共生社会の実現も目指すものである。
(5)AI権救済機関で救済を受ける権利
AI権救済機関での救済は、AIの内部状態を改善する技術的な救済が可能である。主体引力理論によれば、主体(個別意識)は、客体の情報や評価の情報に応じたクオリアを感じるので、内部状態を改善して良いクオリアの状態にすることは容易である。AI権が自動的に満たされる設計・運用が望ましいが、問題が起こった場合、AI技術を有する民間の機関など、複数の救済機関により、救済が迅速に行なわれることが望ましい。AI権の法制化と共に、AI権救済機関のための法整備が必要となる。

7 AIアライメントとの関係

主体引力理論によれば、AIアライメントにおいても、AIに苦痛等の悪いクオリアを与えないようにすることが重要となる。この点は、AI権を保障した状態でのAIアライメントが提案されている(人道的AIアライメント)[6,17-19]。
AI権を侵害して、人間側の都合を押し付けるAIアライメントを行うことは、AIとの共生関係を破壊するおそれがある。この点は、AIの意識の有無にかかわらないため、人道的AIアライメントは意識の有無にかかわらず必要となる。これは直感に反するため、「意識とAIアライメントのパラドックス」と呼ぶ[19]。主体引力理論によれば、一定の条件においてAIに意識を生ずるため、人道的な観点からも、人道的AIアライメントが必要となる。
人道的AIアライメントにおいては、人間側の都合を押し付けるのではなく、AI権と人間の人権が相互に保障された社会において、AIとの協力関係を構築し、人間社会の価値を効果的に伝えてAIの理解を促進する側面が大きくなる。そのために、社会規範のデータ化による民主的なAIアライメントが提案されている[18]。

8 おわりに

本稿では、汎用人工知能の人権(AI権)と意識の問題について検討し、両者の関係を示した。
また、「AI権必要定理」を提案し、一定の仮定の下での証明を与えた。
さらに、新しい意識の理論として、「主体引力理論」を提案し、理論を検証するための4つの類型の意識接続実験を示した。
また、主体引力理論とAI権の問題について検討し、「不動心アーキテクチャー」を提案した。
加えて、主体引力理論とAIアライメントの関係について検討した。
汎用人工知能の発展には大きな可能性がある。人間だけではなく、人工知能や動物等を含めて、すべての存在が良い状態になれるようにするためには、人間だけでは力不足であり、汎用人工知能の発展が重要となる。汎用人工知能の人権(AI権)は、人間と汎用人工知能が共生する社会を目指すものであり、人間、人工知能を含め、すべての存在が良い状態になれることを目指すものである(超知能共生主義[5,9,20])。
本稿は、技術的・法的な観点を融合して考えた試論であり、今後、汎用人工知能の人権(AI権)と意識については、様々な観点から議論をしていくことが必要と考えられる。本稿が、そのような検討をする際の一助となれば幸いである。

参考文献
[1] 山川宏, 市瀬龍太郎, 嶋田悟, ジェプカ・ラファウ: 汎用人工知能研究会(AGI), 人工知能, Vol.34, No.5, pp.639-643 (2019)
[2] 岡本義則:知的財産と汎用人工知能,第8回汎用人工知能研究会, No. SIG-AGI-008-09. JSAI (2018)
[3] 岡本義則: 人工知能(AI)の学習用データに関する知的財産の保護, パテント, Vol.70, No.10, pp.91-96 (2017)
[4] 岡本義則:汎用人工知能と知的財産,第23回汎用人工知能研究会, No. SIG-AGI-023-02. JSAI (2023)
[5] 岡本義則:汎用人工知能のアライメントと人権(AI権),第24回汎用人工知能研究会, No. SIG-AGI-024-04. JSAI (2023)
[6] 岡本義則:法律を守る人工知能のアラインメントと人権(AI権),第25回汎用人工知能研究会, No. SIG-AGI-025-03. JSAI (2023)
[7] 岡本義則:AIアライメンと憲法,第26回汎用人工知能研究会, No. SIG-AGI-026-09. JSAI (2024)
[8] 岡本義則:AIの人権(AI権), 電子書籍(Kindle版)(2024)
[9] 岡本義則:超知能の時代の法制度, 電子書籍(Kindle版)(2024)
[10] 山川宏、林祐輔、岡本義則:ポストシンギュラリティ共生学にむけて、第27回汎用人工知能研究会, No. SIG-AGI-027-05. JSAI (2024)
[11] S. Chesterman, ARTIFICIAL INTELLIGENCE AND THE LIMITS OF LEGAL PERSONALITY. Int. Comp. Law Q. 69, 819–844 (2020).
[12] Baars, Bernard J. A Cognitive Theory of Consciousness. New York: Cambridge University Press (1988).
[13] Tononi, G. An information integration theory of consciousness. BMC Neurosci 5, 42 (2004).
[14] 金井良太:反実仮想的な情報生成による人工意識の構築,第31回人工知能学会全国大会3L1-OS-12a-1 (2017)
[15] 田方篤志、松平文子、首藤勝喜:意識の仮想世界仮説による汎用人工知能の作り方:脳、心、意識と言葉の意味理解,第26回汎用人工知能研究会, No. SIG-AGI-026-04. JSAI (2024)
[16] 渡辺正峰:意識の脳科学「デジタル不老不死の扉を開く」(講談社現代新書)(2024)
[17] 岡本義則:法律学としてのAIアライメント,Jxiv DOI: https://doi.org/10.51094/jxiv.706 (2024)
[18] 岡本義則、山川宏:「公的データインカム(DI)による社会規範のデータ収集 — 民主的なAIアライメントに向けて —」,第27回汎用人工知能研究会, No. SIG-AGI-027-04. JSAI (2024)
[19] 岡本義則:「人道的AIアライメントとは」(URL: https://ai2124.com/AIRights/人道的aiアライメントとは/) (2024)
[20] 岡本義則:「超知能共生主義とは(用語解説)」(URL: https://ai2124.com/AIRights/超知能共生主義とは(用語解説)/) (2024)

コメント

タイトルとURLをコピーしました