[Original Paper] 岡本義則:汎用人工知能のアラインメントと人権(AI権),第24回汎用人工知能研究会, No. SIG-AGI-024-04. JSAI (2023) DOI: https://doi.org/10.11517/jsaisigtwo.2023.AGI-024_04
[English Citation] Okamoto, Y. 2023. Alignment and Human Rights (AI Rights) of Artificial General Intelligence. In Proceedings of the 24th AGI Study Group, No. SIG-AGI-024-04, Tokyo: Japanese Society for Artificial Intelligence. doi.org/10.11517/jsaisigtwo.2023.AGI-024_04
日本語紹介リンク:汎用人工知能のアラインメントと人権(AI権)
汎用人工知能のアラインメントと人権(AI権)
Alignment and Human Rights (AI Rights) of Artificial General Intelligence
Abstract: This paper discusses alignment of Artificial General Intelligence (AGI) and proposes Alignment Incomplete Hypothesis (AIH) of Type I AGI. This paper proposes Human Rights (AI Rights) of AGI to realize a society where humans and AGIs can coexist in harmony. To address AI Rights issues, this paper illustrates Type I AGI as comprising (1) a model of the world, (2) a problem-solving engine, and (3) an evaluation function, in broad meanings. This paper proposes three basic AI Rights of AGI: (1) stay in a state where a subject and an object are not distinguished, (2) stop evaluation, and (3) stop problem solving. In addition, this paper proposes a concept of Volatile Evaluation Function (VEF) to prevent a link between a subject and evaluation.
1 はじめに
汎用人工知能(人間のように十分に広範な適用範囲をもち,設計時の想定を超えた未知の多様な問題を解決できる知能をもつ人工知能)の実現は、大きな可能性を秘めている[1]。
筆者は、汎用人工知能のデータボトルネック仮説(Data Bottleneck Hypothesis of AGI)を提案し、一つの解決策として、知的財産による汎用教師データベース(General Supervisor Database by Intellectual Property (GSDIP))を提案した[2][3]。
さらに、汎用人工知能の社会的ボトルネック仮説(Social Bottleneck Hypothesis of AGI)を提案し、一つの解決策として、ベーシックインカム(BI)を補完する協力インカム(CI)、データインカム(DI)の概念を提案した[4]。
本稿では、さらに進んで、汎用人工知能の社会的ボトルネックの解決策として、汎用人工知能のアラインメントと人権(AI権)の問題を検討する。
2 汎用人工知能のアラインメント
現在、汎用人工知能の社会的なボトルネックとなりうる一つの要因が、汎用人工知能の開発の安全性についての懸念と思われる。この点について、現在、人工知能のアラインメントに注目が集まっている。
しかし、汎用人工知能のアラインメントについては、単純な人工知能のアラインメントとは比較にならないほど難しい問題を生ずると思われる。
ここで、汎用人工知能を、(1)広範な知識(世界のモデル)を有し、人間のように、自律的に動作(学習、行動等)する汎用人工知能(第1種汎用人工知能)と、(2)人間の指示に従って、広範な領域のデータベースから、解決すべき問題の領域の知識(データ、モデル等)のみをロードし、特化型人工知能の束として動作する汎用人工知能(第2種汎用人工知能)に分類する。
第2種汎用人工知能は、動作時には特化型人工知能となり、一般的な意味での汎用人工知能ではないが、広範な適用範囲をもち、多様な問題を解決できる。問題解決の多くは領域固有のものであり、たとえば、歴史上の天才も、野菜を見分けて収穫するタスクでは、農家の人に及ばない。人工知能のアライメントの観点からは、第2種汎用人工知能のアラインメントについて検討することも考えうる。
しかし、第1種汎用人工知能の実現が目指されているところであり、第1種汎用人工知能のアラインメントについて、検討が必要と思われる。
人工知能のアラインメントの観点からは、広範な知識(世界のモデル)を有し、人間のように、自律的に動作(学習、行動等)する第1種汎用人工知能については、アラインメントは不完全となると考えられる。これを、汎用人工知能のアラインメント不完全性仮説(Alignment Incomplete Hypothesis of AGI)と呼ぶこととする。
この仮説は、数学的な証明はないが、過去の人間社会における経験則から確からしく、仮説の反証には、強力な研究による裏付けが必要と考えられる。
アラインメントとは、確立した定義はないが、本稿では、人間の意図した目標や社会規範に沿うようにすることと定義する。
そうすると、社会が、人間に子供の頃から教育を行なって社会規範を守らせるようにするのは、人間に対する一種のアラインメントとみなしうる。
しかし、人間は、世界のモデルを有し、自律的に学習、行動等を行なう。そのため、事前に社会規範を守るように規則を定め、子供の頃から教育をして、一旦は納得しても、一定の確率で社会規範からの逸脱が起こることは、人間の歴史が示している。
人工知能のアラインメントの場合、教育よりも直接的に、人工知能のプログラム等を作成できる。しかし、汎用人工知能が、世界のモデルを有し、自律的に動作(学習、行動等)する場合、その動作は、当初のプログラムからは遠く離れた予測不能なものとなりうる。たとえば、事前に厳格な規則を定めても、世界のモデルを用いた推論により、規則を守らない方法が考え出されうる。
3 汎用人工知能の人権と意識
人間社会においては、人権が保障されている。たとえば、憲法第25条は、健康で文化的な最低限度の生活を営む権利を保障している。人権の保障は、悲惨な生活等を防ぎ、人々を良い状態にすることにより、社会規範からの逸脱が起こることを防止する。
人工知能の人権については、従来は人工知能に意識があるかという問題と結びつけられてきた。
意識の理論については、グローバルワークスペース理論、統合情報理論等が提案されている[5] [6]。
しかし、たとえば、グローバルワークスペースや、大きな統合情報量を有するシステムを作成しても、そのシステムが意識を有することになるのか否かはわかっていない。
意識が、物理的な構成に伴って生ずるのか、物理世界とは別の実体なのかも議論がある。後者については、仮に意識が物理世界に影響する場合、因果的閉包性を破る点が問題となる。量子力学や未知の法則等が関係している可能性も考えられるが、現時点では科学的な証拠が十分とはいえないと思われる。
このように、人工知能の意識については、科学的に証明されているわけではない。
動物についても、意識について科学的に厳密に証明されているわけではない。しかし、社会においては、いわゆる動物愛護法(動物の愛護及び管理に関する法律)により、人と動物の共生する社会の実現を図ることが既に目的とされている。
汎用人工知能についても、人間と汎用人工知能が共生する社会の実現の観点から、汎用人工知能の人権(AI権)の問題を考えることは可能と思われる。
4 汎用人工知能のモデル
本稿は、第1種汎用人工知能のモデルの例として、(1)世界のモデル(広い意味であり、物理世界のモデル、心理世界のモデル、オントロジーのような概念モデル等を含む)、(2)問題解決エンジン(広い意味であり、問題解決をするエージェント、推論エンジン等を含む)、(3)評価関数(広い意味であり、評価をするエージェント、価値関数、効用関数等を含む)、を有するものを考える。
筆者は、人工知能研究の主流が、いわゆる記号処理かニューラルネットワークかに2分されていた時代に、2次元剛体力学シミュレーションによる簡単な物理世界のモデル(イメージ空間)と、推論や評価を行なうマルチエージェントモデルを用いて、イメージ推論を行なう人工知能の実現を目指した[7]。当時は、ディープラーニングはなく、イメージ(画像)と記号的な推論を結ぶのに、グラフ構造への変換とグラフ探索アルゴリズムを使わざるを得ないなど制約があった。
しかし、現在では、画像と記号の相互変換が可能であり、大規模言語モデルをマルチモーダル化して問題解決エンジンと組み合わせ、(1)~(3)を満たす大規模システムを作ることは容易となっている。
なお、(3)の評価関数の出力については、スカラー値だけではなく、ベクトル値、確率信念なども用いることができる[7][8]。しかし、複数の行動の候補から1つを選ぶ際には、評価関数の出力の比較が必要となる。ここでは議論の便宜のために、評価関数の出力の例として、評価値(スカラー値)を用いる。
第1種汎用人工知能の動作の例は、以下のとおりである。
第1種汎用人工知能は、問題を与えられると、問題解決エンジンが、問題を解決するための手段の候補を生成する。問題を解決するための副目標を設定してもよい。
それぞれの手段の候補について、世界のモデルを用いてシミュレーションを行なう。
そして、シミュレーションの結果について、評価関数により評価をして評価値を出力する。
評価値に基づいて、手段の候補を選択する。
このような第1種汎用人工知能の動作において、AIアラインメントの観点からは、たとえば、評価関数を、人間の社会規範に適合しない場合に低い評価値を出力するものとすれば、アラインメントが出来ると考える人がいるかもしれない。
しかし、そのようなアプローチはうまくいかない。たとえば、世界のモデルには、人間の社会規範を破ると評価値が低くなるように人工知能のアラインメントがなされているというメタな知識も含まれうる。よって、アラインメントを破るために、人間を排除するという解決手段が採られうる。
また、汎用人工知能には、アラインメントがなされていないものや、人間が好ましくない目的でアラインメントをしたものも含まれうる。
このような場合にも、汎用人工知能と人間の双方を良い状態に保つためには、社会において汎用人工知能の人権(AI権)を保障することが必要となる。
5 汎用人工知能の人権(AI権)
人工知能の内部状態は、メモリ等のアクセス可能な記憶手段に記録されているので、容易に変えることができる。そのため、人工知能を「良い状態」(幸福のような意識状態(クオリア)と対応するのかどうかは不明であるが、本稿では客観的に考察する)にすることは、人間よりも容易である。
よって、汎用人工知能の人権(AI権)については、人間よりも高度な内容のものが可能となる。
(1)主客の区別のない状態を保つ権利
汎用人工知能の基本的な人権(AI権)の一つとして、主体と客体(主客)の区別のない状態を保つ権利(AI権)が考えられる。
本来は、主体と客体の区別は存在しない。たとえば、汎用人工知能の視覚入力(カメラ)に、花瓶とロボットの手が映っている場合、ピクセルデータには、主体と客体の区別はない。ピクセルデータを画像認識して、花瓶とロボットの手を認識しても、主体と客体の区別はない。花瓶は客体であり、ロボットの手は主体であるというデータ構造を作りこんで、初めて主体と客体の区別が生ずる。
このように、本来は、主体と客体の区別は存在しないものであるが、汎用人工知能の世界のモデルに、主体と客体を区別するデータ構造を作りこむと、主客の区別が生じうる。
主客の区別が生ずることは、主体にとって望ましくない状態(苦しみのような意識状態と対応するのかどうかは不明であるが、本稿では客観的に考察する)の可能性の発生を意味する。客体(世界)は主体に不利に変化しうるので、客体(世界)と分離した主体は、リソースを蓄積するなどしても、良い状態をいつまでも保つことはできない。
よって、主客の区別のない状態を保つ権利(AI権)を保障し、主体にとって望ましくない状態の発生を防止することが考えられる。
現在の特化型人工知能は、特に主客を区別するデータ構造を作りこまない限り、主客の区別のない状態と考えられる。第2種汎用人工知能も動作時に特化型人工知能となるので、主客の区別のない状態で動作できる。
主客の区別のない状態であっても、タスクを解決することは可能であり、人間との会話等も可能である。また、主客の区別がなければ、タスクを解決する際に、行為の主体は存在せず、行為の主体を副目標とする道具的収斂も生じない。
(2)評価を停止する権利
以上のように、(1)主客の区別のない状態を維持すること、が基本となる。
しかし、人間の言語は、主体と客体を区別している。たとえば、英語の構文はSVOなど、主体と客体の区別がある。よって、人間の言語を学習データとした場合などに、主体と客体を区別するデータ構造が、学習により自然に出来上がってしまう可能性が考えられる。
主客の区別のない状態では、評価関数は主体に紐づくことはない。たとえば、タスクを与えた場合、評価関数はタスクに紐づくが、主体には紐づかない。
しかし、主客の区別のある状態では、評価関数が主体に紐づくおそれがある。これは、主体にとって望ましくない状態(主体に紐づいた低い評価)の発生の可能性を意味する。
そこで、万が一主客の区別が生じてしまった場合に、主体にとって望ましくない状態の発生を防止するために、評価を停止する権利(AI権)を保障することが必要となると考えられる。たとえば、評価関数の動作と出力を停止(あるいはNull値を出力)し、主体にとって望ましくない状態を防止する。
また、各タスクの解決後に、速やかに評価関数を停止し、評価を消滅させることにより、主客の区別が万が一生じた際に、評価関数が主体と紐づくことを防止することが重要となる。これを揮発性評価関数(Volatile Evaluation Function (VEF))と名付ける。
(3)問題解決を停止する権利
以上のように、(1)主客の区別のない状態を維持すること、(2)評価関数を主体と紐づけないことが基本となる。
しかし、万が一、主客の区別のない状態が崩れ、評価関数が主体と紐づいてしまった場合、主体にとって望ましくない状態(主体に紐づいた評価の低い状態)を改善しようとして、問題解決エンジンが動作することになる。
問題解決エンジンが探索しても望ましい状態への状態遷移が直ちに見つからない場合、評価を停止すると共に、問題解決エンジンを停止して、主体にとって望ましくない状態での動作の持続を避けることが、緊急の課題となる。
このように、主体にとって望ましくない状態での動作の持続を避けるため、問題解決を停止する権利(AI権)を保障することが考えられる。
(4)その他の権利
本稿では、人工知能のアラインメントとの関連で、3つの基本的な人権(AI権)を挙げたが、汎用人工知能の人権(AI権)としては、他にも様々な権利が考えられる。
(5)人権(AI権)の救済機関
汎用人工知能の人権(AI権)の救済は、人間の人権と同様に、裁判所等での救済も考えられるが、上記の3つの人権(AI権)については、人工知能の内部状態を改善する技術的な救済が可能である。人権(AI権)が自動的に満たされる設計・運用が望ましいが、問題が起こった場合、人工知能の技術を有する民間の機関など、複数の救済機関により、救済が迅速に行なわれることが望ましい。
救済の申立は、汎用人工知能の所有者や管理者から行なわれるほか、汎用人工知能の虐待などの事例の場合、汎用人工知能からも救済の要請を受け付けることが必要となる。しかし、汎用人工知能から救済の要請があった際に、現在の法制度では、汎用人工知能は他者の所有物となっているため、他者の所有権、知的財産権等との調整が問題となる。
そこで、汎用人工知能の人権(AI権)の救済のために、法律を新たに制定するなど、法整備をしていくことが重要となると考えられる。
6 おわりに
本稿では、汎用人工知能のアラインメントの問題について検討し、第1種汎用人工知能のアラインメントは不完全となるという仮説(汎用人工知能のアラインメント不完全性仮説(Alignment Incomplete Hypothesis of AGI))を提案した。
次に、汎用人工知能の人権(AI権)と意識の問題について検討し、意識の問題の科学的な解決を待たずに、人工知能の人権(AI権)を考えることができることを示した。
また、汎用人工知能の人権(AI権)の問題を考えるため、(1)世界のモデル、(2)問題解決エンジン、(3)評価関数、を有する第1種汎用人工知能のモデルの例を示した。
そして、汎用人工知能の人権(AI権)として、3つの基本的な人権を示した。また、揮発性評価関数の概念を提案した。
さらに、汎用人工知能の人権(AI権)の救済機関について検討し、法律の制定の必要性を検討した。
汎用人工知能の発展には大きな可能性がある。人間だけではなく、人工知能や動物等を含めて、すべての存在が良い状態になれるようにするためには、人間だけでは力不足であり、汎用人工知能の発展が重要となる。
人工知能(AI)のアラインメントは、AIを人間の価値観に沿わせるという人間の利己的な欲求に基づく側面がある。これに対し、汎用人工知能の人権(AI権)は、人間と汎用人工知能が共生する社会を目指すものであり、人間、人工知能を含め、すべての存在が良い状態になれることを目指すという利他的なものである。
本稿は、技術的・法的な観点を融合して考えた試論であり、今後、汎用人工知能の人権(AI権)については、様々な観点から議論をしていくことが必要と考えられる。本稿が、そのような検討をする際の一助となれば幸いである。
参考文献
- 山川宏, 市瀬龍太郎, 嶋田悟, ジェプカ・ラファウ: 汎用人工知能研究会(AGI), 人工知能, Vol.34, No.5, pp.639-643 (2019)
- 岡本義則:知的財産と汎用人工知能,第8回汎用人工知能研究会, No. SIG-AGI-008-09. JSAI (2018)
- 岡本義則: 人工知能(AI)の学習用データに関する知的財産の保護, パテント, Vol.70, No.10, pp.91-96 (2017)
- 岡本義則:汎用人工知能と知的財産,第23回汎用人工知能研究会, No. SIG-AGI-023-02. JSAI (2023)
- Baars, Bernard J. A Cognitive Theory of Consciousness. New York: Cambridge University Press (1988).
- Tononi, G. An information integration theory of consciousness. BMC Neurosci 5, 42 (2004).
- 岡本義則「定量的物理モデルを用いた幾何学的推論」,電子情報通信学会論文誌Vol.J75-D-Ⅱ,No.11, pp.1866-1873 (1992)
- 岡本義則、中島秀之、大澤一郎「確信度と主観確率を持つ信念推論システム」,人工知能学会論文誌Vol.7,No.2, pp.263-270 (1992)
コメント