AIの社会的・相対的道徳的地位について:AIが生成したアートを用いた実証的研究(Lima et al., Frontiers in robotics and AI, 2021)
みなさんこんにちは!
微かに混じり合う教育と心理学とアートを考えていますじんぺーです。
今日も論文を読んでいきます。
AIの社会的・相対的道徳的地位について:AIが生成したアートを用いた実証的研究(Lima et al., Frontiers in robotics and AI, 2021)
結論からいうと、AIシステムの心の無さを評価することが、その後のAI生成アートの評価に影響を与える可能性があることがわかった
背景
■「ロボットの権利」論争(Gunkel, 2018b)
・ロボットの権利の議論に社会関係的な視点を提唱しているGunkelとCoeckelberghが進めている提案に動機づけられている
・道徳的地位は実体の存在ではなく社会的関係に基づいており、自動化されたシステムは社会的相互作用に直面して道徳的に問題となりうる
・人間がどれだけ価値を認めているかによって、これらの実体に間接的な道徳的地位を与えることができる
・ロボットの権利に関する文献は、実体をタイプ別(人間、人間以外の動物、人工物など)に分類し、人間を上位に置く制度に異議を唱えている
・学者たちは、「誰が」と「何を」の区別を再解釈することで、より尊重され、参加しやすく、尊厳のある社会秩序を促すことができると主張
■マインド・パーセプション理論
・道徳心理学の研究では、マインド・パーセプション理論に基づいて、人々が実体の道徳的地位をどのように認識するかを問う、異なる視点が提示
・心の知覚について広く用いられている概念は、人々がエージェントや患者の心を2つの異なる次元で知覚するというものである(Gray et al.、2007)
・1つ目の次元は、実体が恐怖や痛みを感じたり、意識を持ったり、その他の関連する能力を経験したりする能力を説明するものである:この心の次元のレベルが高いと認識されたエンティティは、経験値が高いとみなされ、これは道徳的権利の付与と相関があることが研究で示唆されている(Waytz et al., 2010)
・2つ目の側面である「主体性」には、自制心、道徳心、計画性、思考力など、主体の道徳的な主体性に関連する概念が含まれる:先行研究では、エージェンシーの知覚が責任の帰属と関連していることが観察されている
・Gray et al., (2007) は、ロボットには中程度のエージェンシーと低いレベルの経験が付与されていると述べている
■AI生成システムは、さまざまなスタイルの画像を生成することで素晴らしい成果を上げている
・文化社会学者は、芸術の社会的理解を発展させ、芸術の制作と価値の付与を、アシスタント、キュレーター、ギャラリー、美術館、美術評論家など、多くの人が関わる社会的プロセスとして捉えている
・多くの美術史家や他の人文科学者も、芸術の社会的側面に焦点を当て、芸術の規範がどのように進化したか(つまり、どのような芸術家が「偉大」と認められたかが変化した)、また、多くの疎外された芸術家(例えば、女性や有色人種)が芸術の歴史から除外されたことを示している(Nochlin, 1971)
・人々のアートに対する認識や相互作用は、社会現象として捉えることができる
予備研究
■参加者:45名の回答者(男性22名、女性21名、その他2名:35歳未満26名)
■素材
・Githubで公開されている事前学習済みのStyleGAN2実装を用いて画像を生成
・200枚の画像セットを入手した後,美術に関する豊富なトレーニングを受けた著者の1人が,真正性と品質に基づいて58枚の画像のサブセットを選択
■手続き
・参加者は、それぞれの画像を作成したのはAIプログラムと人間のアーティストのどちらだと思うかを答えるように指示された
・20枚の画像からなるランダムな部分集合を,ランダムな順序で連続的に見せられた
・作成者がわからないことを示すオプションも与えられた
・参加者には,すべての画像がAIモデルによって生成されたことが報告
■結果
・参加者の評価をもとに、最も曖昧だと思われる画像を選んだ
・曖昧さの観点から上位10枚の画像を選び、以降のすべての研究に使用
研究1
■手続き
・2つの条件のいずれかに無作為に割り当てられた
1.事前条件
・心の知覚理論に関する過去の研究からまとめられた一連の質問に回答
・知覚された主体性(例えば、AIシステムがどの程度「知的である」か)と経験(例えば、「幸福を経験できる」)
・AIシステムが芸術を創造する能力(以下、アートエージェンシー)と芸術を体験する能力(以下、アートエクスペリエンス)を評価
・0(まったくない)から4(非常にある)までの5段階
・その後、実験設定で選んだ10枚の画像をランダムな順序で被験者に提示
・それぞれの絵画を0ドルから1万ドルの範囲で評価するよう求められた
2.事後条件
・同じ質問と絵画の評価に答えましたが、その順序は逆で、まず10枚の画像をすべて評価してから、心の知覚に関するアンケートに参加
■参加者:140人の参加者(女性60人、男性77人、その他3人)
■結果
・AI生成システムに対して、中程度のエージェンシー(M = 1.85, SD = 0.96)とアートエージェンシー(M = 2.59, SD = 1.16)を感じていた
・AIシステムは、アートを経験することがわずかにできると評価され(M = 1.10, SD = 1.2)、ほとんど経験がないとされた(M = 0.34, SD = 0.67)
・AIシステムにどの程度の主体性(M pre = 1.97, M post = 1.74, t (136.5) = -1.427, p = 0.15, d = 0.24)と忍耐性(M pre = 0.25, M post = 0.42, t (132.9) = 1.531, p = 0.13, d = 0.25)を帰属させたかについては、処理条件によって有意な差はなかった
・画像を見た後にシステムのモラルを評価した被験者は、生成モデルに対してアートエージェンシー(事前=2.38、事後=2.77、t(125.6)=1.981、p=0.05、d=0.34)とアートエクスペリエンス(事前=0.88、事後=1.29、t(135.1)=2.119、p=0.04、d=0.35)をわずかに高く評価
・心の知覚に関するアンケートに参加する前に画像を評価した回答者は、画像をより価値のあるものと認識していました(M pre = 2,149, M post = 3,244, t (137.9) = 3.244 p = 0.001, d = 0.55)
研究2
■手続き
・各参加者は、4つの処理グループのいずれかに無作為に割り当てられた
・過小評価,中央値,過大評価の各条件に割り当てられた参加者は,研究1のポスト条件と同様の研究デザインを提示され,参加者はまずAIが生成した一連の絵画を評価した後,その制作者の道徳的地位に関する質問に答えた
・絵画を評価した後に、他の回答者が同じ絵画をどのように評価したかを、被験者が割り当てられた処理条件に応じて表示
・AI生成システムの道徳的地位について、6つの文言で評価:「正当な利益を持っている」「権利を持つことができる」「固有の価値を持っている」「単なる道具ではない」「保護されるべきである」「道徳的な配慮をするべきである」
■参加者:263人の参加者(女性126人、男性134人、その他3人)
■結果
・参加者が最初の評価をどれだけ変えるかには、割り当てられた条件が関与していることが示唆された(F (3, 220) = 26.684, p < 0.001)
・過大評価されたAI生成アートを提示された被験者は、治療後に初期評価を増加させた
・他の条件に割り当てられた参加者は評価を下げた
・研究1と同様に、参加者はAIシステムに中程度の主体性(M = 1.45, SD = 1.00)とアート主体性(M = 2.54, SD = 1.27)を見出し
・過大評価されたAIアートを提示された参加者は、AIが生成した画像とインタラクトする前に評価した参加者よりも、その制作者に低いレベルのエージェンシーを帰属させることが観察された(M pre = 1.86, M overvalue = 1.31, t (1,102) = -3.02, p = 0.02, d = 0.55; all other p > 0.05)
コメント
長かった、、見たいものが書いてあるわけではなかったので、途中で読むのやめたらよかったかも…強いて言えば予備調査の結果が1番気になる。
論文
Lima, G., Zhunis, A., Manovich, L., & Cha, M. (2021). On the Social-Relational Moral Standing of AI: An Empirical Study Using AI-Generated Art. Frontiers in robotics and AI, 8, 719944. https://doi.org/10.3389/frobt.2021.719944