注目の論文

人工知能:AIの創造的思考能力は人間を追い抜くかもしれない

Scientific Reports

2023年9月15日

Artificial Intelligence: AI may outperform most humans at creative thinking task

人間の被験者と大規模言語モデル(LLM)の人工知能(AI)チャットボットは、創造的思考課題において、平均点で人間よりも優れた回答を出せる可能性のあることを示した論文が、Scientific Reportsに掲載される。ただし、最高成績を挙げた人間の被験者の回答は、チャットボットの最高の回答より優れていた。この課題の具体的内容は、日用品を提示して、通常の用途以外の使い方を提案させるというもので、これは拡散的思考の一例である。

拡散的思考は、思考過程の一種で、一般に創造性(与えられた課題に対して異なるアイデアや解決策を数多く生み出すことに関与する)と関連付けられている。拡散的思考は、通常、代替用途課題(AUT)を使って評価される。AUTの被験者は、短い時間内に日用品の代替用途をできるだけ多く回答することが求められる。回答は流暢性、柔軟性、独創性、綿密性の4つのカテゴリーで採点される。

今回、Mika KoivistoとSimone Grassiniは、4種類の日用品(ロープ、箱、鉛筆、ろうそく)を対象物としてAUTを実施し、人間の被験者256人の回答と3種類のAIチャットボット(ChatGPT3、ChatGPT4、Copy.Ai)の回答を比較した。この研究では、回答の独創性を評価するために、回答の意味的距離(回答が対象物の本来の用途とどれだけ密接に関連しているか)と創造性の数値評価が行われた。意味的距離は、計算論的方法を用いて0~2の尺度で数値化され、創造性については、誰が回答したかを知らされていない人間の評価担当者が5段階評価(1~5)で主観的に評価した。評価点の平均値で比較すると、チャットボットが生成した回答の点数は、意味的距離(0.95対0.91)と創造性(2.91対2.47)のいずれにおいても人間の回答の点数より有意に高かった。しかし評価点の幅は、意味的距離と創造性の両方で、人間の回答の方がはるかに広く、最低点はAIの回答よりもかなり低かったが、最高点はAIの回答よりも高かった。最高点を挙げた人間の回答の点数は、8つの採点項目のうち7つで、各チャットボットの最高点の回答の点数を上回っていた。

今回の知見は、AIチャットボットが、少なくとも平均的な人間と同等に創造的なアイデアを生み出せるようになったことを示唆している。ただし著者らは、今回の研究では、創造性の評価と関連付けられる単一の課題におけるパフォーマンスしか検討されていないことを指摘している。著者らは、今後の研究で、人間が新しいものを生み出す過程にAIをどのように組み込めば人間のパフォーマンスが向上するかを調べることを提案している。

doi: 10.1038/s41598-023-40858-3

「注目の論文」一覧へ戻る

プライバシーマーク制度