AIR Newsletter Vol.1, No.1

pdficon_largeAIR Newsletter Vol.1, No.1

JAPANESEENGLISH

人工知能が浸透する社会を考えるワークショップ第一弾 報告

はじめに:ワークショップ開催までの経緯

人工知能学会誌の表紙デザインは物議を醸したが、その過程において、生活の中に埋め込まれる人工知能技術について、多くの課題や問題点が顕在化し、社会と人工知能技術について、改めて思索する端緒となった。
 言うまでもなく、人工知能技術は社会への浸透を急速に深めていく様相を呈している。Google Glass等のウェアラブルデバイスが普及に向けた第一歩を踏み出し、自律的に走行・飛行するロボットカーやマルチコプターが続々登場し、またエンターテイメントの分野でもWatsonが人間を超える能力を示し、卓越した囲碁プレイヤーも生み出されようとしている。このような社会状況、技術動向からも、様々な知能技術と社会の関係について改めて考えざるを得ない。
 今後、人工知能の分野で培われた技術の社会実装の流れは加速するだろう。我々は、人工的に構成された知的技術と共存する社会を生きていく事になるかもしれない。では、我々の日常の様々な局面に立ち現れる知能技術はどのような姿であれば良いのか。社会に浸透する知能技術はどのようなインタフェースを纏うべきなのだろうか。そして、我々の日常に高度な知能技術の存在を前提とした時、どのように社会制度を再設計し、倫理観をどのように捉え直していくべきなのだろうか。知能技術への脅威論も囁かれる中、新しい人間社会について、分野を超えた深い議論を我々は開始しなければならない。
 そこで、人工知能技術と社会について、多様な意見を集めまとめ上げ、知能技術が社会的な受容性を得るためにどのような事に留意すべきか、人間と人工知能融合時代の社会の制度や倫理等のテーマについて議論するための有志による集まりを組織するに至った。

第1回WSの概要

2014年9月12日(金)の17時30分より、京都大学iCeMS本館2階に人工知能研究者4名と、応用倫理・哲学者5名、そして科学技術コミュニケーションの研究者3名が集まった。まずワークショップ企画者の一人である服部氏から、人間と人工知能が融合する近未来の社会的課題について考えることの重要性と、それに対する知恵を議論するための知のネットワークを形成したいという、このワークショップの目的が示された。
 ワークショップは2時間半にわたり、人工知能研究者4名からの話題提供をもとに議論を行うという形式で進行した。話題提供は、人工知能研究分野に興味を持った経緯などの個人史や、現在の研究の内容と直面している倫理的・法的・社会的課題(ELSI)などが中心となった。
 本報告では、議論から浮かび上がってきた人工知能技術の特徴やその社会的課題について、項目別に示す。

人工知能研究(者)の特徴

「人工知能研究の魅力は何か」という問いに対して、「知能」を定義する、すなわち「工学的にこれが知能である」と新しい切り口を示していくことが研究の醍醐味であるとの回答があった。「成功した人工知能技術は人工知能とは呼ばれない」という考え方が研究者間では共有されており、「うまくいくということはその分野が体系化されているということを示している。人工知能はまだ体系化に至っていない」(松原、1997)や、「人工知能学会がとても特徴的で魅力的だと思う点は、学会の対象物である「人工知能」がまだ見ぬものであることだと思う」(松尾・山川、2011)など、新しいものを求めるフロンティア精神が人工知能研究者に共有されていることが伺える。
 「人工知能の社会的影響について、どのように考えてきたか」という問いに対しては、研究者としては明るい未来を作っているという意図を持って、皆、研究していると信じている一方で、社会からどう見られているのかに無関心であったかもしれなく、それが表紙問題につながったのではないかとの声もあった。しかし、特集(※コラム1)において八代氏が警鐘をならしたように、「われわれは技術の可能性を過小評価していたのではないか」との自覚が現在、人工知能研究者の間で徐々に芽生えつつあるという。

人工知能の社会的影響を考えることの難しさ

現在、人工知能技術から生まれた要素技術には音声・画像認識、自然言語処理、シミュレーション、機械学習などがある。しかしこれらの技術は「ソフト」であるため技術単体ではなく、「ハード」に組み込まれて評価されるという特徴を持つ。そのため、いかに「ソフト」が画期的でも「ハード」のせいで社会的に受容されないということがある。
また、ロボットなど物理的な影響や損害がわかりやすい研究の倫理的・法的・社会的課題(ELSI)に関する議論は数多く行われている一方で、「見えない」人工知能のELSIの議論は難しいとの指摘がなされた。
 さらに「人の心や知性」を理解したいという動機そのものが障害になる可能性もある。例えば、人工知能に話しかけられて心理的に傷つくという被害を無くそうというルールを作ることが、「人の心を動かす・揺さぶる人工知能」を作る研究を放棄することになりかねない。現在では人狼カードゲームをコンピュータに実装しようとするプロジェクトがあるが、嘘をつくコンピュータは、倫理的にどのように判断されるのだろうか。

倫理審査基準の不在

フロンティア精神をもつ人工知能研究だからこそ、倫理審査によって研究に制限がもたらされることに懸念を抱いている。例えば個人情報などのプライバシー問題と倫理審査の意義について議論が行われた。街中での撮影など、個人情報が収集されていることを貼り紙等で知らせる場合、それを街の住民全員に確実に周知させることはできない。また、倫理審査に通ることと、その研究が社会に受け入れられることは別の問題ではないかとの問題提起がなされた。
 このような場合、倫理審査は何を保証しているのかという人工知能研究者からの疑問に対し、倫理審査の「手続き」としての側面(個人情報を取られることを嫌がる人は何をしても嫌がるので、一応の線引きを倫理審査が担保するということ)や、倫理審査を通すために研究者自身がプライバシーなどについて考えることができるという教育的側面が提示されたが、議論が紛糾した。これには、情報学における倫理審査基準が生物系・医療系などと比較して整備が遅れていることが一つの原因として考えられる。
 また、民間企業などは、独自の審査基準をもとに自社の保持しているデータを使って実験を行ってしまっているなどの現状がある。そのため、「情報学研究における適切な倫理審査基準とは何か」の議論が、今求められているのではないかとの問題提起がなされた。

人工知能と人間が共存するときの責任問題

シンギュラリティ(人間の知能を技術が超える)問題などの観点から、倫理的影響のほかに、技術が人間に置き換わる問題についてどう対処するかといった議論も行われた。ラッダイト運動のような反対運動に対しては、置き換わることによって、人間がもっと自由になる、という考えを打ち出すことが提案された。事実、コンピュータと人間が協調することによってパフォーマンスがよくなることも近年の研究から判明している。
 しかし一方で、人間と人工知能の距離が近くなるほど、そこでの責任をどう考えるかという問題は常に付きまとう。例えばシミュレーション結果によって事故が起きた場合、誰が責任を取るのか。
イタリアのラクイラ事件は決して他人事ではないという。人工知能は意思決定や判断・推論にかかわる技術でもあるため、技術の未熟さを言い訳にして、責任問題をいつまでも棚上げしておくことはできないとの問題が指摘された。

産・官の勢いとアカデミアの役割

様々な技術の可能性や課題について解説する人工知能研究者たちに対し、例えばその技術が人類の幸福につながらないと判断された場合、一研究者がその流れを止められるのか、という問題提起がなされた。また、最終的に消費者が選ばなければ、その技術開発は止まるのだろうか、との疑問も呈された。一つの技術開発の後ろには莫大な投資や産業がある。例えばGoogleなどの企業は人工知能研究に注力しており、全部持っていかれかねないというアカデミアの懸念もある。
しかし、Googleも倫理委員会を社内で立ち上げるなど、現在人工知能研究の社会的影響を考える時期に来ていると言えよう。技術が社会に普及して一般に利用されていくとき、あるいは技術者が想定しないような使い方がされ始めた時、どこまでが研究者の責任なのかということを、研究者一人一人が考えることが大事なのではないだろうかとの回答があった。また、それには、倫理教育や異分野の研究者との連携など、アカデミアだからこそできることもあるのではないかとの提案もあった。

今後の課題

最後に、人工知能研究者以外の研究者に「人工知能」に対する印象を聞いたところ、「サイバネティクス」など少し古いものから、「ロボットの中にある技術」という、人工知能の「見えなさ」具合を象徴するようなイメージまでさまざまであった。SFだけではなく、近年ではニュースなどでもよく聞く単語になってきた人工知能。
それが具体的に何を意味しているのか、研究者はどのような共通アジェンダを持っているのか、どのような社会的課題に直面しているのかなどに関しては、多様な意見が展開された。
時には、意見が対立し、まだ埋められないギャップがあるということも再確認された。
 しかし一方で、対話を通して、新しい技術設計や倫理基準、価値観を、今このタイミングで議論を通して構築していく必要があるとの意見は一致した。ワークショップ後も白熱した議論が展開され、この「知のネットワーク」の今後が非常に楽しみなワークショップであった。

研究会の名称について

研究会の名称をAIR: Acceptable Intelligence with Responsibilityとしました。
人々に認められる知能技術とは何か、そしてそれに関わる研究者の責任とは何かを考えたい、という意味を込めています。
また,AにはArtificial,Ambient,Accountable,Adorableなどいくつもの意味が当てはまるとも考えています。 
 今後、本プロジェクトメンバーで、人工知能がAIRのように当たり前のように存在するってどういう社会だろう?ということを考えていきたいと思います。

REPORT: 1st Workshop on Our Society with Ubiquitous AI

On September 12th, 2014, four AI researchers, five Applied Ethics researchers, and three SSH researchers got together at iCeMS, Kyoto University, Japan. At the beginning of the workshop, HATTORI detailed the goals of the series of workshops to be held in this fiscal year:

  • we have to recognize the issues emerging from investigations of the imminent society consisting of humans and advanced AI technologies.
  • we should try to form a network of wisdom to tackle the issues.

During the two and half hour workshop, AI researchers presented each research topic, including individual the experiences of AI researchers and ELSI (Ethical, Legal and Social Issues). All participants exchanged ideas and knowledge through discussions of the topics. The topics discussed at the workshop are listed below:

  • nature of AI research(ers)
  • difficulties of assessing the impact of AI
  • lack of ethical norm for AI technologies
  • responsibility issue in diverse society with humans and AI
  • the roles of academia, industry, and government