著作権の侵害や個人情報・肖像権の不適切な取り扱いなど、AI開発段階における様々なリスクへの社会的関心が日々高まっています。各法的観点から鑑みて、AI開発における学習行為やその前提となるデータの収集において、企業は何に留意すべきなのか。また、炎上リスクを低下させるために当初から取り組んでおくべきこととは。
著作権に詳しく、AIと各種権利の関係について精通されている福井健策弁護士(Visual Bankグループの株式会社アマナイメージズの顧問弁護士)に、当社 AI倫理対応・政策企画責任者である望月がお話を伺いました。

福井 健策
骨董通り法律事務所 For the Arts 代表パートナー
1991年東京大学法学部卒業、93年弁護士登録。コロンビア大学法学修士課程修了。2003年、骨董通り法律事務所For the Artsを設立。日本大学芸術学部・神戸大学大学院・iUほか客員教授。『著作権とは何か』『エンタテインメント法実務』など著書多数。文化庁文化審議会・内閣府知財本部などの委員を務める。

望月逸平
株式会社アマナイメージズ AI倫理対応・政策企画責任者

東京大学法学部卒業後、国内大手証券会社に入社。投資銀行部門にて6年間、伝統的産業から最先端のテクノロジー企業まで、幅広いジャンルのM&Aと資金調達案件を手掛ける。2022年8月、株式会社アマナイメージズに参画。以来、AI関連の事業開発と法務を担当し、AI向け教師データの提供を推進。2023年5月、同社のAI倫理対応・政策企画責任者に就任。2023年6月、新設の日本画像生成AIコンソーシアムにてコンソーシアム代表に就任。


AI学習×著作権:著作権法30条の4にある
「但し書き」をどう解釈すべきか?

望月:まず、著作権法についてお伺いさせてください。AI学習との関係でいうと、30条の4が議論の中心になりますね。AIによる学習を進める上で、留意すべきポイントを教えてください。

福井氏著作権法30条の4では、『著作物に表現された思想又は感情の享受を目的としない利用は、自由におこなえる』とされています。この代表例として挙げられるのが情報解析で、端的に言えばAIの学習、学習の前提であるデータの複製も可能というものです。

とは言ってもこれには但し書きがあって、『著作権者の利益を不当に害することとなる場合は、この限りではない』とあります。これまでこの部分についてはあまり議論されておらず、唯一、学習用に構築されたデータベースをそのままAI学習のために複製するのは、利益を不当に害する例として挙げられてきました。この但し書きに該当すると、通常の著作権の利用と同じように、権利者の許諾などが必要となります。

現在、生成AIを契機に、この但し書きについての議論が行われています。今後議論が進む中でおそらく問題になるのは、オプトアウト(AIによる学習を拒否する意思表示)の扱いでしょう。EUではAI学習を認めているものの、営利目的の場合は権利者がオプトアウト、つまり将来のAI学習からは除外してほしいと要求できます。

日本でも、オプトアウトの規定を取り入れるべきだという議論があります。商用目的の学習で著作権者がオプトアウトを求めている場合は、学習対象から除くべきだといった主張です。このような場合、通常であれば法改正に話が及びますが、私見では、著作権法30条の4を解釈する行政のガイドラインなどで、該当する場合の一例として提示することもできると思います。オプトアウトの意思表示を無視する商用目的の学習は、著作権者の利益を不当に害するものだと、但し書きから解釈するといった整理のしかたです。ただし、実際にそう整理するのが正しいかは、今後の政府での議論に委ねられるでしょう。


望月但し書きの解釈で議論を行うことができれば、よりスピード感を持って対処することができそうですね。

福井氏日本は学習できる範囲が広い一方で、EUでは厳しく規制されているとよく言われていますが、必ずしもそうだとは限りません。日本の但し書きは、考えてみると何も間違ったことは書いていないですね。著作権者の利益を害さないなら、有益なAIのための学習を止める理由はない。他方、著作権者の利益を不当に害するものは除く。ごく真っ当な基準です。であれば、時間をかけて法改正するよりも、その但し書きを読み込んでいくほうが効率的だという考え方はありえます。ガイドラインはただちに法的根拠を有するわけではないですが、それだけにスピードと柔軟性を持たせられます。そして、無視したときには裁判で負ける可能性が高まることは事実でしょう。

もう1点、但し書きの解釈において論点となるのは、海賊版から学習する場合です。諸外国の立法例では、『ただし違法コンテンツから学ぶことは許されない』という例も多いのです。日本はその規定がないので、海賊版からの学習が可能なのではと言われてきました。ただ、海賊版にアクセスして学習するのは、いわば海賊版運営者に広告収入など利益をもたらしている行為と言えますから、著作権者の利益を不当に害していると考えられるのではないでしょうか。

望月EUの著作権についてお話がありましたが、その他の諸外国についてはいかがでしょうか?


福井氏:EUについて付け加えると、「AI法」という生成AIのデータ透明化などを含めたルールが年内にも施行されようとしています。イギリスでは、非商業利用の場合に限って自由なAI学習を認めています。アメリカでは、学習自体を著作権法上のフェアユース(公正利用)としてできるかどうかが、裁判で争われています。AI学習を著作権の例外規定としてどこまで認めるのか、決着はこれからという状況です。一方で、どの国でも無許諾のAI学習がこれらの規定を根拠にかなり大規模におこなわれ、AIの超進化を支えて来たのも事実です。

どの国の法律を適用するのかも避けては通れません。いわゆる適用法の問題です。例えば日本の法の適用に関する通則法の17条では、『不法行為によって生ずる債権の成立及び効力は、加害行為の結果が発生した地の法による』とあります。こうした考えによっても条約によっても、アメリカのサーバーに日本のコンテンツが複製されて学習される場合、恐らくアメリカ法が適用されるでしょう。このように、日本の権利者であっても事業者であっても、諸外国の法規制も考慮する必要があります。その国の法令に従って自分の作品が学習される可能性や、自分が活用しようとするAIが海外の違法なサービスだった、というリスクがあるということです。

✏️著作権法30条の4のまとめ
▶︎著作権法30条の4により、但し書きに該当しない場合の著作物の学習利用は可能
▶︎但し書きの具体的な内容が議論されていく可能性があり、その動向を注視すべき
▶︎日本だけではなく、学習サーバーやAIサーバーの所在地を含めた海外の法制度も確認

AI学習×肖像権:肖像権法”が無いからこそ知りたい。
肖像権侵害を避けるためのポイントとは?

望月:続いて、肖像権についても伺いたいです。AI学習で気をつけるポイントがあれば教えてください。


福井氏日本において肖像権法という法律はありません。人は自分の容姿について、無断で撮影・公表しないよう主張できる、と判例で認められていますが、法律はないのでその解釈は曖昧です。

2005年の最高裁判例で、肖像権については受忍限度に基づく総合考慮をすべきであるという基準が打ち立てられました。社会生活を営む上である程度の撮影や公表は我慢すべきだが、そこには一般的な我慢の限度があり、その受忍限度を超えた時に初めて肖像権侵害で違法になるのだというものです。この場合の受忍限度は、社会的地位や撮影場所・目的などの総合考慮によって判断します。私が法制度部会長を務めているデジタルアーカイブ学会が発表した肖像権ガイドラインは、直接的にAI学習に適用できるものではないものの、AI学習データ収集の場面で人物の肖像を撮影・取得する際の考え方の参考になると思います。


望月:仮にAIの学習だけの行為の場合は侵害にあたるのでしょうか?


福井氏:過去の裁判例に照らせば、既存の写真データを収集し、学習する行為のみに限ると恐らく肖像権侵害となる可能性は一般的に低くなります。それ以前、例えば自身や自身の関係者が人の肖像を撮影する段階で、肖像権侵害に注意すべきです。加えて、収集・撮影に関与しない場合、例えばオープンソースデータを使用するなどの場合でも、AIの学習の結果として実在の人の肖像に類似したものが出力されるような場合は、出力からその利用までの一連のフローでの肖像権侵害のリスクは高まります

✏️肖像権のまとめ:
▶︎肖像権は法令上の定めがなく曖昧な部分も多いが、裁判例での考え方や学会等が発表しているガイドラインを参照し、撮影や取得の個々の場面で判断が必要
▶︎AI学習行為単体であれば肖像権の侵害リスクは一般に低いものの、実在の人物とよく似た肖像が出力されるサービスの場合は特に注意が必要

AI学習×個人情報保護法:日本企業も無視できない、
「域外適用」を掲げるEUのGDPR

望月:人物の肖像などは個人情報保護法も関わってくると思います。その観点ではいかがでしょうか?

福井氏個人情報保護法という法律があり、取得時の利用目的の特定・通知や公表、第三者への提供に関する規制など非常に幅広い制限があります。個人を識別できるものが対象なので、一定の顔写真や氏名、住所などが該当します。AI学習を行う場合、以下のような対応を考えるべきでしょう。


まずは、AI学習用であると利用目的を明示し、第三者提供についても本人から許諾を得られれば、一般に個人情報保護法上の問題は少なくなります。また、法令上、匿名加工情報は同意なしで行える利用の幅が拡大します。これは、個人を識別できないよう情報を匿名化するもので、取得データのうち、個人の特定に繋がる部分の情報を削除するなどです。なお、上記に限らず、学術研究機関の場合は広い範囲で個人情報の利用が認められています

福井氏個人情報については、著作権法でお話しした適用法の原則の他にも、EU法のような「域外適用」のリスクについても考えなければいけません。GDPR(EU一般データ保護規則)において、EUでサービスを提供するのであれば、EU域外の企業でもこの規則に従いなさい、違反した場合は巨額の罰金を課すよ、とはっきり明示されています。EUに拠点がなくとも、EU内でサービスを提供するのであれば、GDPRについて考慮する必要があります。

✏️個人情報保護法のまとめ:
▶︎個人情報保護法によって広範な法規制が存在するため、取得、利用時などそれぞれの段階で対応が必要
▶︎EUのGDPRは域外適用を行っているため、EU内でのサービス提供を考えている場合などは対応することが求められる

AI学習×リスク:時に法的リスク以上に危険な炎上リスク、
押さえておくべき3つのポイント

望月これまで、著作権や肖像権、個人情報について解説いただきましたが、グレーゾーンで開発を進めざるをえない日本企業も多いかと思います。リスク管理の上で特に留意すべき点はどこにあるのでしょうか?

福井氏:まさに著作権法の但し書きの議論もあるので一概には言えませんが、一般的には、商用目的の場合や、被写体本人の意思を反映したり、著作権者への収益を還元する仕組みがない場合は、問題になりやすいと考えられます。

望月クリエイターやカメラマン、モデルの権利について考えると、各人の意思や感情も重要だと感じます。それらが十分に尊重されていないと本人たちが感じた際、トラブルになることが多いように思いますが、長らくアート・エンタメ業界を見てきたお立場から、より広い観点でのリスクについてお伺いしたいです。


福井氏:今や企業のリスク管理は、法律的なものだけでなく、炎上リスクを含めた広い意味で捉える必要があります。炎上リスクが、時に法的リスク以上に厄介なのは、世間の風向き次第で方向性の予測が極めて困難なことです。かといって、炎上リスクをあまりに怖がりすぎると、何も行動を起こせなくなってしまい、それは正しい選択ではありません。

無用な炎上リスクを下げるために重要なこととして、大きく3点が挙げられます。
1点目が、リスクとメリットとのバランスを考えること。法律上の話であったとしても、リスクゼロというケースは世の中にほとんどありません。無論、犯罪行為などは論外ですが、そうでなければ問題が顕在化したときの損害の大小と顕在化する可能性でリスクを捉え、一方で予定しているビジネスのメリットと比較すべきです。それが釣り合っていないときは何らかの代替手段を考える。

2点目が、最低限のリスペクトを持つことです。私は法的な「ルール」の問題と「マナー」の問題は分けるべきという立場ですが、とはいえ相手への配慮が足りないと受け取られた時に炎上やトラブルが起きやすいのは、厳然たる事実です。相手を過度に慮って何もしなかったり、全てをお伺いたてるというのも違いますが、これをやると相手が嫌な気持ちになるだろうなという、想像力を最低限持ちましょうということです。

3点目、最も重要なのが初動です。拡大した炎上の多くは、初動を間違っているように見受けられます。発生初期に、きちんと事実確認を行い、少なくとも無用に炎上を拡大させないよう努める必要があります。すぐに謝罪すべきなのか、毅然と自分たちの主張を通すのか、もちろんその時々の判断で難しいことも多々あるのですが。
AI学習においても、広い意味でリスクを捉え、対処していく必要があります。

✏️炎上リスクに関するまとめ:
▶︎「リスクゼロ」があり得ない前提のもと、リスクとメリットを比較した上で企業としてどのようなリスクを取るべきか判断
▶︎炎上リスクを回避するため、あくまで法令上の整理を重視しつつも、「最低限の配慮」という観点も持っておくと良い

望月先生からの解説と実践ポイントを伺うことで、多くの日本のAI開発企業にとって、データの収集や学習段階でリスクをコントロールしつつ、新たなAI技術やAIサービスを世の中に生み出していくヒントになったと思います。貴重なお話しをいただき、ありがとうございました。

 

関連記事
Qlean's Voice #1
京セラグループ Ristに聞く「世界標準の権利クリアなデータ」とは?
Qlean's Voice #2 
30年のノウハウを学習用データ開発に還元。AI学習用データ「Qlean」プロデューサーが語る可能性

アマナイメージズのAI学習用データセット開発サービス『Qlean(キュリン)』に関するご質問をお気軽にお問い合わせください。

電話:0120-410-225
営業時間 9:30~18:00(土日祝日を除く)
E-mail qlean@visual-bank.co.jp
Qlean サービスサイト 
Qleanお問い合わせフォーム