OpenAIのChatGPTは広く賞賛され、答えられない質問はほとんどないぐらいです。しかし、EU一般データ保護規則(GDPR)の施行者であるイタリアは、イタリアでのChatGPTの使用を即効で一時的に禁止しました。
つまり、イタリアにいると、今はAIチャットボットを使えません。その理由を見ていきましょう。
なぜイタリアはChatGPTを禁止したのか?

2023年3月30日、イタリアのデータ保護機関であるGarante per la Protezione dei Dati Personali(GPDP)は、ChatGPTを即効で禁止することを正式に発表しました。この禁止措置はChatGPTがEU一般データ保護規則に準拠するまで続く予定です。
イタリアのデータ規制当局は、OpenAIのChatGPTがいくつかの問題を引き起こし、EUのプライバシー法を侵害すると宣言しました。GDPDのプライバシーに関する懸念は、次の5つの主要分野に分類されます。
1.プライバシー法の違反
GDPDの最大の懸念は、ChatGPTがプライバシー法に違反する個人データの処理を続けていることです。ChatGPTの仕組みは、配備前に訓練されていますが、チャットボットは、適切な回答を提供するために、ユーザーからデータを収集・処理します。
イタリア規制当局は、データ管理者がEUのプライバシー法に概説されている一般的な義務に確実に従うことを求めていますが、OpenAIはそれができていません。
2.個人情報の不当な収集
GDPDは、プライバシー法の違反はもちろん、ChatGPTのアルゴリズムを訓練するためにOpenAIが個人データを大量に収集・処理することに法的正当性はないと主張しています。
イタリア規制当局によると、ChatGPTの情報は必ずしも事実関係と一致しないため、OpenAIは改ざんされた個人データを利用する可能性があります。
3.アクセスしやすく透明性の高い情報の欠如
さらに、イタリア規制当局は、OpenAIがデータを収集したことをそのユーザーに知らせていないことを指摘しています。これもEUのプライバシー法の明らかな違反です。
4.年齢確認システムの欠如
GDPDは、ChatGPTには適切な年齢検出の仕組みがNAいせいで、13歳未満のユーザーに対して不適切な情報をさらしていると発表しました。
これは、個人が自身の個人データの処理に明確に同意しなければならないとしているEUのGDPRに違反しています。法定年齢未満の個人は、本人に代わって同意することはできないからです。
5.データ侵害のリスク
2023年3月20日に報告されたデータ侵害を引用しながら、イタリア規制当局は、チャットボットのデータ侵害のリスクについて懸念を示しました。ユーロポールが犯罪者がChatGPTを利用して詐欺やサイバー犯罪を行う可能性があると発表したことで、こうした懸念が高まったと思われます。
データ侵害は、イタリアのプライバシー法にも抵触するため、すべてのデータ処理業者は適切なセキュリティ対策を講じなければなりません。
イタリアのChatGPT禁止措置に他のEU諸国も足並みをそろえる可能性がある
EU一般データ保護規則は世界で最も厳しい個人情報保護法であると言われており、今回のイタリアの禁止措置は欧州におけるデータコンプライアンスの重要性を際立たせています。
アイルランドのデータ当局は、GDPDの動きを研究しており、この禁止措置に関してEUと「調整」する意向であることが報告されています。
また、英国のデータ規制当局は、データ保護法を遵守することを条件に、AIを支持することを宣言したと言われています。
イタリアのChatGPTの禁止は全面的ではあっても、一時的なものだと言われています。Garante per la Protezione dei Dati Personaliは、OpenAIに対して、改善命令を遵守するために実施した措置の詳細を通知するよう求めています。
OpenAIがこれに従わない場合、この禁止措置は恒久化する可能性があり(現にイタリアはReplikaという別のAIチャットボットの使用を永久に禁止しています)、さらに、OpenAIは2千万ユーロまたは全世界の年間売上高の4%を支払うことになります。
イタリアのChatGPT禁止措置は、世界のAIデータコンプライアンスを改善することになるのでしょうか。
あるいは、AIチャットボットの急成長を妨げることになるのでしょうか。いずれにせよ、ChatGPTに大きな影響を与えることになるでしょう。