お知らせ & 法律相談コラム

対話型AIの利用は情報漏洩の危険も!?

皆さんは、対話型人工知能である「ChatGPT」(チャットGPT)を活用されていますか?とても便利な機能で、これまでの検索よりもより多くの情報や適切な情報にアクセスがし易くなったということもあるでしょう。

このChatGPTについて、令和5年3月12日の日経新聞の記事(サイバーセキュリティエディター岩沢明信)によると、ソフトバンクなどの大手企業が機密情報などの入力をやめるように社内に通知をしたとのことです。その記事の中では、「情報セキュリティ大学院大学の後藤厚宏学長は『パソコンで手軽に使える対話型AIは社員の警戒心が薄くなり、機密データを入力して社外で思わぬ利用をされる恐れもある』と指摘する。」との記載があります。

確かに、手軽に使える機能ですし、一見すると、自分とその機能との対話という認識で使っているかもしれません。しかし、その先には、ちゃんと、誰がどんな情報を入力しているのか、それによってどのような回答を求めた(与えた)のかという点もきちんとデータとして収集されていることを忘れてはいけません。こういったあたり前のことを今一度、確認する必要があるのでしょう。先の記事には続きがあり、「効率化のため利用は進めるべきだとし『社内の専門チームでテストして使い方や入力してもよい情報などのルールを明確にするべきだ』と語る。」との記載もあります。利便性と安全性はトレードオフの関係にありますので、その点を踏まえて検討する必要がありそうです。

 

 

ページトップへ
%d人のブロガーが「いいね」をつけました。