クラウドミーティングを使うことで、あなたの顔はAI分析の”素材”となっている!?

コロナ禍でクラウドミーティングが大きく広がりました。Zoom、Teamsを代表するクラウドミーティングサービスも大きな利益を出しています。

ところでクラウドミーティングを「通過」するデータは、本当に安全なのでしょうか?

考えたこともないかもしれませんが、あなたの顔を撮ったデータは、必ずクラウドサービスを通過しています。

もちろん暗号化され安全だとは言われますが、それは自分からサービスサーバーまでの経路の話。実際のところサービス側では復号(暗号解除)をされ、受け手に配信されたり、サーバに蓄積されたりしています。

サービス側では「見ようと思えば見られる」状況にあることを、まず知っておくべきです。

記事に出てくるクラウドミーティングサービスについての考察は、あくまで筆者の想像の範囲となります。確定的な証拠をもとに書いているわけではありませんので、あらかじめご了承ください。

Zoom社の「ある研究」とは?

最近このような記事が公開されました。

Zoom「感情分析AI」に人権団体が抗議 何を心配しているのか?
複数の人権保護団体が、Zoom Video Communicationsに対して「感情を分析するAI技術」の研究中止を求めて共同書簡を提出した。どのような懸念が...

 

Zoomが行っている「顔の表情や声を手掛かりとして、エンドユーザーの感情を分析するAI(人工知能)技術の研究」を中止してほしいという嘆願です。

なるほど、Zoom内で顔を読み取り、リモートでは伝わりにくい「喜び」「怒り」などを判定する、という試みでしょう。

実現すればお客様が喜んでいるのか怒っているのか、人の表情を読み取ることが苦手な人でもうまく対応できるようになるかもしれません。

 

さて、問題はAIの作成までの道のりです。

AI、この場合は人間の表情を読み取ると言うことでディープラーニングという技術が主に使われていると推測します。

 

ディープラーニングに触れたことがある人は分かると思いますが、たとえば写真に映ったリンゴを判別しようとすると、数百枚のリンゴの写真を見せ、「どれがリンゴなのか」をAIに覚え込ませる必要があります。これを「学習」と呼んでいます。

僕も一時期ディープラーニングソフトのKerasやYoloなどで遊んでいたのでわかりますが、1つのものを柔軟に認識するためには、最低300枚以上が必要でした。

つまりリンゴを判別するためには、数百枚のさまざまなリンゴの写真が必要になる、ということを覚えておいてください。

 

ということは、Zoomが表情を読み取るAIを作ろうとしている場合、数百枚どころではない「人間の顔」が必要になります。精密に判断させようとすれば、数億枚でも驚く単位ではありません。

AI ディープラーニングのイメージ

 

人間には多数の人種がいて、肌の色も違えば、国や習慣でさまざまな感情表現があります。

数十人程度のモデルを集めて写真を撮ったところで、はっきりいって全世界で通用するAIが完成することはないでしょう。

ではなんのデータを使っているか?

僕は、あなたがZoomで話している動画が「素材」の1つとなって、AIに与えられているのではないのだろうか、と想像します。あくまで想像ですが、全世界の人々の自然な感情を捉えようとすれば、それ以外に方法は見つかりません。

そしてZoom社は、何もしなくてもたくさんの動画データを手に入れられる立場にあります。Zoom社があれほど便利で有用なサービスをほぼ無料で提供している理由は、このあたりにもあるかもしれません。

お金を払ってもなかなか手に入らない「人間が自然に話す姿」のデータを、無制限に手に入れられる・・・これはAI技術者にとって天国のような場所です。

 

AI研究者は、きっとそれらのデータにアクセスする権限を持っているはずです。顔にモザイクがあったら学習できませんから、もちろんそのままの動画を見ているはずです。

研究者が全員正直で正義感あふれる人ならまだマシですが、たいていの場合そうではないでしょう。

機密契約があっても単に話さないだけで、プライベートを盗み見るのが大好きな人がいるかもしれません。リモート夫婦げんかを見ているかもしれませんし、もしかしたら莫大な利益を出すインサイダー情報を手に入れているかもしれません。機密データを扱う会議を見られているかもしれません。

たとえそれが起こっていたとしても、私たちには一切知ることはできません。

あくまで想像・・・ですけどね。

自社用ミーティングシステムを考える時期

今回の嘆願が出たことで、僕は「ミーティングデータが使われている可能性は大きい」と感じています。

嘆願書は「感情を見られているのは監視されているようでイヤだ」「悪用の恐れがある」という内容ですが、本当の問題はもっと危険です。

AIが完成してからが危険なのではなく、現在進行形でAI学習のためにミーティングデータが流用され続けている可能性があることが危険なのです。

これはTeams、Google Meet、Skype、LINE、FaceTime など、全てのサービスにあてはまります。

強迫観念にとらわれていると批判されるかもしれませんが、機密情報が含まれる会話は、そこまで考えてサービスを使う必要があるということです。

 

誰にも見られないミーティングとなると、あとは自社でミーティングシステムを作り上げるしかありません。

かなり大ごとのように思えますが、たとえばQNAP KoiBox-100Wなどは、カンタンなネットワークやアカウントの設定だけで、PC、スマホ、タブレットなどマルチデバイスからつなげるミーティングホストが完成します。

QNAP KoiBox-100W ディスプレイ、マイク、カメラを用意するだけで、ミーティングホストが完成する。

 

KoiBoxならデータは自社内、またはVPNで接続されたKoiBoxと端末間のみを流れ、他に流用される心配はありません。

流れるデータも強力な暗号がかかっていますので、抜き取って復号するのは、スーパーコンピュータを使っても膨大な時間がかかります。まず不可能です。

機密データを扱うミーティングが多いのなら、こういった機材に投資するのも有用だと思います。

WTS的まとめ

現代では、お金を生み出すのはデータです。それも個人に結びついた自然なデータを扱うシステムが莫大な利益を生み出します。

Facebookの「個人情報5000万人分を選挙活動に利用事件」のように、自分のデータが相手にどのように「利用」されているかは、事件に発展しなければわかりません。善良な会社ばかりではないという前提が必要です。

特にミーティングとなれば、ビジネスの重要な会話が行われることもよくあるはず。

可能な限りプライベート化したシステムで守りを固めておけば、安心だといえるでしょう。

まあ、スマホ、Android TV、ホームアシスタント、いまやどこにでも「目と耳」があるわけなんですけどね・・・

 

コメント