2019年07月01日

◆ 顔認識技術と監視社会

 顔認識技術が進んで、監視社会になると、プライバシーが侵害される恐れがある。では、どうする?

 ──

 顔認識技術が進んだせいで、犯罪者の摘発が容易になったそうだ。ドラマの「科捜研の女」では、昔からなされていたが、それが、ドラマのなかでなく、現実の世界でもなされるようになったわけだ。
 特に中国ではその技術が進んでいるという。下記にある。興味深い話がいろいろとあるが、無料で全文を読める。
  → 未来からの挑戦:12 AIの目、忍び寄る監視社会:朝日新聞
 一部抜粋。
 約6万人の熱気に満ちるコンサート会場の舞台裏で、たった1人を巡る追跡が静かに進んでいた。
 入り口では監視カメラが聴衆を出迎え、次々に顔を撮影。警察が持つ逃亡犯の顔写真データとAIが照合を重ねた。
 警察が中国全土に張り巡らせる監視カメラのネットワークは「中国天網」と呼ばれる。国営中央テレビは2年前、その数が2千万台を超えると伝えた。天網以外も合わせると、中国内には2億台近い監視カメラがあるとされる。
 大都市の駅で、群衆に目をこらす警察官が特殊な眼鏡をかけていた。これが、携帯できる監視カメラの役割を果たす。レンズには文字が映し出され、逃亡犯ら登録した人の顔が見えると四角い枠が現れて赤く光る。
 各地で起きていた切りつけ事件や襲撃事件は、監視カメラの普及など治安強化が目に見えて進んだここ数年、ほとんど聞かれなくなった。監視カメラが密集する北京市中心部は今や、夜中に一人で歩いても安全とさえ言われる。
 警備大手セコム。街頭に設置した仮設カメラや警備員が胸に着けたウェアラブル端末で動画を撮影。AIが特定の人物の特徴を分析し、膨大なデータをさかのぼって追跡する。
 同社は17年以降、この警備システムを東京マラソンの観客警備で使っている。今年の大会では、現場に展開した警備員の携帯型カメラや監視カメラは計 140台に及んだ。

 とはいえ、監視社会になると、プライバシーが侵害される恐れがある。そこが問題だ。記事はこうも記す。
 首都大学東京の星周一郎教授(刑事法)は「どういう場合なら使えるのか、または望ましくないのかを指針で例示するなど、日本に適した対応が求められる」と訴える。
 顔認証などの画像処理が普及すれば容疑者の割り出しはより早くなり、防犯効果も高まるだろう。一方で、公共の場でそうしたカメラが広がることは、プライバシーや人権の侵害と背中合わせになる。
 日本では、政府が定めるルールは最低限にとどまる。どう運用するかは業者など使う側の裁量に多くが委ねられており、議論の余地は大きい。

 ──

 では、どうするべきか? ここで、私なりの指針を示そう。

 まず、原則はこうだ。
 「犯罪者の捜索ならば、問題ない。一方、それ以外の事例では、乱用が起こるのをチェックするべきだ」
 この原則の下で、次の指針を立てる。(職員が乱用して、タレントの個人情報を探ったり、恋人の個人情報を探ったりするのを、禁じる。)

 (1) 調査するときは、必ず複数人で行う。一人だけで単独で調査を行うことを禁じる。
 (2) 調査するときには、必ず報告書を提出する。
 (3) 報告には、対象者の特定と、調査のログを残す。
  例:対象者は、画像番号 ******** の人物。
    調査のログは、ログ番号 ***** のログ。
 (4) ログ番号を見て、AI が調査を再現して、異常な調査がないかチェックする。異常があれば、検出する。
 (5) 監査官が、そのチェックを見て、自分で確認する。
 (6) 監査官が異常を発見したら、監査会議に報告する。
 (7) 監査会議で、異常な調査を見出して、処分する。
 (8) 監査機構が正常であることを確認するために、ダミーの犯罪データを、ときどき故意に混ぜておく。


 いくらか解説しておこう。
 (3) では、ログが残る。このログを見ることで、なされた調査を再現できる。(タレントの個人情報を探ったりすれば、その調査のログが再現される。)
 (4) では、監査官が膨大なログをすべてチェックするのは不可能だから、監査官のかわりに AI が膨大なログをすべてチェックする。そのなかで、特に怪しいものを見出す。たとえば、
  ・ 対象が犯罪者ではなく、タレントである。
  ・ 対象が、犯罪歴のない若い女性である。
  ・ 対象の行動には、少しも不審さがない。
  ・ 調査目的と、対象の行動に、矛盾がある。

 このようなことを AI がチェックする。もし異常な調査を発見したら、その調査を監査官に報告する。
 (5)〜(7) AI が異常を報告したら、それを受けた監査官は、監査会議に報告する。そのあと、監査会議が処分を決める。
 (8) 監査官や監査会議は、サボって怠ける可能性があるので、うまく機能しているかどうかチェックするために、わざとダミーの異常データを混ぜる。それをうまく検出したかどうかで、監査官や監査会議がまともに働いているかを確認する。

 ──

 以上において、技術的に難しいのは (4) の AI の開発だ。しかしこれについては、同様のものがすでに開発が進んでいると、記事中で紹介されている。
  大きなスーツケースを持った男が1人、街を歩く。異なる場所で撮影された画像を時系列で追うと、ある時点から荷物を持っていない。どこかに置いたのか。危険物ではないのか――。

 人の行動予測にまで踏み込んだのが、万引き対策システムを提供するアースアイズ(東京)が開発した「AIガードマン」だ。店に設置した防犯カメラの映像を AIがリアルタイムで分析。目線や姿勢から「不審な買い物客」を見つけ、店員による声かけを促す。導入先では、万引きの被害額を半減させたという。

 技術の進歩はさらに先を行き、AIを使ってリアルタイムに個人を特定する道具に変容。顔がうまく映り込んでいなくても、全身を照合すれば人物が特定できるようになった。中国を見るまでもなく、技術的には、広範囲にリアルタイムで特定人物を追跡できるところまできている。

 こういうふうに(顔認証だけでなく)行動分析が可能になれば、「異常な行動がある」ことを確認できるがゆえに、「異常な行動がまったくない」ことも確認できるようになるだろう。そうなれば、その対象を調査すること自体が不当である、ということも見つかるようになるわけだ。

 監視技術が進展すれば、監視する側自体を監視することもできる、というわけだ。ユーレカ!
 
posted by 管理人 at 20:35| Comment(0) | コンピュータ_04 | 更新情報をチェックする
この記事へのコメント
コメントを書く
お名前: [必須入力]

メールアドレス:

ホームページアドレス:

コメント: [必須入力]

  ※ コメントが掲載されるまで、時間がかかることがあります。

過去ログ