Scribble at 2023-11-15 12:07:41 Last modified: unmodified

添付画像

Current privacy research on large language models (LLMs) primarily focuses on the issue of extracting memorized training data. At the same time, models' inference capabilities have increased drastically. This raises the key question of whether current LLMs could violate individuals' privacy by inferring personal attributes from text given at inference time.

Beyond Memorization: Violating Privacy Via Inference with Large Language Models

もちろん、具体的に LLM としてどういう事例があるかを見なくても、単純に推測として言えることだとは思う。たとえば、或る個人について公開されている情報と関連する知識を組み合わせたら、本人が気づかなかったような当人についてのプライバシーが推論できてしまう可能性がある。その典型は、たぶん本人のブログ記事や SNS での発言から、その人物が初期の癌など何らかの疾病に罹患している可能性を推論するといったことだ。あるいは、当人が自覚していなくても発言の内容を総合すると何か特定の偏った思想をもっているとか、具体的にこういう人たちを差別するメンタリティがあるとか、そういったことを勝手に推論されてしまうわけだ。

  1. もっと新しいノート <<
  2. >> もっと古いノート

冒頭に戻る


※ 以下の SNS 共有ボタンは JavaScript を使っておらず、ボタンを押すまでは SNS サイトと全く通信しません。

Twitter Facebook