見出し画像

Slackは顧客の会話をAIトレーニングに利用している

デフォルト設定で、Slackはユーザの会話をAIトレーニングに利用しています。

最近、Slackが顧客の会話をAIトレーニングに利用していることが話題となっています。Slackは新たなAI機能を導入し、チャネルの要約や会話ベースの検索を提供しています。これらの機能は、Amazon SageMaker JumpStartを使用して大規模な言語モデル(LLM)を活用し、ユーザーの会話データを処理することによって実現されています

ビッグテックがAIサービスのトレーニングのために個人や企業のデータを利用する方法についての問題が続く中、Salesforceが所有するチャットプラットフォームSlackのAIビジョンに対する不満がSlackユーザーの間で高まっています。

多くの企業と同様に、Slackも自社のユーザーデータを使用して新しいAIサービスのトレーニングを行っています。しかし、Slackにデータを使用されたくない場合は、メールで会社に連絡してオプトアウトしなければならないことが判明しました。

オプトアウトとは、特定のデータ使用やサービスからの除外を希望する場合に、ユーザーがその意思を示して手続きを行うことを指します。具体的には、SlackがユーザーデータをAIサービスのトレーニングに利用することを希望しないユーザーが、その利用を拒否するためにメールで会社に連絡する手続きを行うことです。この手続きを行わない限り、デフォルトでユーザーデータが利用される仕組みになっています。

その手続きの詳細は、誰も注意を払っていなかった、古くて混乱を招くプライバシーポリシーの中に隠されていました。Slackのケースでは、一人の不満を持った人物が開発者に非常に人気のあるコミュニティサイトに投稿し、その投稿が拡散しました。

拡散された投稿


昨夜、Hacker NewsでSlackがAIサービスをトレーニングする方法について、プライバシープリンシパルへの直接リンクを通じて問題が提起されました。その投稿は長い議論を引き起こし、現行のSlackユーザーには新しい情報と思われたことが明らかになりました。SlackはデフォルトでユーザーをAIトレーニングに参加させ、オプトアウトするには特定のアドレスにメールする必要があるという内容です。

そのHacker Newsのスレッドは他のプラットフォームでも多くの会話や質問を引き起こしました。「Slack AI」という新しい名前の製品があり、ユーザーが答えを検索したり会話のスレッドを要約したりすることができますが、プライバシープリンシパルのページにはその名前が一度も明記されていないことに対する疑問が出ました。また、「グローバルモデル」や「AIモデル」という用語が使われている理由も不明です。

SlackがAIプライバシープリンシパルをどこで適用しているのかについての混乱や、メールでオプトアウトする必要があることに対する驚きと不満がある中、「あなたのデータを管理する」というスローガンを掲げる会社として、Slackの評価は下がっています。

このショックは新しいものかもしれませんが、条件自体は新しくありません。インターネットアーカイブのページによると、この条件は少なくとも2023年9月から適用されています(会社に確認を求めています)。

プライバシーポリシーによると、Slackは「グローバルモデル」をトレーニングするために顧客データを使用しており、これによりチャネルや絵文字の推奨、および検索結果を提供しています。Slackはデータの使用には特定の制限があると説明しています。

データの使用には制限があると主張するslack

「Slackには、チャネルや絵文字の推奨および検索結果などのためのプラットフォームレベルの機械学習モデルがあります。これらのモデルを構築またはトレーニングする際に、顧客データの一部を学習、記憶、または再現できるような方法は使用していません」とSlackのスポークスパーソンは釈明しました。しかし、ポリシーは全体的な範囲や会社のAIモデルのトレーニングに関する広範な計画には触れていません。

条件によると、顧客がデータトレーニングをオプトアウトしても、Slackの「グローバルにトレーニングされたAI/MLモデル」から恩恵を受けることができます。しかし、その場合、なぜ絵文字の推奨などの機能に顧客データを使用しているのかは明確ではありません。

さらに、Slack AIをトレーニングするために顧客データを使用していないと述べています。

「Slack AIは別途購入するアドオンで、大規模な言語モデル(LLM)を使用しますが、顧客データを使用してこれらのLLMをトレーニングしません。Slack AIは、SlackのAWSインフラストラクチャ内に直接ホストされているLLMを使用するため、顧客データは内部に留まり、LLMプロバイダーと共有されません。これにより、顧客データはその組織の管理下にあり、専用に使用されることが保証されます」とスポークスパーソンは述べました。

一部の混乱は早急に解決されるでしょう。エンジニアで作家のGergely Oroszによる批判的な意見に対するThreadsでの返信で、SlackのエンジニアAaron Maurerは、「これらのプライバシープリンシパルがSlack AIとどのように連携するか」を反映するためにページを更新する必要があることを認めました。

Maurerは、これらの条件は会社がSlack AIを持っていなかった時に書かれたものであり、検索や推奨に関する会社の作業を反映していると述べました。Slackが現在AIに関して何をしているのかについての混乱を考えると、将来の更新についても条件を確認する価値があります。

Slackの問題は、AI開発の急速に進む世界では、ユーザープライバシーが後回しにされるべきではなく、会社の利用規約はデータの使用方法や使用されない場合を明確に示すべきだということを痛感させるものです。


Slackのメッセージがエンドツーエンドで暗号化されていない

SlackはAmazon SageMaker JumpStartを利用して、チャネルの要約や会話ベースの検索機能を提供しており、これによりユーザーが重要な情報を迅速に見つけることができるようになっています。しかし、この技術の導入はプライバシーに関する議論を引き起こしています。具体的には、Slackのメッセージがエンドツーエンドで暗号化されていないため、メッセージがハッカーによって傍受されるリスクが存在します​ (Aware: CI Platform)​​ (SiliconANGLE)​。

また、SlackのAIを利用した従業員のコミュニケーション監視についても懸念が上がっています。一部の企業は、Slackや他のプラットフォームを使用して従業員のメッセージを監視し、嫌がらせや差別などの不適切な行動を検出するためにAI技術を使用しています。これにより、従業員のプライバシーが侵害される可能性があると指摘されています​ (9to5Mac)​​ (Benzinga)​。

このようなプライバシー問題に対応するために、Slackは顧客データをサードパーティと共有せず、データがSlackのインフラストラクチャ内に留まるように設計されています。さらに、顧客データがAIモデルのトレーニングに使用されることはないと保証しています​ (SiliconANGLE)​​ (9to5Mac)​。

これらの懸念に対しては、企業や従業員が適切なデータ管理とプライバシー保護の措置を講じることが求められています。プライバシー問題が完全に解決されるには、さらなる透明性と規制の強化が必要です。


この記事が気に入ったらサポートをしてみませんか?