

Appleは、ユーザーの写真をスキャンしてCSAM(児童性的虐待コンテンツ)を検出する新システムの発表を受けて、多くの批判に直面しています。しかし、この懸念を抱いているのは一般のiOSユーザーだけでなく、Appleの従業員も同様です。
ロイター通信の新たな報道によると、複数のApple従業員が社内Slackチャンネルで新しいCSAMシステムについて懸念を表明したという。匿名を条件に取材に応じた従業員の一部によると、彼らはこの機能が独裁政権による検閲に悪用されるのではないかと懸念しているという。
別の従業員は、先週この機能が発表されて以来、CSAMコンテンツ検出に関するメッセージが800件以上送信されたため、「新たな議論の量と期間には驚かされる」と述べた。
アップルの従業員は、1週間前に発表された計画について、社内Slackチャンネルに800件以上のメッセージを殺到させたと、匿名を条件にロイター通信に語った。数日にわたるスレッドを見た従業員によると、多くの従業員が、この機能が、検閲や逮捕のための新たな材料を探している抑圧的な政府によって悪用されるのではないかと懸念を表明した。
従業員グループが新機能について議論するための専用スレッドを作成しましたが、Slackはそのような議論に最適な場所ではないと主張する人もいました。報道によると、CSAM検出によって「違法コンテンツが取り締まる」という理由で、CSAM検出に賛成する従業員もいるようです。
Appleの従業員とSlack
Appleは、COVID-19のパンデミックにより世界中のオフィスが閉鎖され、多くの従業員が在宅勤務を余儀なくされた後、Slackの導入を拡大し始めました。Appleには強い秘密主義の文化があるにもかかわらず、従業員が社内Slackで何を発言しているかについての公開討論は避けられなくなっています。
Appleの従業員は、他のSlackチャンネルを利用して、在宅勤務の新規申請が却下されたことや、賃金平等調査に関する議論などを行ってきました。Appleは従業員に対し、労働問題やその他のデリケートな話題についてSlackで議論しないよう求めてきました。しかし、それでも一部の従業員は会社への不満を露わにし続けているようです。
社内プラットフォームの利用に加え、一部の従業員はTwitter上で会社の立場についての意見を共有している。
こちらもご覧ください:
- Apple、子どもの安全を守るための新たな保護機能を発表:iMessage機能、iCloud写真スキャンなど
- AppleはCSAM検出が写真にのみ適用されることを確認し、他のソリューションに対して自社の方法を擁護している
- Apple CSAM FAQは写真スキャンに関する誤解や懸念事項を取り上げています
- Appleのプライバシー担当幹部が新たなインタビューでCSAM検出システムの詳細を語る
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。