Apple đang bị kiện vì quyết định không triển khai một hệ thống quét ảnh iCloud để tìm tài liệu lạm dụng tình dục trẻ em (CSAM). Vụ kiện cáo buộc rằng việc Apple không áp dụng biện pháp ngăn chặn hiệu quả đã khiến các nạn nhân tiếp tục phải chịu đựng tổn thương tâm lý.
Hệ thống phát hiện CSAM được Apple công bố lần đầu vào năm 2021. Công nghệ này dự kiến sử dụng chữ ký số từ Trung tâm Quốc gia về Trẻ em Mất tích và Bị Lạm dụng (NCMEC) và các tổ chức khác để phát hiện nội dung liên quan đến CSAM trong thư viện iCloud của người dùng.
Tuy nhiên, Apple đã quyết định từ bỏ kế hoạch này sau khi đối mặt với chỉ trích từ các chuyên gia bảo mật về quyền riêng tư, lo ngại rằng công nghệ này có thể tạo ra “cửa hậu” cho việc giám sát của chính phủ.
Vụ kiện được cho đến từ một phụ nữ 27 tuổi (giấu tên), cho biết cô từng bị một người thân lạm dụng khi còn nhỏ, và những hình ảnh của cô đã bị phát tán trên mạng. Theo lời khai, cô vẫn nhận được thông báo từ cơ quan thực thi pháp luật gần như mỗi ngày về việc có người bị buộc tội vì sở hữu những hình ảnh đó. Luật sư của cô, James Marsh, cho biết có khả năng có tới 2.680 nạn nhân có thể yêu cầu bồi thường trong vụ kiện này.
Vụ kiện lập luận rằng Apple đã “công bố một cải tiến đột phá nhằm bảo vệ trẻ em,” nhưng sau đó không thực hiện hoặc triển khai bất kỳ biện pháp nào để phát hiện và hạn chế nội dung này trên iCloud. Điều này được cho là đã gây tổn thương thêm cho các nạn nhân, buộc họ phải đối mặt với quá khứ đau buồn một cách liên tục.
Apple đã phản hồi với cam kết rằng họ đang “khẩn trương đổi mới và tích cực chiến đấu chống lại các tội ác này mà không làm ảnh hưởng đến bảo mật và quyền riêng tư của tất cả người dùng.” Trước đó, vào tháng 8, Apple cũng đối mặt với một vụ kiện khác từ một bé gái 9 tuổi và người giám hộ của cô bé, cáo buộc công ty không xử lý hiệu quả vấn đề CSAM trên iCloud.