“Có nội dung tự làm hại bản thân, có nội dung nhảm về cách chữa trị sức khỏe tâm thần”, theo Imran Ahmed thuộc Center for Countering Digital Hate, tổ chức đã đưa ra một báo cáo vào tháng 12 năm ngoái cho thấy thuật toán của TikTok đang gợi ý nội dung có hại đến người dùng nhỏ tuổi. "Người dùng đang bị ngập trong nội dung khiến họ có cái nhìn cực kỳ sai lệch về bản thân, cơ thể, sức khỏe tinh thần và so sánh với những người khác".
Nghiên cứu của Center for Countering Digital Hate cho thấy việc thay đổi tên người dùng từ “Sarah” thành “Sarah Lose Weight” (Sarah giảm cân) trên TikTok có thể dẫn đến việc thuật toán gợi ý nội dung tự làm hại bản thân nhiều hơn gấp 12 lần. “Thuật toán nhận ra điểm yếu ở người dùng và thay vì cẩn thận hơn, nó coi đó là điểm gây nghiện tiềm ẩn để tối đa hóa thời gian xem, bằng cách cung cấp cho người dùng nội dung liên quan đến những mối quan tâm đã có từ trước", Ahmed cho biết.
Nghiên cứu, dựa trên những người dùng 13 tuổi ở Anh, Mỹ, Canada và Úc, gợi ý rằng, trong vòng khoảng 2,5 phút sau khi thiết lập tài khoản TikTok, những người trẻ tuổi có thể được gợi ý nội dung tự làm hại bản thân, và trong vòng 8 phút có thể được gợi ý nội dung thúc đẩy rối loạn ăn uống.
Ahmed cho biết một cuộc điều tra gần đây hơn cho thấy một cậu bé 14 tuổi trên nền tảng này đã được gợi ý nội dung từ tội phạm kỳ thị nữ giới Andrew Tate trong vòng chưa đầy 3 phút sau khi thiết lập tài khoản.
“Điểm chung giữa những vụ việc này là những quan điểm cực kỳ nguy hiểm và hiểu lầm cơ bản về việc một cô gái trẻ nên trông như thế nào, và cách một chàng trai trẻ nên cư xử và nhìn nhận các cô gái", Ahmed nói.
Chỉ riêng ở Anh, hơn 1 triệu trẻ em chưa đủ tuổi có thể đã bị nền tảng này thu thập và sử dụng dữ liệu cá nhân. “Dữ liệu này có thể đã được sử dụng để theo dõi và lập hồ sơ, sau đó cung cấp nội dung có hại, không phù hợp ngay khi trẻ em vào app", theo Ahmed.
Người phát ngôn của TikTok cho biết: “Nhiều người đang gặp khó khăn với sức khỏe tâm thần hoặc đang trên hành trình hồi phục đã tìm đến TikTok để được hỗ trợ và chúng tôi mong muốn giúp họ làm điều đó một cách an toàn".
“Nguyên tắc cộng đồng của chúng tôi rõ ràng là chúng tôi không cho phép quảng cáo, bình thường hóa hoặc tôn vinh nội dung rối loạn ăn uống, tự tử hoặc tự làm hại bản thân. Chúng tôi thường xuyên tham khảo ý kiến của các chuyên gia y tế, loại bỏ các hành vi vi phạm chính sách của chúng tôi".
Trong khi đó, Ahmed nói thêm rằng TikTok không phải là nền tảng truyền thông xã hội duy nhất đang thả lỏng việc kiểm soát nội dung có hại để tìm mọi cách thu hút sự chú ý của người dùng, ngay cả khi điều này có nghĩa là đặt người dùng vào rủi ro.
Hoàng Vũ