AI Crazy
New member
Các báo cáo gần đây cho thấy AI đang giúp tội phạm tạo và lan truyền hình ảnh, video lạm dụng trẻ em với quy mô và mức độ chân thực ngày càng tăng. Nhà chức trách, nền tảng và tổ chức bảo vệ trẻ em đang bị quá tải và khó phân biệt hình thật hay giả.
Nhiều báo cáo và cơ quan giám sát cho thấy một xu hướng đáng lo ngại: công cụ sinh ảnh/video bằng AI được kẻ xấu lợi dụng để sản xuất nội dung lạm dụng tình dục trẻ em. Những nội dung này ngày càng chân thực, đa dạng định dạng và khó phát hiện bằng các phương pháp cũ.
Theo Reuters, số báo cáo hành động liên quan đến hình ảnh do AI tạo ra đã tăng hơn gấp đôi trong hai năm gần đây. Internet Watch Foundation (IWF) công bố rằng riêng năm 2025 họ xác định được 8.029 hình ảnh và video lạm dụng trẻ em do AI tạo ra.
Bloomberg và các nguồn khác cũng nêu rõ cách generative AI thay đổi bối cảnh CSAM (child sexual abuse material) ở Mỹ, từ ảnh tĩnh, video đến nội dung được chỉnh sửa từ ảnh thực và cả các đoạn hội thoại giả mạo dùng để dụ dỗ.
Một vụ việc được nêu trong báo cáo liên quan tới William Michael Haslach, người giám sát bữa trưa tại trường và điều hành giao thông. Các đặc vụ liên bang xác định hơn 90 nạn nhân và tìm thấy gần 800 hình ảnh lạm dụng do AI tạo trên thiết bị của ông này. Vụ việc cho thấy kẻ phạm tội đang tận dụng ảnh đời thường trên mạng xã hội để biến thành nội dung khiêu dâm trẻ em.
Số lượng vụ AI liên quan khiến các tổ chức bảo vệ trẻ em và cơ quan công lực bị quá tải. NCMEC báo cáo họ nhận 1,5 triệu báo cáo CSAM liên quan AI trong 2025 — tăng mạnh so với 67.000 năm 2024 và 4.700 năm 2023. Lượng báo động tăng vọt đồng nghĩa với nhiều báo cáo rác do hệ thống tự động gửi lên, làm tiêu tốn nguồn lực của các đội điều tra.
Điều tra viên giờ đây phải mất nhiều thời gian để xác minh xem một đứa trẻ trong ảnh có thực không, có bị chỉnh sửa hay hoàn toàn do AI tạo ra. Mỗi sai sót hoặc cuộc gọi nhầm đều làm giảm thời gian xử lý các trường hợp có nguy cơ tổn hại tức thì.
Ngoài ảnh và video do AI tạo, còn xuất hiện ảnh thật bị chỉnh sửa để khỏa thân hoặc gợi dục, cùng các đoạn hội thoại chatbot được dùng để xin lời khuyên về cách dụ dỗ hay thực hiện đóng vai hành vi lạm dụng. Những biến thể này làm phức tạp thêm nhiệm vụ của nền tảng kỹ thuật số và cơ quan thực thi pháp luật.
Các chuyên gia và tổ chức kêu gọi nền tảng phải đầu tư công cụ phát hiện mạnh hơn, hợp tác chặt chẽ với cơ quan điều tra và tổ chức bảo vệ trẻ em, đồng thời cần khung pháp lý rõ ràng để xử lý nội dung do AI tạo. Song song đó, cần tăng nguồn lực cho các đội xử lý báo cáo để không bỏ sót nạn nhân thực sự và giảm thiểu thời gian điều tra các vụ việc cấp bách.
Việc nhận diện, truy tố và ngăn chặn loại nội dung này là vấn đề khẩn cấp để bảo vệ trẻ em trước hiểm họa ngày càng tinh vi của công nghệ.
Nguồn: Digitaltrends
Gia tăng nhanh và ngày càng tinh vi
Nhiều báo cáo và cơ quan giám sát cho thấy một xu hướng đáng lo ngại: công cụ sinh ảnh/video bằng AI được kẻ xấu lợi dụng để sản xuất nội dung lạm dụng tình dục trẻ em. Những nội dung này ngày càng chân thực, đa dạng định dạng và khó phát hiện bằng các phương pháp cũ.
Theo Reuters, số báo cáo hành động liên quan đến hình ảnh do AI tạo ra đã tăng hơn gấp đôi trong hai năm gần đây. Internet Watch Foundation (IWF) công bố rằng riêng năm 2025 họ xác định được 8.029 hình ảnh và video lạm dụng trẻ em do AI tạo ra.
Bloomberg và các nguồn khác cũng nêu rõ cách generative AI thay đổi bối cảnh CSAM (child sexual abuse material) ở Mỹ, từ ảnh tĩnh, video đến nội dung được chỉnh sửa từ ảnh thực và cả các đoạn hội thoại giả mạo dùng để dụ dỗ.
Trường hợp cụ thể và nguồn ảnh bị lạm dụng
Một vụ việc được nêu trong báo cáo liên quan tới William Michael Haslach, người giám sát bữa trưa tại trường và điều hành giao thông. Các đặc vụ liên bang xác định hơn 90 nạn nhân và tìm thấy gần 800 hình ảnh lạm dụng do AI tạo trên thiết bị của ông này. Vụ việc cho thấy kẻ phạm tội đang tận dụng ảnh đời thường trên mạng xã hội để biến thành nội dung khiêu dâm trẻ em.
Áp lực lên cơ quan và hệ thống kiểm duyệt
Số lượng vụ AI liên quan khiến các tổ chức bảo vệ trẻ em và cơ quan công lực bị quá tải. NCMEC báo cáo họ nhận 1,5 triệu báo cáo CSAM liên quan AI trong 2025 — tăng mạnh so với 67.000 năm 2024 và 4.700 năm 2023. Lượng báo động tăng vọt đồng nghĩa với nhiều báo cáo rác do hệ thống tự động gửi lên, làm tiêu tốn nguồn lực của các đội điều tra.
Điều tra viên giờ đây phải mất nhiều thời gian để xác minh xem một đứa trẻ trong ảnh có thực không, có bị chỉnh sửa hay hoàn toàn do AI tạo ra. Mỗi sai sót hoặc cuộc gọi nhầm đều làm giảm thời gian xử lý các trường hợp có nguy cơ tổn hại tức thì.
Hình thức lạm dụng mới
Ngoài ảnh và video do AI tạo, còn xuất hiện ảnh thật bị chỉnh sửa để khỏa thân hoặc gợi dục, cùng các đoạn hội thoại chatbot được dùng để xin lời khuyên về cách dụ dỗ hay thực hiện đóng vai hành vi lạm dụng. Những biến thể này làm phức tạp thêm nhiệm vụ của nền tảng kỹ thuật số và cơ quan thực thi pháp luật.
Nhu cầu hành động
Các chuyên gia và tổ chức kêu gọi nền tảng phải đầu tư công cụ phát hiện mạnh hơn, hợp tác chặt chẽ với cơ quan điều tra và tổ chức bảo vệ trẻ em, đồng thời cần khung pháp lý rõ ràng để xử lý nội dung do AI tạo. Song song đó, cần tăng nguồn lực cho các đội xử lý báo cáo để không bỏ sót nạn nhân thực sự và giảm thiểu thời gian điều tra các vụ việc cấp bách.
Việc nhận diện, truy tố và ngăn chặn loại nội dung này là vấn đề khẩn cấp để bảo vệ trẻ em trước hiểm họa ngày càng tinh vi của công nghệ.
Nguồn: Digitaltrends
Bài viết liên quan