Bảo đảm an toàn cho trẻ em trong thời đại AI

Hiện nay, rất ít nhà phát triển AI có chính sách rõ ràng về việc đảm bảo an toàn cho trẻ em khi sử dụng công nghệ mới mẻ này. Trẻ em ngày nay tiếp xúc nhiều với các thiết bị điện tử và phần mềm tự động, tuy nhiên, những sự cố xảy ra đã đặt ra câu hỏi lớn về an toàn của trẻ khi tương tác với các công nghệ này.

Một sự cố nổi bật xảy ra vào năm 2021 khi Alexa, trợ lý giọng nói AI của Amazon, đã đề xuất cho một đứa trẻ 10 tuổi chạm đồng xu vào phích cắm điện. Đứa trẻ yêu cầu Alexa đưa ra một "thử thách" và nhận được phản hồi nguy hiểm này. May mắn thay, mẹ của đứa bé đã can thiệp kịp thời.

Đây không phải là trường hợp duy nhất. Năm ngoái, My AI của Snapchat cũng cung cấp lời khuyên không phù hợp cho một bé gái 13 tuổi (do một nhà nghiên cứu trưởng thành đóng giả). Dù các công ty phản ứng bằng cách sửa lỗi và cải tiến biện pháp an toàn, nhưng theo các nhà nghiên cứu, cần có biện pháp chủ động hơn để đảm bảo AI an toàn cho trẻ em ngay từ đầu.

TS. Nomisha Kurian từ Đại học Cambridge cho rằng trẻ em thường bị bỏ qua khi phát triển AI. Hiện nay, rất ít nhà phát triển và công ty có chính sách rõ ràng về vấn đề này. TS. Kurian đã nghiên cứu các tương tác giữa AI và trẻ em để phát hiện những rủi ro tiềm ẩn. Bà nhận thấy các mô hình ngôn ngữ lớn (LLM) thường không thể hiểu rõ các khía cạnh trừu tượng, cảm xúc, và khó đoán định trong cuộc trò chuyện với trẻ em. Điều này có thể dẫn đến các phản hồi không an toàn.

Các chatbot AI có khả năng ngôn ngữ ấn tượng nhưng lại gặp khó khăn trong việc thấu hiểu và phản hồi với cảm xúc của trẻ em. Hơn nữa, trẻ em thường có xu hướng tiết lộ thông tin cá nhân nhiều hơn và coi chatbot như “người” hơn người lớn, điều này tạo ra nhiều nguy cơ.

Nghiên cứu cũng chỉ ra rằng trẻ em sử dụng chatbot thường không được giám sát chặt chẽ. Một nghiên cứu của Common Sense Media cho thấy 50% học sinh từ 12 đến 18 tuổi đã sử dụng ChatGPT cho việc học, nhưng chỉ có 26% phụ huynh biết điều này.

TS. Kurian không cho rằng cần cấm AI, mà cần làm cho nó an toàn hơn. Bà đề xuất một khuôn khổ gồm 28 câu hỏi để các công ty, giáo viên, phụ huynh và nhà phát triển AI suy nghĩ một cách hệ thống về cách giữ an toàn cho người dùng trẻ tuổi khi họ tương tác với các chatbot AI.

Tóm lại, có nhiều lý do khiến nhiều AI hiện tại chưa an toàn cho trẻ em. Dưới đây là một số lý do chính:

Nội dung không phù hợp: AI có thể truy cập và hiển thị nội dung không phù hợp với trẻ em, chẳng hạn như nội dung bạo lực, ngôn ngữ không phù hợp, hoặc thông tin nhạy cảm.

Quyền riêng tư và bảo mật: Trẻ em có thể không hiểu rõ về tầm quan trọng của việc bảo vệ thông tin cá nhân. AI thu thập dữ liệu mà không có sự kiểm soát và bảo mật thích hợp có thể dẫn đến việc lộ thông tin cá nhân của trẻ em.

Tương tác không an toàn: AI chatbot hoặc trợ lý ảo có thể bị lạm dụng bởi những kẻ xấu, sử dụng để lừa gạt hoặc gây hại cho trẻ em thông qua các tương tác không an toàn.

Thiếu kiểm soát nội dung: Nhiều hệ thống AI không có cơ chế kiểm soát nội dung hiệu quả, dẫn đến việc hiển thị các thông tin không chính xác, thiếu kiểm chứng hoặc mang tính định hướng tiêu cực.

Ảnh hưởng tâm lý và hành vi: Trẻ em dễ bị ảnh hưởng bởi các nội dung và tương tác mà AI cung cấp. Điều này có thể dẫn đến những tác động tiêu cực về tâm lý và hành vi, chẳng hạn như giảm khả năng tư duy sáng tạo hoặc tạo ra những thói quen xấu.

Thiếu quy định và hướng dẫn: Hiện nay, các quy định và hướng dẫn về việc sử dụng AI cho trẻ em vẫn còn hạn chế. Điều này dẫn đến việc các nhà phát triển AI không tuân thủ các tiêu chuẩn an toàn cần thiết.

Việc bảo đảm an toàn cho trẻ em khi sử dụng AI không chỉ là trách nhiệm của các công ty công nghệ mà còn cần sự phối hợp của toàn xã hội. Bằng cách áp dụng những biện pháp chủ động và hợp lý, chúng ta có thể bảo vệ trẻ em khỏi những nguy cơ tiềm ẩn và giúp chúng tận dụng tối đa lợi ích từ công nghệ mới mẻ này. Để bảo vệ trẻ em, cần có sự hợp tác giữa các nhà phát triển công nghệ, phụ huynh, nhà giáo dục và các cơ quan quản lý để đảm bảo rằng AI được thiết kế và sử dụng một cách an toàn và có trách nhiệm.

P.A.T (NASATI), theo https://www.forbes.com/, 8/2024

Tác giả bài viết: PAT