Thị trường hàng hóa
Trong một cuộc tham vấn cộng đồng được triển khai vào ngày 13/7, Bộ Truyền thông và Thông tin (MCI) Singapore đã đề xuất rằng các công cụ này được kích hoạt theo mặc định cho các dịch vụ cho phép người dùng dưới 18 tuổi đăng ký tài khoản.
MCI cho biết: "Các dịch vụ có thể cung cấp cảnh báo cho người dùng trẻ tuổi và cha mẹ/người giám hộ của trẻ về những tác động khi họ không lựa chọn các cài đặt này".
Có hai bộ đề xuất đã được MCI công bố hồi tháng 6 vừa qua. Thứ nhất là Bộ quy tắc thực hành về an toàn trực tuyến, sẽ yêu cầu các dịch vụ truyền thông xã hội có phạm vi tiếp cận hoặc tác động đáng kể phải có các quy trình trên toàn hệ thống để giảm thiểu việc tiếp xúc với nội dung trực tuyến có hại cho người dùng ở Singapore, bao gồm cả những người dưới 18 tuổi.
Thứ hai là Bộ quy tắc nội dung cho các dịch vụ truyền thông xã hội, sẽ cho phép Cơ quan phát triển truyền thông Infocomm (IMDA) chỉ đạo tới bất kỳ nền tảng truyền thông xã hội nào trong việc phải vô hiệu hóa quyền truy cập tới các nội dung được coi là có hại cho người dùng Singapore, như nội dung kích động bất hòa về chủng tộc hoặc tôn giáo.
MCI cho biết: "Chúng tôi nhận thấy rằng một số dịch vụ truyền thông xã hội đã áp dụng các biện pháp để bảo vệ người dùng của họ. Tuy nhiên, các biện pháp này vẫn chưa có sự thống nhất giữa các dịch vụ".
"Ngoài ra, khi đánh giá nội dung có hại trên các dịch vụ truyền thông xã hội, cần phải xem xét bối cảnh văn hóa xã hội đặc trưng của Singapore. Với bản chất ngày càng phát triển của nội dung trực tuyến có hại, cần phải làm nhiều hơn nữa, đặc biệt là để bảo vệ người dùng trẻ tuổi", thông báo từ MCI cho biết.
Theo Bộ quy tắc thực hành về an toàn trực tuyến, các nhà chức trách đang cân nhắc việc yêu cầu các nền tảng truyền thông xã hội phải thực hiện các tiêu chuẩn cộng đồng cho 6 loại nội dung, gồm: nội dung khiêu dâm, bạo lực, tự làm hại bản thân, bắt nạt trên mạng, gây nguy hiểm cho sức khỏe cộng đồng và tạo điều kiện cho tội phạm có tổ chức.
Theo MCI, các nền tảng này cũng sẽ phải kiểm duyệt nội dung để giảm mức độ tiếp cận của người dùng với những nội dung có hại như vậy hoặc để vô hiệu hóa quyền truy cập vào nội dung đó khi được người dùng báo cáo. Quy trình báo cáo phải dễ dàng truy cập và sử dụng, và các nền tảng phải đánh giá và thực hiện hành động thích hợp "một cách kịp thời và cẩn trọng".
Các nền tảng cũng sẽ được yêu cầu chủ động phát hiện và xóa tài liệu bóc lột và lạm dụng tình dục trẻ em cũng như nội dung khủng bố.
Riêng đối với người dùng dưới 18 tuổi, MCI đã đề xuất các biện pháp bảo vệ bổ sung như bao gồm các tiêu chuẩn cộng đồng chặt chẽ hơn và các công cụ cho phép thanh thiếu niên hoặc các bậc phụ huynh quản lý việc con em tiếp xúc với nội dung có hại. Bộ cho biết, những công cụ này có thể bao gồm việc hạn chế khả năng hiển thị tài khoản của người dùng trẻ với những người khác. "Các công cụ có thể được kích hoạt theo mặc định cho các dịch vụ cho phép người dùng dưới 18 tuổi đăng ký tài khoản".
MCI cũng cung cấp thêm chi tiết về định nghĩa tác hại trực tuyến sẽ được đề cập trong các bộ quy tắc khi chúng có hiệu lực. Ví dụ: định nghĩa về nội dung khiêu dâm có hại cho tất cả người dùng bao gồm nội dung mô tả các hoạt động tình dục tục tĩu cũng như nội dung mô tả hoặc cổ vũ hành vi tình dục lệch lạc như loạn luân, thú tính, ấu dâm. Nó cũng bao gồm nội dung "liên quan đến hoặc khuyến khích tội phạm tình dục theo Bộ luật Hình sự, Đạo luật trẻ em và thanh thiếu niên và Hiến chương phụ nữ". Điều đó bao gồm cả việc phân phối tài liệu lạm dụng tình dục trẻ em, hình ảnh mãn nhãn và thân mật được phát tán mà không được sự đồng ý, giao tiếp tình dục với trẻ vị thành niên và nội dung khuyến khích tấn công tình dục.
Đối với người dùng trẻ tuổi, nội dung khiêu dâm có hại cũng bao gồm nội dung mô tả bất kỳ hoạt động tình dục nào, ngay cả trong bối cảnh hư cấu. Nó cũng bao gồm nội dung mô tả ngụ ý hoặc làm mờ về các hoạt động tình dục, nội dung có ảnh khỏa thân trong bối cảnh tình dục và nội dung sử dụng thường xuyên các ám chỉ về tình dục nhằm mục đích thỏa mãn tình dục.
MCI cũng liệt kê các ví dụ về nội dung tự làm hại bản thân, bao gồm "nội dung mô tả ngụ ý hoặc không chi tiết về hành vi tự làm hại bản thân, bao gồm các vết sẹo đã lành và hình ảnh được làm mờ".
MCI còn định nghĩa hành vi bắt nạt trên mạng là nội dung có hại được đề cập trong các quy tắc thực hành. Nội dung này bao gồm nội dung có khả năng chế giễu, làm nhục hoặc gây xấu hổ cho người nhắm mục tiêu, chẳng hạn như nội dung đã chỉnh sửa về một thanh niên hoặc trẻ em trong tình huống xấu hổ với phụ đề nhằm chế giễu và chế nhạo.
Theo các đề xuất, các nhà cung cấp nền tảng sẽ được yêu cầu thường xuyên xuất bản các báo cáo về hiệu quả của các biện pháp của họ, bao gồm thông tin về mức độ phổ biến của nội dung có hại trên nền tảng của họ, các báo cáo của người dùng mà họ đã nhận và đã hành động cũng như các hệ thống và quy trình mà họ có để xử lý những nội dung đó.
MCI nhấn mạnh MCI đang thực hiện một cách tiếp cận mang tính hợp tác để tăng cường an toàn trực tuyến, làm việc cùng với các bên liên quan trong người dân, khu vực tư nhân và nhà nước.
Ngoài các cuộc tham vấn liên tục với các công ty công nghệ, MCI cho biết cũng sẽ thu hút sự tham gia của các nhóm bên liên quan chính, bao gồm phụ huynh, thanh thiếu niên, đối tác cộng đồng và học giả.
Tham vấn cộng đồng sẽ diễn ra từ ngày 13/7 đến ngày 10/8. Bản tóm tắt các phản hồi chính đã nhận được và phản hồi của MCI đối với các phản hồi sẽ được công bố sau khi kết thúc cuộc tham vấn cộng đồng.
BÀI VIẾT LIÊN QUAN
Đọc thêm