随着互联网的快速发展,未成年人的网络参与率也在日益提升。据去年由中国网络社会组织联合会和中国宋庆龄基金会办公室联合发布的《未成年人网络保护现状研究报告》显示,目前我国未成年人网络普及率已超90%,近四成青少年难以识别网络虚假信息。如何保护青少年网络安全,阻止不良信息对他们的侵蚀,已经成为了全社会需要解决的重大问题。
面对这一挑战,多家互联网平台积极行动起来,尤其是深受年轻人喜爱的开放式社交平台——Soul。在未成年人保护方面,Soul已经建立并实行了一套完备的机制。
2021年6月1日起,我国新修订的未成年人保护法正式施行,增设的“网络保护”章节明确提出,网络游戏、网络直播、网络音视频、网络社交等网络服务提供者应当针对未成年人使用其服务设置相应的时间管理、权限管理、消费管理等功能。
在该法案正式施行前,Soul APP就严格要求18周岁以下用户不能注册,新注册用户初入平台需要进行实名认证,若确认用户为未成年人,则无法进入成年模式。目前,Soul上的未成年用户为过往的存量用户,且占比极低。这批用户只能在青少年模式下使用产品,与成年用户相区隔。此外,Soul设立了用户举报机制,并通过智能巡检和人工巡检(如组建“护星队”强化日常巡检)途径,寻找疑似未成年人的相关信息,并引导其进行实名认证。这种双管齐下的方法,确保了未成年人在平台上的安全。
然而,青少年网络安全不仅仅是防止他们接触不良信息,更重要的是如何识别并阻断那些有意诱导他们提供不当内容的人。为此,Soul依托自身技术能力,建立了一套未成年内容识别模型,能对用户发布的文字、语音、图片等内容进行年龄特征识别。通过这种方式,Soul能有效地识别出"假成年人",并采取相应的措施。
但是,仅仅识别并阻断不良信息还不够。为了营造一个健康、积极的网络环境,Soul在青少年模式下,严格把关内容,持续优化内容池,提供更多优质、正能量的内容。在这个模式下,青少年用户可以在优质内容的影响下,进行健康的社交、知识交流,成长为有理想、有抱负的新一代。
为了避免未成年人沉迷网络,Soul还上线了防沉迷机制,对青少年模式中未成年用户的每日累计登入时长和每日使用时间点进行了限制,累计时长不超过40分钟,当使用时间超过限制要求时,平台将锁定当前页面,并弹出提醒文案,时刻提醒青少年用户注意健康。
Soul的举措无疑是对未成年人网络保护的有力尝试,也是对未成年人网络安全工作的重要贡献。它通过技术和人工的结合,确保了未成年人在社交平台上的安全,更创新性的引导他们在社交中保持积极健康的态度。
互联网,特别是社交网络已经成为青少年生活的一部分。而如何保护青少年的网络安全,阻止不良信息对他们的侵害,是全社会共同的责任。Soul还将与外界共同筑牢青少年保护防线,为青少年构筑安全清朗的社交环境。
免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。