10대 소녀의 자살과 관련된 이야기를 다룬 넷플릭스 시리즈 '루머의 루머의 루머(13 Reasons Why)'가 방영된 이후, 실제 미국 청소년의 자살률이 약 30% 증가했다고 합니다(미 국립보건원(NIH)의 연구보고서). 이처럼 미디어를 비롯해 다양한 채널을 통해 노출되고 있는 콘텐츠들은 자극에 취약한 청소년에게 큰 영향을 미칠 수 있어 국가마다 제도적 보완책을 마련하고 있습니다. 우리나라도 자살을 부추기거나 자살 행위를 돕는데 활용되는 정보 즉 ‘자살유발정보’가 정보통신망을 통해 유통되는 것을 법적으로 금지하고 있고, <자살보도 권고 기준>과 <영상콘텐츠 자살 장면 가이드라인> 등을 마련해 언론 및 콘텐츠 제작자에게 배포해 적용하도록 권고하고 있습니다.
하지만, 다양한 조치에도 불구하고, 자살 유발·유해정보는 지속적으로 늘고 있습니다. 한국생명존중희망재단의 연차보고서에 따르면 2023년 자살유발·유해정보 신고 건수는 26만여 건에 이릅니다. 이는 2년 전보다 약 4.6배 증가한 수치인데, 이 중 실제로 삭제된 건수는 전체 신고 건수의 약 34%(8만9811건)에 불과한 것으로 나타났습니다. 인스타그램이나 X(구 트위터) 등의 해외 플랫폼에는 국내 사법 집행권이 미치지 않아 조치가 원활하게 이루어질 수 없다는 점이 주요 이유로 꼽힙니다. 현재는 자살유발·유해정보가 발견이 되어도 삭제나 이용자 정지 조치가 강제적으로 이루어질 수 없고, 해외 플랫폼 운영자의 자율 규제에 의존할 수밖에 없습니다.
한편, 유럽연합은 2023년 8월부터 「디지털서비스법」을 시행해 온라인 플랫폼 사업자에게 불법 콘텐츠에 대한 대응 의무를 부여했습니다. 이에 따라 플랫폼 운영자는 불법 콘텐츠가 발견되면 규제 당국의 정보 삭제 명령을 준수해야 하며, 신속한 대응을 위해 연락 담당자 및 법률 대리인을 지정해야 합니다. 이러한 글로벌 스탠다드에 발맞추어, 우리 정부도 온라인에서의 자살 유발 및 유해 정보 유통 방지를 위해 보다 강력한 제도가 마련될 수 있도록 속도를 내야 할 시점입니다.