top of page

Sociale medier og overholdelse af aldersgrænser

Tech-giganter står over for kritik for ikke at håndhæve aldersgrænser på sociale medieplatforme, hvilket gør det muligt for børn og unge at få adgang til upassende indhold ved at lyve om deres alder. Problemet er udbredt, som undersøgelser fra Medierådet for Børn og Unge og Nordisk Ministerråd viser.



I de seneste årtier har teknologiens indtog ændret måden, hvorpå vi interagerer med hinanden og med verden omkring os. Tech-giganter som Facebook, Instagram, TikTok og YouTube har revolutioneret sociale medier og underholdning, men har også bragt nye udfordringer med sig, især når det kommer til børn og unges brug af disse platforme.


En af de mest diskuterede problemstillinger er overholdelsen af aldersgrænser. Tech-giganterne har ofte været under kritik for ikke at håndhæve disse grænser effektivt, hvilket fører til, at børn og unge nemt kan få adgang til upassende indhold ved at lyve om deres alder.


Problemet med nuværende aldersgrænser


Mange sociale medieplatforme har en minimumsalder på 13 år for at oprette en konto. Dette er i overensstemmelse med den amerikanske lov, Children's Online Privacy Protection Act (COPPA), som har til formål at beskytte børns privatliv online. Men i praksis ser vi ofte, at børn under 13 år nemt kan oprette en konto ved blot at lyve om deres alder. En rapport fra Medierådet for Børn og Unge i Danmark viste, at en betydelig andel af børn under 13 år bruger sociale medier, selvom de officielt ikke må .


Dette fører til, at børn og unge eksponeres for indhold, der ikke er passende for deres alder. Det kan være voldeligt, seksuelt eller på anden måde skadeligt indhold. Derudover er mange af de algoritmer, som driver disse platforme, designet til at maksimere engagement og tid brugt på platformen, hvilket kan have negative psykologiske effekter på unge brugere.


Eksempler på utilstrækkelig håndhævelse


Flere eksempler viser, hvordan tech-giganter ikke formår at håndhæve deres egne aldersgrænser. En undersøgelse fra Nordisk Ministerråd viste, at mange børn under 13 år har profiler på sociale medier, og at disse profiler ofte er falske for at omgå aldersgrænserne.


Strengere regulering af indhold


Hvis der skal laves en lavere aldersgrænse skal der også komme en betydelig ændring i, hvordan indhold bliver reguleret. Algoritmerne skal justeres, så de tager hensyn til den yngre målgruppe. Dette kunne inkludere:


1. Filtrering af Indhold: Algoritmerne skal filtrere indhold, så voldeligt, seksuelt eller på anden måde upassende materiale ikke bliver vist til yngre brugere. Dette kan gøres ved at klassificere indhold og bruge avancerede AI-teknologier til at analysere og kategorisere indholdet korrekt.


2. Begrænsning af Skærmtid: Platformene kan indføre begrænsninger for, hvor længe yngre brugere kan være aktive på platformen. Dette kan bidrage til at forhindre overforbrug og de negative konsekvenser, der kan følge med.


3. Uddannelsesmæssigt Indhold: Fremme indhold, der er uddannelsesmæssigt og udviklingsmæssigt gavnligt for børn. Dette kunne inkludere videoer om videnskab, kunst og kultur, samt interaktive læringsværktøjer.


En mulig løsning?


En løsning kunne være at at sænke aldersgrænsen. På den måde anerkender vi den realitet, at børn alligevel finder måder at bruge disse platforme på. En lavere aldersgrænse vil give platformene mulighed for bedre at tilpasse deres tjenester til en yngre målgruppe. Dette vil inkludere muligheden for at implementere mere robuste aldersverifikationssystemer, der kan forhindre børn under den nye aldersgrænse i at få adgang.


"Vi kunne forslå at vi accepterer at aldersgrænsen nedsættes, da de unge jo alligevel tilegner sig adgang ved at snyde. Men at indhold og algoritmer tilegnes aldersgruppen. Så de unge ikke udsættes for voksent indhold. Det gør de i dag da de jo opretter sig som voksen, for at omgås aldersgrænsen. Så istedet kunne den måske nedsættes og indhold istedet reguleres". Claus Hansen, DKITS

Implementeringen af denne løsning kræver samarbejde mellem tech-giganter, lovgivere og forældre. Lovgivere skal udarbejde klare retningslinjer og reguleringer, mens tech-virksomheder skal udvikle teknologi og systemer, der sikrer, at disse retningslinjer bliver overholdt. Forældre skal også spille en aktiv rolle i at overvåge deres børns online aktivitet og vejlede dem i passende online adfærd.


Etik og privatliv


En vigtig overvejelse i denne løsning er balancen mellem beskyttelse af børn og privatlivsrettigheder. Det er afgørende, at eventuelle nye systemer for aldersverifikation og indholdsregulering respekterer brugernes privatliv og ikke fører til unødvendig overvågning eller dataindsamling. Anonyme verifikationsmetoder og gennemsigtige dataindsamlingspraksis kan hjælpe med at opretholde denne balance.




Problemstillingen med børn og unges adgang til upassende indhold på sociale medier er kompleks og kræver en innovativ tilgang. Ved at sænke aldersgrænserne og samtidig indføre strengere regulering af indholdet, kan vi måske skabe en mere sikker online oplevelse for unge brugere. Denne løsning kræver samarbejde på tværs af sektorer og en forpligtelse til at beskytte børn uden at kompromittere deres ret til privatliv og frihed online.


Tech-giganter har et ansvar for at sikre, at deres platforme er sikre for alle brugere, især de mest sårbare. Ved at anerkende de eksisterende problemer og implementere realistiske løsninger, kan vi forhåbenligt skabe et bedre digitalt miljø for fremtidens generationer.


---


Kilder




Comments


bottom of page