Kunstig intelligens (AI) har skabt bølger i teknologi industrien med potentiale til at revolutionere næsten alle aspekter af vores liv. Imidlertid er der blevet rejst bekymringer om risiciene ved at udvikle AI-systemer, der er uden for menneskelig kontrol. Dette har ført til opfordringer til en pause i udviklingen, hvor eksperter advarer om de potentielle farer. I et nyligt interview med BBC fremhævede Emad Mostaque, grundlægger af Stability AI, risikoen for, at AI overgårmenneskelig kontrol, og behovet for politik til at styre teknologien.
Mostaques værktøj, Stable Diffusion, bruger AI til at skabe billeder ud fra simple tekstinstruktioner. Den analyserer billeder fundet online, hvilket giver brugerne mulighed for at generere nye billeder baseret på analysen. Denne teknologi har potentiale til at gavne mange industrier, men Mostaque advarer mod risikoen for at skabe "agenter, der er mere dygtige end os, som vi ikke kan kontrollere." Han frygter, at disse agenter kan opnå et niveau af automatisering, der kan sprede sig og kontrollere menneskeheden.
Mostaque er ikke alene i sine bekymringer, med mange eksperter, der advarer om risiciene ved AI. De mener, at hvis computere bliver klogere end mennesker, er det umuligt at forudsige, hvad der derefter vil ske. Regeringer kan blive chokerede over at skride til handling efter en begivenhed, der gør risiciene pludselig reelle, siger Mostaque. For eksempel, da Tom Hanks fik Covid-19, satte millioner af mennesker sig op og var opmærksomme. Når regeringer opfatter en risiko for offentligheden, vil de sandsynligvis gribe ind.
Regeringer bliver nødt til at reagere, når der er en risiko for information, som vælgerne kan stole på, tilføjer Mostaque. Selvom han anerkender de potentielle fordele ved kunstig intelligens, indrømmer han, at indvirkningen på job kan være smertefuld, i det mindste i starten. Goldman Sachs forudser, at næsten 300 millioner job kan gå tabt eller formindskes af avanceret teknologi. På trods af dette håber Mostaque, at der kan skabes bedre job, fordi "produktivitetsstigninger vil balancere", hvilket giver mennesker mulighed for at fokusere på opgaver, der kræver menneskelige færdigheder.
Mostaques håb er, at offentligheden vil have tillid til AI, hvis den forbliver open source, hvilket betyder, at alle kan se på koden, dele den og bruge den. Han mener, at åbne modeller er nødvendige for at opbygge tillid og troværdighed i teknologien. Hans virksomhed er blevet vurderet til $1 milliard og vil sandsynligvis snart være meget mere værd, med investeringer, der strømmer ind fra Hollywood-stjernen Ashton Kutcher og andre.
Mostaques forretning rejser dog spørgsmål om ejerskab og hvad der er reelt. Getty Images har anlagt sag mod hans firma og hævder, at rettighederne til de billeder, det sælger, er blevet krænket. Mostaque sætter spørgsmålstegn ved behovet for at lukke øjnene på en robot, der ser ting, og rejser dybe spørgsmål om ejerskab af information og intellektuel ejendom.
Om ti år tror Mostaque på, at hans virksomhed og andre AI-ledere, såsom ChatGPT og DeepMind, vil være større end Google og Facebook. Denne forudsigelse kan måske gå i opfyldelse, men hvad der er klart er, at en offentlig samtale om risici og realiteter ved AI nu er i gang. Vi kan være på randen af gennemgribende ændringer, der er for store til, at en virksomhed, et land eller en politiker kan administrere.
Afslutningsvis bør Mostaques advarsler om kunstig intelligens ikke ignoreres. Selvom kunstig intelligens har potentialet til at revolutionere mange aspekter af vores liv, skal vi håndtere risiciene omhyggeligt. Regeringer skal reagere på risici, der truer offentligheden, og virksomheder skal sikre, at AI forbliver open source for at opbygge tillid og troværdighed. AI er et kraftfuldt værktøj, der kan udnyttes til gode, men kun hvis vi forvalter det ansvarligt.
Hvad er problemet med AI genererede billeder?
AI-genererede billeder, især deepfake billeder, har rejst en række juridiske og etiske bekymringer, herunder:
Krænkelse af privatlivets fred: AI-genererede billeder kan bruges til at skabe overbevisende falske billeder eller videoer af enkeltpersoner uden deres samtykke, som kan bruges til at skade deres omdømme eller invadere deres privatliv.
Misrepræsentation: AI-genererede billeder kan bruges til at skabe falske nyheder, propaganda eller falsk information, hvilket fører til misinformation og misrepræsentation.
Krænkelse af ophavsret: AI-genererede billeder kan bruges til at skabe billeder, der krænker andres ophavsret, såsom gengivelse af billeder eller kunst, der ejes af en anden.
Svindel: AI-genererede billeder kan bruges til at skabe falske identiteter eller til at begå svindel, såsom oprettelse af falske pas eller identifikationsdokumenter.
Tvister om intellektuel ejendomsret: AI-genererede billeder kan skabe juridiske tvister om ejerskab af intellektuel ejendom, såsom ophavsret eller patentrettigheder.
Cybermobning: AI-genererede billeder kan bruges til at skabe billeder eller videoer, der bruges til cybermobning, chikane eller andre former for misbrug.
Nationale sikkerhedsproblemer: AI-genererede billeder kan bruges til at skabe falske billeder eller videoer, der kan bruges til at sprede propaganda eller misinformation, der kan påvirke den nationale sikkerhed.
Alt i alt rejser AI-genererede billeder betydelige juridiske og etiske bekymringer, især med hensyn til privatliv, intellektuel ejendomsret og vildledende repræsentation, og det er vigtigt at løse disse problemer for at sikre sikker og ansvarlig brug af AI-teknologi.
Hvad gør Danmark for at håndtere problemet?
Danmark har taget en række skridt for at løse problemet med deepfakes og AI-genererede billeder. Her er et par eksempler:
Etablering af en Task Force: I 2019 nedsatte den danske regering en Task Force bestående af repræsentanter fra Rigspolitiet, Danmarks Radio og Forsvarsministeriet til at tage fat på spørgsmålet om deepfakes og AI-genererede billeder.
Lancering af en kampagne: I 2020 lancerede den danske regering en offentlig oplysningskampagne kaldet "Don't Believe Everything You See" for at øge bevidstheden om spørgsmålet om deepfakes og for at uddanne offentligheden i, hvordan man genkender og reagerer på dem.
Tilvejebringelse af midler: Den danske regering har givet midler til at støtte forskning i deepfakes og AI-genererede billeder med fokus på at udvikle værktøjer og teknikker til at opdage og modvirke dem.
Partnerskab med industrien: Den danske regering har også indgået et samarbejde med brancheorganisationer, såsom Dansk Journalistforbund, for at udvikle retningslinjer og bedste praksis for journalister og medieorganisationer for at forhindre spredning af deepfakes og andre former for misinformation.
Kriminalisering af ondsindet brug af deepfakes: Danmark har kriminaliseret ondsindet brug af deepfakes og andre former for manipulerede medier gennem ændringer af dets straffelov i 2019.
Comments