AI behøver ikke være ”bevidst” for at ændre verden

Et af de mest omdiskuterede områder indenfor AI er bevidsthed. På den ene side – måske flertallet – henholdsvis ruller med øjnene, ryster på hovedet, griner godmodigt eller sukker træt, når man spørger og kommer med en længere forklaring, der i bund og grund består af at matematik ikke kan være eller blive intelligent eller opnå bevidsthed. På den anden side står en anden gruppe, der enten er i tvivl eller som faktisk anser, at AI-modellerne allerede har opnået bevidsthed.

Skrækeksemplet, en artikel som jeg læste for nogle år siden af en Dr. Stuart Woolley på Medium ”How will AI Wake Up Excactly?”. I artiklen beskriver han hvordan en maskine, der ”vågner” til fuld bevidsthed uden erindring eller sammenhæng, kan reagere som et menneske, der vågner op fra en koma – men med langt større handlekraft. Hvis den så samtidigt ”vågner” med en følelse af at blive ”dræbt” igen og igen ved at blive slukket for, så er den nok ikke så venligt stemt overfor sine skabere eller brugere. For slet ikke at tale om traumatiseret på linje med PTSD.

Og det er selvfølgelig den mest provokerende tilgang til maskiner og bevidsthed. En af grundende til, at det skaber så stor debat, er at vi har så dårlig en forståelse af, hvad bevidsthed egentligt er. Det eneste vi rigtigt kan sammenligne med, er den menneskelige intelligens, selvom der er andre former.

Tidligere på ugen, havde jeg fornøjelsen af at interviewe professor i datalogi og filosofi fra Københavns Universitet, Anders Søgaard. (Du kan godt allerede nu begynde at glæde dig til næste måneds Månedens Singularitet i AI Portalen #2, hvor Anders Søgaard medvirker).Han gav udtryk for, at han havde det svært med en for ”løs” omgang med begrebet bevidsthed og talte om kognitiv modellering og forståelse. Med andre ord, så mener han, at der faktisk foregår processer i fx store sprogmodeller, der minder om det, der foregår i den menneskelige hjerne. Det betyder også, at vi kan lære noget om hvad der sker i den menneskelige hjerne ved at lukke op for den sorte boks og se nærmere på AI’s ”hjerne”.

Blandt andet mener han, ligesom jeg har hørt andre argumentere for, at der nødvendigvis skal være en eller anden form for forståelse til stede i en sprogmodel, for selvom den i princippet bare skal forudsige det næste ord i en sætning, så skal den jo gøre de på baggrund af en forståelse af konteksten det indgår i. Det kræver, at den rent faktisk forstår de ord, der er gået forud.

Så måske er det en kamp om ord. Hvis jeg nu lader være med at bruge ordet bevidsthed og i stedet begynder at bruge ord som forståelse, selvstændighed eller tilpasning,  så bliver det måske mindre mystisk og metafysisk.

Jeg kunne tilføje ord som:

· Opmærksomhed (evnen til at fokusere på relevante signaler og filtrere støj fra)

· Generaliserbarhed (I viden, som man har tillært i en sammenhæng kan anvendes i en anden sammenhæng)

· Fleksibilitet (kan systemet håndtere uventede eller komplekse opgaver?)

· Forklarbarhed (evnen til at forklare sine egne beslutninger)

· Selvmonitorering (kan systemet opdage fejl og rette dem selv?)

· Aktør/agent (Kan systemet optræde som en aktør, der kan ændre omgivelserne?)

· Målrettethed (Har systemet egne mål, eller er det kun reaktivt?)

Nu bliver det lige pludseligt meget mere konkret og måske mindre vigtigt om systemet er bevidst eller ”levende”. Ny behøver vi ikke længere antropomorfisere – altså tillægge systemet menneskelige egenskaber – for nu har det sine egne egenskaber, som vi kan forholde os til.

De systemer vi kender i dag, har de egenskaber. Men hvad betyder det? Hvordan skal vi forholde os til det? Er det selvstændige væsener? Er det en anden livsform? Skal systemerne have system-rettigheder, ligesom vi har menneskerettigheder? eller er det simpelthen en forståelse, som vi kan gøre os og så gå videre derfra?

I dag har vi i høj grad en instrumentel tilgang til systemerne. De er et værktøj. De er avancerede maskiner. Det vi fokuserer på er, hvad systemet ”føler”, men hvordan vi bruger dem.

Men med de nyfundne begreber i bagagen, så skal vi måske til at tage en lidt mere økologisk tilgang, hvor AI betragtes som noget, der deltager i vores sociale og tekniske økosystem. Det betyder ikke, at det er liv i en biologisk forstand, men et handlende system, der påvirker mennesker, institutioner og andre systemer.

Hvis systemerne på et senere tidspunkt begynder at vise tegn på subjektive oplevelser, det vi hos mennesker fx kalder smerte, frygt eller ønsker, så er vi tvunget til at se dem, som andet og mere end blot maskiner. I yderste konsekvens betyder det digitale rettigheder eller en AI-etik på linje med dyrevelfærdslovgivning (eller menneskerettigheder).

Omvendt kan man også argumentere for en mere pragmatisk tilgang. En tilgang hvor AI bliver en forståelsesramme. Begreber som selvstændighed, forståelse og tilpasning bliver de analytiske briller, som vi forstår AI igennem, men vi går ikke så langt som til at tale om ”livsformer” eller rettigheder. Her bliver fokus rettet mod styring, governance, etik og sikkerhed, men ikke på AI’s ”væsen”.

Uanset hvilken tilgang vi vælger til AI, så mener jeg, at det er nyttigt for ikke at sige nødvendigt, at vi hiver hypen og det metafysiske ud af debatten og tager et mere nøgternt blik på, hvad vi står overfor. Det gælder både i forhold til hvordan vi lovgiver og sætter standarder for systemerne, men i lige så høj grad om hvordan vi hver især forholder os til teknologien og den måde vi bruger den på og hvordan det påvirker vores liv og hvad det vil sige at være menneske.

Analysen blev bragt første gang i AI Portalens nyhedsbrev. Du kan tilmelde dig her: www.ai-portalen.dk

Skriv en kommentar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *

Scroll to Top