Förstår AI ?
Begreppet AI har funnits i mer än 70 år, men det är först med de stora språkmodellerna som Chat-GTP det kom i var mans mun. De är så bra på att manipulera språk så det diskuteras om de kommer att få ett eget medvetande eller kanske redan har det. Några forskare menar t o m att möjligheten för en medveten AI måste tas på allvar och diskuterar om vi isåfall måste ge den moraliska rättigheter .
Själv är jag övertygad om att medvetande har med liv att göra och att om vi någon gång i framtiden lyckas skapa artificiellt medvetande så kommer det att vara liv-likt. Liv och maskiner skiljer sig åt. Det var därför jag gjorde filmen “Sprider Sturmark Spöktro ?” . Jag ska därför förtydliga argumenten kring hur liv, tänkande och medvetande hänger samman . Först måste vi dock fundera över vad förståelse innebär. En medveten AI måste rimligtvis förstå vad den säger.
Vad innebär förståelse (av språk) ? .
Dessa stora språkmodeller ( LLM ex Chat-GTP) har inte någon som helst kontakt med världen, varken den fysiska eller den sociala. Det är datorprogram tränade på många, många miljarder sidor text från websidor , inscannade böcker, e-post etc. Utefter detta kan de svara på frågor genom att kombinera ny text utefter vilket ord som är mest statistiskt sannolikt efter den rad med ord som skrivits tidigare. Det är märkligt vad de kan åstadkomma, men förstår vad de “läser “ eller vad de skriver ?
AI-pionjären och Nobelpristagaren Geoffry Hinton anser att LLM förstår. En annan av AI-fäderna Yann Lecun menar tvärtom, de saknar kontakt med världen så de förstår inget. Han har uttryckt det som” aldrig kommer att närma sig mänsklig intelligens , även om den tränas tills universums värmedöd ”. När Terry Sejnowski får frågan om LLM förstå något eller om de endast upprepar likt en papegoja säger han:
“This is something that has shaken up the whole world of philosophy, linguistics and science in general ………… humans actually don’t know what it means to understand”
Det finns således ingen konsensus inom den vetenskapliga världen hur människor förstår språk.
Det finns ett tänkande under den språkliga nivån som är nödvändig för att vi ska förstå. Utan det skulle alla våra ord vara meningslösa ljud.
Vi kan låta en annan pionjär , Rodney Brooks (robotforskare som varit i AI-branchen de senaste femtio åren), besvara frågorna om Chat-bottar är medvetna eller om de förstår.
Are ChatBots consciuos ?
Do Chatbots Understand ?
Jag hoppas du la märke till hur han beskrev hur ett 18-månaders barn vet saker om den fysiska världen ! De känner gravitation , de vet hur man drar och trycker. Små barn känner igen mängder med föremål och situationer och vet hur de ska interagera med dem. De vet hur det känns att vara hungrig, törstig, trött etc. Detta är själva tänkandets rötter. När de börjar använda ord så är orden förankrade i dessa, sinnliga, kroppsliga upplevelser. Ju äldre vi blir och fler ord vi lär oss, börjar vi till slut lära oss nya ord endast med ord, det är då vi glömmer bort språkets kroppsliga förankring.
Att komma ur ordkarusellen
Kanske har du träffat på ett barn som lekt –”förklara ord med ord - leken”
- Pappa - Vad är en tordyvel ?
- Det är en svart skalbagge med klubbformade antenner .
- Vad är en skalbagge ?
- En insekt där de främre vingarna har ombildats till ett ”skal”
- Vad är en insekt ?
- Ett leddjur med sex ben och (oftast) fyra vingar ?
- Vad är ett leddjur ?
- …………..
Barnet har upptäckt att om ett obegripligt ord förklaras med ett annat obegripligt ord, kommer man aldrig ur ordkarusellen. Lägg märke till skillnaden med att få ett ord förklarat med andra ord och att se och hålla i en Tordyvel och någon säger : Det här är en tordyvel ! Då förankras begreppet i dina upplevelser. Att “komma ur ordkarusellen“ har uppmärksammats inom kognitionsforskningen, då under benämningen grundningsproblemet.
Grundningsproblemet
Det som man idag kallar Good Old Fashion Artificial Intelligens (GOFAI) gick ut på att tänkande handlar om att manipulera symboler efter logiska regler. Man hade byggt datorer och kom på att de symboler man stoppar in inte bara behöver representera tal utan kan representera vad som helst i världen. Om man i datorn definierar en symbol med en annan symbol, "förstår “ datorn vad symbolen betyder ?
Steven Harnad beskrev problemet i en klassisk artikel : The symbol grounding problem (1990) där han gör liknelsen att komma till Kina med en kinesisk-kinesisk ordbok . Du vill ta reda på vad ett kinesiskt tecken betyder, slår upp det i ordboken och får endast ett nytt obegripligt tecken till svar. Ett obegripligt ord kan inte förklaras med andra obegripliga ord . Hur kommer man ur ordkarusellen ?
Hans lösning på problemet är att vi har som barn lärt oss 1000 -1500 ord som är grundade i det senso-motoriska och emotionella systemen . Du förstår orden tung , kasta, putta , prutta , klibbig, sträv , ledsen , hungrig , katt , hund därför att du vet hur de känns, ser ut, luktar eller låter.
Vad vi sedan gör är att vi kan kombinera dessa. Vi kan t ex lära oss Zebra genom att mentalt kombinera häst och randig.
Abstrakta begrepp lär vi oss via metaforer. Vi använder meningsfulla mönster i de senso-motoriska och emotionella systemen. Vi talar om en åtstramning av ekonomin, och skattelättnader . Vi kan förstå detta för vi har kroppsliga upplevelser av att “strama åt” och att “känna lättnad” annars hade det låtit som en zqwisk av ekonomin eller skattegqzzk.
Men det verkar inte som om alla kognitionsvetare känner till grundningsproblemet. I klippet nedan har en språkvetare (Holger) förklarat att LLM kan förstå genom att bara ha text som input och Steven Harnad kommenterar genom att först säga något på tyska och därefter på (jag tror ) ungerska. Lägg märke till Holgers min !
Språk fungerar likt en startnyckel som sätter igång mönster i vår hjärna. Dessa mönster har skapats av våra erfarenheter och upplevelser. De har rötter i våra senso-motoriska och emotionella system. När Steven sa något på Ungerska så startades inget ,
Chat-GTP kan fånga strukturer i de enorma textmängder de tränats på. De texter de producerar är omkombinationer av texter skrivna av levande människor. För att förstå meningen i dessa texter, krävs en människa med erfarenheter och upplevelser.
Att språk och förståelse är förankrat i vår levda kropp är kärnan i de teorier som kallas Embodied Cognition som jag skrivit om här !
Jag ska återkomma om skillnaden på liv och maskiner !