Moraliska aspekter och intuition är några av de saker som ett säkert datasystem måste klara av i framtiden. Det anser Erik Sandewall, AI–forskare och professor emeritus vid Linköpings universitet.
Erik Sandewall kom till Linköpings universitet som ny professor 1975. Han var med och grundade institutionen för datavetenskap (IDA) i sin nuvarande form sedan 1983.
Han började på Stanford University som doktorand redan 1966. Handledare var professor John McCarthy, känd för att ha myntat begreppet Artificial Intelligence (AI).
Enklare system gjordes på MIT och Stanford redan då. De påminde lite om Googles ”Siri”. Där fanns bland annat ett system som hette ”Eliza”, utvecklat av Joe Weizenbaum.
Erik Sandewall understryker att intelligens är något mycket komplicerat. Ändå är det lockande att tänka sig att datavetenskapen skulle kunna återskapa intelligens.
− Problemet är att intelligens är så mycket mera komplicerat än ChatGPT som just nu beskrivs som någonting väldigt intelligent.
ChatGPT använder AI-teknik och förmågan att hantera stora mängder information. Den plockar ihop något som låter vettigt. Men det går inte att dra slutsatsen att sådant system är intelligent i generell bemärkelse.
AI-system handlar istället om vissa aspekter av intelligens och viss inlärning. Men riktigt+ intelligent beteende innebär också att man kan dra slutsatser och göra bedömningar utifrån enskilda situationer.
Om man ser intelligens hos människor som exakt detta, då finns inte några skäl till att man inte på längre sikt kan få datorsystem att göra på motsvarande sätt, enligt Erik Sandewall.
Men samtidigt återstår det svåra begreppet intuition.
Människor har förmåga att komma till slutsatser och att göra bedömningar utan resonera, och utan att härleda till några abstrakta principer.
-Det kan vara en kombination av slutsatser. Det säger bara klick! Den typen av intuitivt beteende tycks vara en viktig del av vår moraliska kompass.
Ett datasystem måste i någon bemärkelse förstå de uppdrag den ska utföra, då ingår ofta moraliska aspekter. En slutsats kan inte enbart vara ytlig: ”Du får inte göra si, du får inte göra så”. En AI måste också kunna värdera sina slutsatser i förhållande till olika moraliska principer.
Många tänker inte på att AI-teknik enbart är en samling av olika tekniker, som exempelvis inlärning, mönsterigenkänning och hantering av stora datamängder. Varje förmåga för sig kan fungera utmärkt för sitt ändamål. Men det är hittills ingen teknik som kommit nära en kombination av människohjärnans alla förmågor.
Försöken att kategorisera alla förmågor slutar oftast i att det blir för mycket att ta hänsyn till. Varje förmåga för sig går att dela upp och testa. För några år sedan talade man om AI som en ”big switch” där man bara kopplade in en förmåga i taget.
Samtidigt är det väldigt lätt att tänka sig fall där en AI behöver granska flera förmågor samtidigt. Hos människan är det här en komplex situation.Det är oklart hur mänskliga förmågor hänger samman och hur de samverkar i hjärnan.
Källa: Linköpings universitet, 20 sept 2023