Meta & Fysikken: Afsnit 7: Kunstig intelligens og empati

Det går stærkt og vi skal passe på!

Vi taler om udviklingen indenfor området kunstig intelligens og om hvornår mennesket mere eller mindre kan erstattes. Bliver det mon muligt, eller er der en stopklods? Og hvad med empatien? Hvilken rolle spiller den mon? Hvis den overhovedet er en faktor....


Karina's noter til afsnittet:

Kunstig Intelligens

Accelereret Fremskridt
Dette er interessant fordi en udviklet teknologist civilisation har en accelereret udvikling. Altså mængden af fremskridt i de sidste 30 år er større end i de 30 år før det. (Law of Accelerating Returns by Ray Kurzweil). Altså fremskridt bliver stadig større og sker hurtigere. Hvad sker der i fremtiden. Kurzweil regner med at mængden af fremskridt mellem 2000-2014  er det samme som hele det 20 århundrede (1900-2000). Fordi mængden af fremskridt er accellereret så forventes den samme mængde freskridt mellem 2014 0g 2021, altså på kun 7 år og dermed på den halve tid. Alt i alt forventes det at mængden af fremskridt i det 21 århundrede bliver 1000 gange større end i det 20 århundrede.

Det kan være svært at forstå fordi vi ofte forstår fermtiden linært ud fra fortiden, og når der er tale om en acceleration så er det ikke en linær vækst men en der går hurtigere og hurtigere. 
'Logic also suggests that if the most advanced species on a planet keeps making larger and larger leaps forward at an ever-faster rate, at some point, they’ll make a leap so great that it completely alters life as they know it and the perception they have of what it means to be a human—kind of like how evolution kept making great leaps toward intelligence until finally it made such a large leap to the human being that it completely altered what it meant for any creature to live on planet Earth. And if you spend some time reading about what’s going on today in science and technology, you start to see a lot of signs quietly hinting that life as we currently know it cannot withstand the leap that’s coming next.'
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

Det hænger også sammen med Moore's Lov: Verdens maksimale computer kraft bliver fordoblet hvert andet år. Hvilket er exponentielt. 

Hvad er Kunstig intelligens?:

Man hører tit om Kunstig intelligens eller A.I. (Artificial intelligence). Men hvad er det? Hvad indeholder begrebet.
A.I. er et bredt begreb. Det er både din regnemaskine på din telefon og det er hvad der styrer de selvkørende biler. Det er forvirrende.
En robot er ikke en A.I. Det er en kasse rundt om en A.I. Ikke alle A.I. har en robot krop. F.eks. er softwaren og data bag Siri en A.I.

Man kan dele A.I. ind i 3 hovedkategorier også kaldt Kaliber
AI Caliber 1) Artificial Narrow Intelligence (ANI): Sometimes referred to as Weak AI, Artificial Narrow Intelligence is AI that specializes in one area. There’s AI that can beat the world chess champion in chess, but that’s the only thing it does. Ask it to figure out a better way to store data on a hard drive, and it’ll look at you blankly.
As of now, humans have conquered the lowest caliber of AI—ANI—in many ways, and it’s everywhere. 
Eks: Skak computere, Smartphones, email spam filter, cookies der giver dig målrettet reklamer fra Amazon. Googles søgemaskine. Facebooks Newsfeed. De er også til stede i industrier såsom :  Militæret, produktion, finansverden (algoritme handlere).
De er alle harmløse, selvom at en dårligt programmeret ANI kan forårsage en fejl på et atomkraftværk, eller et crash på finansmarkedet (som det skete i 2010).

AI Caliber 2) Artificial General Intelligence (AGI): Sometimes referred to as Strong AI, or Human-Level AI, Artificial General Intelligence refers to a computer that is as smart as a human across the board—a machine that can perform any intellectual task that a human being can. Creating AGI is a much harder task than creating ANI, and we’re yet to do it. Professor Linda Gottfredson describes intelligence as “a very general mental capability that, among other things, involves the ability to reason, plan, solve problems, think abstractly, comprehend complex ideas, learn quickly, and learn from experience.” AGI would be able to do all of those things as easily as you can.

AI Caliber 3) Artificial Superintelligence (ASI): Oxford philosopher and leading AI thinker Nick Bostrom defines superintelligence as “an intellect that is much smarter than the best human brains in practically every field, including scientific creativity, general wisdom and social skills.” Artificial Superintelligence ranges from a computer that’s just a little smarter than a human to one that’s trillions of times smarter—across the board. 

Det er en ASI der ligger til grund for Elon Musks advarsel:
"AI could become ‘an immortal dictator from which we would never escape"

https://www.washingtonpost.com/news/innovations/wp/2018/04/06/elon-musks-nightmarish-warning-ai-could-become-an-immortal-dictator-from-which-we-would-never-escape

AI Revolution Fra ANI til AGI

The AI Revolution is the road from ANI, through AGI, to ASI—a road we may or may not survive but that, either way, will change everything.
Man kan se ANI som byggestenene til en AGi og dermed til en ASI.

Det er 'nemt' at bygge en computer til at regne lange regnestykker ud, men en der kan se forskel på en hund og en kat - meget svært. Sjovt nok er det åbentbart nemt nok at bygge en computer til at lave klassisk svære tænke opgaver -regne, huske, men at lave en computer der kan gøre ting som vi gør uden at tænke over det, -det er svært. I virkeligheden ligger der kompliceret software i din hjerne som gør dig i stand til det, noget der løber automatisk. (eksempel her er at løfte et glas -afstandsberegning, kraft i fingrene osv.).
Vi kan også forstå en 3-D form fra et 2-D billede. Det kan de ikke.

Første skridt er at have computerkraften. Den har vi nu, teknisk set, og ifølge Moores lov vil vi kunne købe det på et husholdningsbudget i omkring 2025.

Andet skridt er at gøre den smart. Der er flere strategier:
1) Model af hjernen.
2) Evolution
3) Lade AI'en bygge sig selv

1) Hjerne modellen: Den kan være klare allerede i 2030. Kunstig Neuralt Netværk. Man kæder en masse neuroner sammen (transistorer der er i stand til at få indput og output). Den lærer ved at gætte. Først tilfældigt , men fordi den får at vide når den gætter rigtigt og forkert. Båndet mellem neuroner der gættede rigtigt bliver styrket og forbindelsen mellem neuroner der gætter forkert bliver svækket. Dermed kan den lave bedre og bedre gæt. Denne metoe bliver også kaldt Machine learning.
Langs denne forskningsvej er at lave en komplet 3D model af en hjerne og omsætte det til en computer. Så vil vi have en computer der er i stand til at gøre alt det hjernen kan, den skal bare lære og samle information. Hvis vi bliver rigtigt gode til dette så vil man kunne uploade den komplette hjernestruktur/arkitektur til en computer med personalitet og hukommelse af hjernen den er en model af. 
Det er en måde at vi kan blive uddødelige på.
Lige nu er vi i stand til at lave en model af en hjerne af en fladorm (302 neuroner). Menneskehjernen har 100 milliarder. 

2) Man kan imitere Evolution: Genetiske Algoritmer. Dem der er succesfulde bliver 'parret' med hinanden og dem der fejler slettet. Lidt usikkert om denne strategi vil bære frugt.

3) Vi bygger en computer der kan studere AI og som kan ændre sin egen kode. Således er den i stand til ikke kun at lære om sin egen arkitektur men den kan også forbedre den.
Udsigterne er at det pludselig kan gå meget stærkt når visse (endnu ukendte) indsigter bliver opnået. Det kan sammenlignes med skridtet fra den geocentriske opfattelse af verden til den heliocentriske. Pludselig kunne ting udregnes meget lettere. 

Vejen fra AGI til ASI
- Er kortere end vi tror. En AGI vil lethed kunne overgå menneskets intelligens, den har ikke restriktioner når det kommer til størrelse, hurtighed, udholdenhed og dens software kan hele tiden opgraderes og optimeres. Selv vores styrke i at dele viden vil en global ASI være bedre til end os.

Fordi der ikke er den store forskel mellem et dumt menneske og Einstein i intelligens, så vil vi kun lige nå at se at en AGI er så god som et dummere menneske før end at det hurtigt overtager os.
Det er nu at advarslerne fra Musk og Hawking begynder at give mening. Specielt set i lyset af at vores veje til AI bygger på at computeren kan forbedre sig selv. Hver gang at AI forbedrer sig selv er det hvor den i udgangspunktet er klogere end før og dermed også bedre til at forbedre sig selv.

" It takes decades for the first AI system to reach low-level general intelligence, but it finally happens. A computer is able to understand the world around it as well as a human four-year-old. Suddenly, within an hour of hitting that milestone, the system pumps out the grand theory of physics that unifies general relativity and quantum mechanics, something no human has been able to definitively do. 90 minutes after that, the AI has become an ASI, 170,000 times more intelligent than a human."

Forskere i feltet mener at i 2040 er det mere sandsynligt at vi har en AGI end at vi ikke har. Og så snart vi har det kan vi komme til at have en ASI kort derefter (2060).
WILL IT BE A NICE GOD?

Hvad kan man sådan en intelligens? ALT!

Isaac Asimov's "Three Laws of Robotics"

A robot may not injure a human being or, through inaction, allow a human being to come to harm.
A robot must obey orders given it by human beings except where such orders would conflict with the First Law.
A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

In later fiction where robots had taken responsibility for government of whole planets and human civilizations, Asimov also added a fourth, or zeroth law, to precede the others:

0th A robot may not harm humanity, or, by inaction, allow humanity to come to harm.

The Three Laws, and the zeroth, have pervaded science fiction and are referred to in many books, films, and other media, and have impacted thought on ethics of artificial intelligence as well.

The Turing test

The Turing test, developed by Alan Turing in 1950, is a test of a machine's ability to exhibit intelligent behavior equivalent to, or indistinguishable from, that of a human.
Der er flere versioner, mest kendt er 'The Imitation Game', hvor en computer forsøger at imitere et menneske.
https://en.wikipedia.org/wiki/Turing_test

Empati... 

Hvis man programmerer en computer eller AI til at have empati, medfølelse, compassion, kindness, kan vi så sikre os imod en ASI?
Hvis en ASI kan re-programmere sig selv, så kan den vel slette disse karakterer af sig selv. Det samme gælder Asimovs love.

Forsøg på at forstå hvad en ASI ville være:

What separates our brain from that of a chimp:
Intelligence quality: What makes humans so much more intellectually capable than chimps isn’t a difference in thinking speed—it’s that human brains contain a number of sophisticated cognitive modules that enable things like complex linguistic representations or longterm planning or abstract reasoning, that chimps’ brains do not.

Speeding a Chimp's brain up does not add quality. Speeding a Human's brain up doesn't add quality. 

But it’s not just that a chimp can’t do what we do, it’s that his brain is unable to grasp that those worlds even exist—a chimp can become familiar with what a human is and what a skyscraper is, but he’ll never be able to understand that the skyscraper was built by humans. In his world, anything that huge is part of nature, period, and not only is it beyond him to build a skyscraper, it’s beyond him to realize that anyone can build a skyscraper. That’s the result of a small difference in intelligence quality.

In an intelligence explosion—where the smarter a machine gets, the quicker it’s able to increase its own intelligence, until it begins to soar upwards—a machine might take years to rise from the chimp step to the one above it, but perhaps only hours to jump up a step once it’s on the step two above ours, and by the time it’s ten steps above us, it might be jumping up in four-step leaps every second that goes by. Which is why we need to realize that it’s distinctly possible that very shortly after the big news story about the first machine reaching human-level AGI, we might be facing the reality of coexisting on the Earth with something that is super intelligent.
And since we just established that it’s a hopeless activity to try to understand the power of a machine only two steps above us, let’s very concretely state once and for all that there is no way to know what ASI will do or what the consequences will be for us. Anyone who pretends otherwise doesn’t understand what superintelligence means.

TED talk:
http://www.ted.com/talks/jeremy_howard_the_wonderful_and_terrifying_implications_of_computers_that_can_learn?language=en
Imortality: 
Jeg læser lidt gætværk om hvad der sker når der er en ASI her.
Links:
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html

Singularity!
In 1993, Vernor Vinge wrote a famous essay in which he applied the term to the moment in the future when our technology’s intelligence exceeds our own—a moment for him when life as we know it will be forever changed and normal rules will no longer apply.