En illustreret oversigt over, hvordan vores hjerner (måske) tænker - den fascinerende intuition af den generative forudsigelsesmodel

"Opfattelse er kontrolleret hallucination."
- Andy Clark

I de sidste femten år har der været en voksende aftale fra et overraskende bredt spektrum af det akademiske landskab om emnet, hvordan vores sind fungerer. Teorier om opfattelse fra psykologi, neurovidenskab, filosofi og maskinlæring begynder at blive til noget, der føles mere samlet end nogensinde før og overraskende intuitivt. Den generative forudsigelige model (som den kaldes af Andy Clark) antyder, at vores hjernes primære funktion er at reducere overraskelse ved at udvikle en stadig mere nuanceret verdensmodel. Det forudsætter konstant fremtiden (på flere tidsskalaer), bemærker forkerte forudsigelser og opdaterer dens model for at forklare forskellen væk.

Opfattelse formidler ethvert aspekt af menneskelig oplevelse, og derfor ændres enhver måde, vi forstår opfattelse på, en enorm bredde af implikationer for både den måde, vi ser os selv på som individer, samt hvordan vi forstår menneskelige institutioner. Mit formål her er at gennem visualisering dele denne intuition af denne model i håb om, at andre finder den på samme måde fascinerende.

Som en ansvarsfraskrivelse er meget af nedenstående stadig spekulativ teori. Selvom vi har et voksende bevismateriale fra menneskelig adfærd, og beregningsmodeller har vist sig effektive, er bevis på en generativ model på det neurale niveau illusive. Kun fremtidig forskning vil informere os om, hvor godt denne model stemmer overens med målbar menneskelig hjernefunktion.

Byggesten - neuroner og pigge

Hjernens generative model bygger på dens basale computerenheder - neuronerne - og hierarkiet af forbindelser, de opretter. Vi har været opmærksomme på neurons betydelige rolle i, hvordan hjerner (og hele nervesystemet) fungerer siden 1800-tallet, takket være arbejdet fra Santiago Ramon y Cajal, som undertiden er kendt som fader til moderne neurovidenskab.

De, der ønsker at forstå neuronet for at analysere og forudsige dens funktion, har skabt en række forenklede modeller, der abstraherer en del af eller hele biokemisk dynamik på lavere niveau. Kunstige neurale netværk og deres moderne udvikling, dyb læring (og dyb forstærkningslæring) er en kategori af maskinlæringsteknikker, der har bragt verden til stadigt mere imponerende computational-feats (f.eks. At slå mennesker ved billedgenkendelse, Chess, Go, old-school videospil og Texas Hold-em, blandt andre). Disse netværk er bygget af en meget forenklet neuron, der kun gør noget end at tage en masse input, udføre en vis tilføjelse og multiplikation og videregive dem. I disse tilfælde er det naturligvis strukturen i netværket (måden neuronerne er forbundet med) og algoritmen, som disse netværk lærer, som muliggør avancerede funktioner.

Tre synspunkter på en neuron. Venstre: ægte neuron, calciumafbildning, center: illustration, højre: skematisk.

I virkeligheden fungerer et utroligt komplekst system af biokemiske veje i en given neuron, men det kan være nyttigt at zoome ud lidt og se neuroner som informationsbehandlingsenheder.

Information overføres fra andre neuroner, når spændingspik gennem det store forgreningsnetværk af rødder (dendriter) bevæger sig mod cellelegemet. Hvis den rigtige sammenhæng af disse signaler ankommer til det rigtige tidspunkt, aktiveres cellen, og sendes denne spænding videre med dens akson (den vigtigste udgående kanal, der kan være op til en meter lang for motorneuroner), til dendritterne af andre nedstrøms neuroner.

Formering af handlingspotentiale (spændingspind) ned ad en akson

Neuronens anatomi tillader den nøjagtigt at opdage mønstre, muligvis mange tusinder tydeligt, og overføre deres detektion til alle andre neuroner, den er forbundet med.

Hierarki

Der er gode beviser for, at hvirveldyrshjerne og især neocortex, som senest udviklede sig hos mennesker, er organiseret hierarkisk, hvor de lavere niveauer håndterer rå sensorisk input - data fra vores øjne, ører, næse, hud, muskler osv. - og hver højere region tager input fra output i nedenstående regioner. Der er også bevis for, at hver region, uanset hvilken forstand den modtager information fra, udfører nøjagtigt den samme slags behandling: A) at finde og indkode relevant struktur i dens input, B) opbygge en model for at forklare den set struktur, og C ) ved hjælp af denne model til at forudsige fremtidige begivenheder.

A) Find struktur (mønstergenkendelse)

I nomenklaturen til Hawkins og kolleger i Numenta er det at finde struktur en proces med rumlig pooling. Individuelle neuroner i en region lærer rumlige mønstre for indgående input. For eksempel kan en neuron lære at opdage sammenfaldet af et par tusinde indgående meddelelser fra regionen nedenfor. Det gør det ved at lære foreninger over tid. Der er flere mekanismer, hvormed denne læring finder sted, og de faktiske algoritmer, som vores biologi bruger, er et emne for debat og nuværende forskning, men en grundlæggende form kaldet Hebbian Learning forekommer, når 'neuroner, der skyder sammen, ledes sammen'.

At finde struktur i en hierarkisk lavere region. I dette enkle eksempel tager den fremhævede celle input fra tre neuroner i regionen nedenfor og aktiveres derfor, når der detekteres et mønster, der involverer disse 3 celler. Følgende diagrammer repræsenterer celler og regioner i 2D, som vist til højre.

I ovenstående diagram, hvis neuroner a, b og c konsekvent skyder sammen over tid, vil deres forbindelser til d (i region 2) styrke sig, og som et resultat lærer d at repræsentere eller sammenfatte denne funktion af aktiviteten i R1. Fordi neuronerne i R2 lærer at detektere lignende sammenfald (eller mere komplekse mønstre), der ofte ses i R1, danner R2 en repræsentation eller et resumé af dets input ved hjælp af færre neuroner. I matematik kaldes dette dimensionalitetsreduktion, og det betyder, at regionen effektivt har kodet informationen, der kommer ind.

Fremfør mønsterdetektion. Cellen i det øverste område er indstillet til at aktiveres ved lysstyrke i toppen af ​​billedet og hæmmes af lysstyrke i bunden. Resultat: ultraforenklet detektion af billeder, der er lyse øverst og mørkt på bunden. (Nøgle - grønt: aktiv excitatorisk neuron, rød: aktiv inhiberende neuron, grå / hvid: inaktiv, ringe: rumlig kilde eller 'receptivt felt' for hver celle, hver ring overfører lysstyrken fra den del af billedet til cellen derover) )

Illustrationen ovenfor viser, hvordan disse fremadgående forbindelser kan give en højere region mulighed for at "opsummere" den rå aktivitet nedenfor i en mere abstrakt repræsentation. Som et direkte resultat af denne abstraktion ændrer disse repræsentationer sig mindre ofte over tid, og kaldes som sådan invariante repræsentationer. Med ordene fra Hawkins:

”Hver region i cortex lærer sekvenser, udvikler det, jeg kalder 'navne' for de sekvenser, den kender, og videregiver disse navn til det næste område højere i det kortikale hierarki ... Dette 'navn' er en gruppe celler, hvis kollektive affyring repræsenterer sæt af objekter i sekvensen ... Ved at kollapse forudsigelige sekvenser i 'navngivne objekter' i hver region i vores hierarki opnår vi mere og mere stabilitet, jo højere vi går. Dette skaber uoverensstemmende repræsentationer. ”
- Hawkins, On Intelligence

For at illustrere dette, kan du forestille dig, at vi scanner en scene, og vores øjne sakkade (flyttes hurtigt fra et punkt til et andet) mellem små stykker af scenen. Forestil dig, at vores scene indeholder en hund og et træ, hver med et antal af sine egne træk.

Fremadgående invariant repræsentation.

På illustrationen til venstre har vi celler, der har lært at repræsentere 'hund' sensoriske input (fremhævet orange), og dem, der har lært funktionerne i 'træ' (fremhævet grønt). Den øverste region i hierarkiet forbliver aktiv, mens nogen af ​​dens indlærte input er aktive. Her skifter inputobjektet (tinget efter vores opfattelse) mellem træ og hund, og i løbet af hvert bliver kodninger (bundlag) af dens funktioner tilfældigt itereret (f.eks. Når observatøren scanner objektet).

Ligesom neurovidenskabsmænd identificerede en 'Bill Clinton' neuron i sindet af undersøgelsesdeltagerne (hvilket er fascinerende i sig selv), aktiveres den øverste højre neuron på denne illustration, når vores netværk udsættes for en hund.

B) Modellering og forudsigelse

Detektering af mønstre og struktur i regionen nedenfor er et vigtigt trin i modelopbygning, men at opbygge en model, der udelukkende er baseret på nuværende sensoriske input, ville være at ignorere alle cues i den nuværende kontekst og den historie, der førte til det nuværende øjeblik. Derfor er de faktiske hjerneområder dybt tilbagevendende - de tager input ikke kun nedenfra, men får også omfattende feedback fra regioner ovenfor såvel som laterale input fra andre celler i samme region.

Vores hjerner er godt tilpasset til evigt støjende og ufuldstændig information, og som et resultat ekstrapolerer vi og interpolerer vi tip fra vores sanser til komplette billeder (modeller) af vores miljø. Når man går tilbage til det forrige eksempel, hvis en højere region har opbygget en model for sit miljø, der inkluderer 'hund', gør det sandsynligvis to ting:

  1. Det forspænder andre celler i den samme region (og dermed på et lignende niveau af abstraktion) via historiske foreninger, der har lært sandsynlige forbindelser til 'hund'. Måske var vi også i en park i 30% af de nylige situationer, hvor vi oplevede hund. Disse forudindtagelser kan muligvis primere bestemte netværk af celler i regionen (lærte mønstre som 'frisbee', 'græs', 'picnic-tæppe') for at være mere tilbøjelige til at aktivere.
  2. Denne gruppe af tilknyttede mønstre i en region overfører kontekstuel feedback, i form af forudsigelser eller forventninger, til lavere regioner. Hvis dette hjerneområde kunne tale, kan det sige: ”Jeg opfatter en hund, så lavere auditive region, du kan opleve en bark, og et lavere synligt område, kan du se en hale eller en krave”.

Fra Clark i Surfing Usikkerhed: “… naturligt venter intelligente systemer ikke passivt på sensorisk stimulering. I stedet er de konstant aktive og forsøger at forudsige (og aktivt fremkalde…) strømmerne af sensorisk stimulering, inden de ankommer. Inden et "input" ankommer til scenen, er disse proaktive kognitive systemer allerede travlt med at forudsige dets mest sandsynlige form. ”

Information som fejl

Clark byder på en række overbevisende argumenter, der forklarer, at informationen, der rejser op gennem hierarkiet, muligvis kan kodes mere effektivt som overraskelse - afvigelser fra forventning - snarere end ren positiv information. Forskellige former for denne forudsigelsesfejlmekanisme har fået trækkraft, og især gik Brain Prize 2017 til tre forskere, der fokuserede på blandt andet at demonstrere dopamins rolle i formidlingen af ​​forudsigelsesfejl.

Forudsigelsesfejl (afvigelse fra cirklens forventede position) vises med rødt. Vores forenklede model lærer at forudsige lineær bevægelse, men er 'overrasket' over hver afvisning, hvilket resulterer i en stigning i forudsigelsesfejl, som udløser et forsøg på at revidere vores model.

Praktisk set matcher dette paradigme intuition om, hvordan man kan designe et instrument som hjernen til effektivt at kode en verden i forandring. Da verdens tilstand har en tendens til at ændre sig jævnt (og sjældent pludseligt), ligner meget af vores opfattelse på ethvert givet tidspunkt på det, vi oplevede (så, hørte, følte) i det forrige øjeblik. Denne tilgang er stærkt udnyttet i videostreamingsoftware. Forestil dig de data, der kræves for din favorit-streamingtjeneste, for at vise et par billeder af en hauk, der flyver gennem en blå himmel. I stedet for at overføre farven på hver pixel på din skærm (for det meste blå, stadig for det meste blå, stadig for det meste blå), mange gange pr. Sekund, overfører den kun ændringerne fra den forrige ramme (måske en håndfuld pixels bliver brun og sort foran) af hauk og blå bagpå).

For at se den komplette teori på arbejdet i et eksempel, forestil dig, at hver region i vores hjerne til enhver tid findes i en kontinuerlig løkke:

Som vi har set, i modsætning til videotjenester, som ved meget lidt om betydningen af ​​det, de viser, udnytter hver region i vores hjerne sin model for verdens dynamik til at forudsige den indkommende strøm af information. Når vi ser en hauk krydse himlen, fortæller vores model os, at dette er et objekt foran en fjern baggrund, der bevæger sig til højre. Hvert niveau af hierarki har allerede sine forudsigelser for nøjagtigt, hvad det vil 'se' næste, og derfor, for at forblive synkroniseret med verden, er alt, hvad vi skal gøre, at justere vores modeller baseret på fejlen mellem vores top-down og laterale forudsigelser og den opadgående strøm af sensoriske input: det er vores overraskelse.

Konsekvenser

Når vi zoomer ud fra alt dette, kan vi se, at vores hjerner i bund og grund er forudsigelsesmaskiner, der bestræber sig på at minimere overraskelse ved at genkende mønstre og knytte dem til andre mønstre. Da de oplysninger, vi modtager, er støjende og ofte ekstremt ufuldstændige, har vi tilpasset os til aggressivt at udfylde huller eller generalisere ud fra et lille sæt opfattelser. Vi har ikke altid succes, men generelt er vi chokerende gode til disse opgaver. Vi forudsiger konstant, hvad der er ved at ske, og fordi vores forudsigelser aldrig er helt rigtige, opdaterer vi løbende en stadig skiftende model for vores stadigt skiftende miljø.

De fleste, hvis ikke, alle vores kognitive partier flyder naturligt fra denne forståelse af opfattelse. Mange sådanne partier er ikke svagheder eller svigt ved systemudviklingen, der har udviklet os til at forstå verden, men forekomster af dårlig tilpasning til den moderne kontekst.

En anden overraskende implikation er en intuitiv omformering af et for nylig populært argument - at vi aldrig oplever rå virkelighed. Det, vi betragter som opfattelse, er en 'kontrolleret hallucination' til at låne Clarks ord, som vores hjerner har designet til at være nøjagtigt så enkle og nyttige for os som muligt.

Begivenheder, der er forudsagt, falder til sidst fra vores bevidste oplevelse, når de ikke længere er nyttige - vi kalder denne beboelse. Igen er vores oplevelse af verden i sig selv de nedadstrømmende forudsigelser og feedback genereret i vores model. Tænk på den velkendte oplevelse af at forberede dig på at røre ved en statisk y-dørhåndtag (du 'føler' den frygtede gnist godt, inden din hånd kommer i kontakt med metal). Vores hjernes model integreres og forudsiger på tværs af alle vores sanser, hvorfor vi kan lukke øjnene og fortsætte med at gå en overraskende lang afstand uden at snuble (vores vejmodel er god nok i et stykke tid).

Uanset om AI-profeterne har ret, lever vi helt sikkert i en simulering - en der udviklede sig over et par hundrede millioner år, og som hver af os har løbende opdateret siden vi blev født.

Hvis du kunne lide dette, skal du klikke på ♥, så andre kan læse om det på Medium

Ting at læse om dette og lignende modeller for opfattelse

  • Surfing Usikkerhed, Andy Clark (2015).
  • On Intelligence, Jeff Hawkins (2005). Introduktion til den tidlige tænkning af en model, der nu kaldes Hierarkisk Temporal Memory.
  • Bevidsthed forklaret, Daniel Dennett (1992). Dennett introducerer sin flere udkastsmodel, som er fuld af paralleller med ovenstående teorier.

Andre ressourcer

  • UTHealths neurovidenskabelige forelæsninger er alle online og gratis.
  • Computational Neuroscience (Coursera & University of Washington).
  • HTM School, Numenta's serie om indlæring af NuPIC, en open source-implementering af Hierarkisk Temporal Memory.