Hjärnan - ett neuralt nätverk
Ju mer människan forskar i hjärnan desto mindre vet hon procentuellt om dess egenskaper. När jag tog mina examina kände vi till vad 40% var till för, nu när min son tar sin examen känner vi bara till vad 20% är till för.David Ingvar (i Fråga Lund för länge sedan)
(Denna undersida ingår i avsnitt Hjärnans plasticitet, som i sin tur ingår som en del i temaavsnittet H sapiens - info-behandling, som infördes 2019-03. Länkar är kontrollerade 2019-05 eller senare. Fotnoter finns längst ner på sidan.)
Denna sida, införd 2019-03, behandlar kort följande områden:
Neuroner och synapser
wiki/hjärna (2019-02):
Två huvudgrupper av celler: nervceller (neuroner) c:a 100 miljarder st och gliaceller (glia), också c:a 100 miljarder (eller mer?), som understödjer nervcellerna och som - enl. ([Nilsonne2016], s 41) - nyligen visats ha en aktiv roll för minnesfunktioner. Varje nervcell har kontakt med mellan c:a 1000 och 10000 andra nervceller via synapser (not 1). Via dessa överförs alltså signaler mellan nervcellerna. Nervceller innehåller cellkropp (grå), axon (vita, ofta långa) och dendriter (korta). Cellkroppen innehåller ungefär samma saker som de flesta kroppsceller. En synaps består av nervända på axon från sändande neuron, postsynaptiska membranet på dendritgren (till mottagande neuron) och ett litet mellanrum, synapsklyftan. Här överförs info från en nervcell till nästa med hj av neurotransmittorer (signalsubstanser), som tas emot av receptorer i membranet. Synapsen har förmåga att förstärka eller dämpa signalen.
Signaler skickas i axonerna i form av elektriska nervimpulser, c:a 0.1 volt; vardera c:a 1 ms, med en hastighet av c:a 480 km/h. I synapsen sker kemisk signalöverföring från axon till dendrit. Stödjeceller (gliaceller) sköter underhållet av neuronernas miljö. Signalsubstanser stimulerar eller hämmar aktiviteten. Det finns mängder av olika signalsubstanser och ännu fler receptorer, s 18+. Varför? Vi vet inte så mycket men vissa signalsubstanser har andra funktioner än att bara stimulera eller hämma signalering. Kopplat till förändrad situation i omgivningen kan signaler skickas till neuronens kärna så att nödvändiga gener slås på. Generna ser till att lämpliga proteiner skickas till synapsen så att dess styrka blir varaktigt förändrad.
Olika delar av hjärnan anses specialiserade på olika funktioner (se dock Jörntell 2019-04 nedan!). Dock ligger en funktion alls inte i sin helhet i en viss hjärndel. En hjärndel kan snarare vara nav i ett komplicerat nätverk där en stor del av hjärnan är involverad.
Ex 1. Tar man bort amygdala så försvinner funktionen att känna rädsla. Men för att vi ska kunna känna rädsla behövs förutom amygdala också amygdalas nätverk och kontakt med andra hjärndelar.
Vid en EEC-undersökning tros den mätbara elektriska aktiviteten bero på synkroniserad aktivitet hos många hjärnceller. Man kan registrera aktivitet med olika frekvenser: 10 Hz (alfavågor, under vaken vila med slutna ögon), 1-4 HZ (deltavågor), 4-8 Hz (thetavågor), 12-2Hz (betavågor i motoriska regioner), 25-70Hz (gammavågor, vid koppling mellan flera sinnesintryck som bildar komplex helhet). Not 1.5.
[O’Shea2005].
Förutom "klassiska" kemiska synapser (enkelriktade) så finns elektriska synapser (dubbelriktade, jämför med lödpunkter). Dessa är snabba, bra vid flyktresponser men har ingen förstärkningsfunktion. Ett ytterligare kommunikationssätt är att använda fritt diffunderande meddelandemolekyler (transmittorgaser) (not 2), t ex kväveoxid, s 49. Dessa kan kommunicera med många neuroner i ett område och motsvarar då ungefär broadcastsignaler i datornätverk. För att bättre förstå hjärnans funktioner måste man känna till både det synaptiska kopplingsschemat och denna broadcastsignalering med substanser som rör sig mer fritt i hjärnan.
Minne, s 107+, verkar vara relaterat till modifiering (korttidsminne) resp syntes (långtidsminne) av proteiner.
____________________________
Jämförelser dator - hjärna
Referenser: [GU2008a], [GU2008b]
Det ligger nära till hands att försöka se likheter mellan dator och hjärna (se t ex avsnittet Psykiska variationer, not 16 Analogi dator - hjärna). Och sådana finns men nedan framgår att det dock också finns enorma skillnader mellan en klassisk dator och en hjärna.
Hjärnan hanterar osäker omgivning med oprecisa indata
Mänskliga hjärnan är kanske det mest komplexa objektet i universum. Den är överlägsen en traditionell dator på t ex att hitta och separera mönster (associationer, korrelation) bland stora mängder data och programmerar sig själv från insignaler (från omgivningen) (not 3). Aritmetik och logik är den traditionella datorn bättre på.
Ex 2: Hjärnan har mycket lätt för att skilja på en baby och en hundvalp. Denna uppgift klarar en klassisk dator ev. av med ansträngning via avancerat program men inte på ett “naturligt” sätt. En dator däremot har mycket lättare för att räkna ut roten ur 4893.
Ex 3: En tränad hjärna (läkare) kan skilja friska lungor från sjuka m hj av röntgenbilder. Läkaren är då tränad m hj av exempel snarare än m hj av en inpluggad kriterielista.
Miljoner år av utveckling har i hjärnan lett till en sofistikerad beräkningsmodell, som kan tränas för och hantera en osäker omgivning (med komplicerade och oprecisa data). Modellen är alltså bra för överlevnaden. Den skiljer sig avsevärt från den klassiska datorn som varit standard från 1940-talet (von Neumann-datorn med styrenhet, aritmetikenhet, separata minnesenheter, seriellt exekverade instruktioner som adresserar och hämtar data från minne etc).
Beräkningskapacitet för sensomotoriska funktioner
Sensoriska och motoriska funktioner kräver mer beräkningskapacitet än abstrakt tänkande
AI- och robotforskare har upptäckt något som kan tyckas paradoxalt, se Moravecs paradox. Moravec säger:
"it is comparatively easy to make computers exhibit adult level performance on intelligence tests or playing checkers, and difficult or impossible to give them the skills of a one-year-old when it comes to perception and mobility"
Sensoriska och motoriska färdigheter som upplevs enkla är alltså inte enkla att implementera effektivt. Att gå och hämta en kopp kaffe i köket och gå tillbaka till TV-soffan brukar kännas ganska enkelt. Men de flesta moment - helt omedvetna - kräver en enorm beräkningskapacitet. Att det känns enkelt beror på att evolutionen under storleksordningen någon miljon år lyckats få fram specialiserat neuronnätverk för dessa uppgifter (jämför ASIC i elektronikvärlden). Abstrakt tänkande - å andra sidan - är inte så svårt egentligen, d.v.s. kräver inte så hög beräkningskapacitet. En dator kan lätt klara multiplikation, logiska operationer etc. Men att tänka abstrakt är ju ett nytt trick, som evolutionen bara filat på i storleksordningen 100 000 år, så det är svårt och går långsamt för vår hjärna.
Kort jämförelse klassisk dator - hjärna
Klassisk dator (baserad på kisel):
grundelement: kiseltransistor (antal: varierande)
seriell processering styrd av separat styrenhet
digital information och signalering
behöver precist formaterade data
minne nås väsentligen via adresser (varje minnescell har egen adress)
programmering: programvara utvecklas av människa (programmerare) och laddas in i en dators minne. Den är oförändrad fram till nästa programversion. En programversion kan snabbt kopieras till godtyckligt antal (likadana) datorer.
feltolerans: kan byggas in med olika ambitionsnivåer
Hjärna (baserad på biologi):
grundelement: neuron (antal c:a 10^11, vardera med c:a 10^4 kopplingar med andra neuroner)
massivt parallell processering utan någon separat styrenhet
associativt minne; d.v.s. visst minnesinnehåll nås via annat liknande eller relaterat minnesinnehåll (mönstermatchning)
rekonsoliderande minne: man plockar fram - erinrar sig - ett minne, det omtolkas vid behov, och det återlagras och ligger då annorlunda i neuronnätet än tidigare
signaleringen (impulsöverföringen) är - starkt förenklat - digital (allt eller intet) i kopplingen mellan nervceller. Nervsystemet använder sig dock troligen av frekvenskodning, varför signalen ut från en neuron - på lite högre abstraktionsnivå, kan betraktas som analog. Källa: [GU2008b] (OH om aktionspotential och impulsöverföring). Se också wiki/neural coding (stycket om rate coding).
klarar att tolka (till viss gräns) tvetydiga, osäkra data.
programmering: ständigt pågående programvaruändringar p gr av automatisk självinlärning från miljö. Programvaran” (psyket) kan inte kopieras. Alla hjärnor startar i primitivt tillstånd och programmeras långsamt var för sig.
hög naturligt inbyggd feltolerans med mjuk degradering och ofta återinlärningsmöjligheter
hjärnan (och övriga kroppen) måste regelbundet gå från vakenhet in i ett tillstånd som kallas sömn för återhämtning och reparation. Sömnen är helt nödvändig för att hjärnan ska kunna fungera adekvat (se not 4). Den regleras väsentligen av tre parametrar: vakenhetens längd, dygnsrytmen (biologisk klocka) och stressnivå.
Vitala olikheter digital maskin - levande organism
Nedanstående, som kanske ger en antydan om varför det kan vara svårt att konstruera en dator med hjärnans beräkningseffektivitet, är hämtat från [Karlqvist1999], s 185+, avsnitt Hjärnan och datorn (ev. vet man lite mer nu efter 20 år?).
Vi vill gärna efterlikna hjärnans effektivitet map självorganisation, inlärning, förmågan att känna igen mönster och göra många beräkningar simultant. En vanlig hypotes är att varje process i naturen kan simuleras med symboliska beräkningar och att fysisk realisering är irrelevant. Men en biomolekylär process är taktil snarare än logisk. Dess mönsterpassningar kännetecknas av rörelse och nyckel-låsmekanismer (inkl. s.k. van der Waals-krafter), vilket är väldigt annorlunda jämfört med datorns symboliska beräkningar. Datorn har betydligt lägre beräkningseffektivitet och sämre anpassnings- och interaktionsförmåga. Graden av beräkningsförmåga sätts ytterst av antalet möjliga interaktioner mellan olika delar. I biologiska system (“våtvara”) är förmågan väl utnyttjad via hög grad av interaktion bland tredimensionella organiska molekyler - aminosyror i veckade proteiner. Simuleringar i dator är begränsade av programmerarens antaganden, medan biologiska system innehåller en enorm rikedom - antalet tänkbara typer av proteiner är ofattbart stort (det finns 20 typer av aminosyror; proteiner kan typiskt bestå av 300 aminosyror; antal proteintyper alltså <= 20300!).
Nya rön från LU: Avkodning i hela neocortex
Henrik Jörntell, 2019-04-29: Ny syn på hur hjärnan fungerar
Nya intressanta forskningsresultat från neurofysiologen Henrik Jörntell i Lund (se 4 min video) torde leda till delvis omprövning av tidigare tankar om specialisering i hjärnan. I princip hela neocortex verkar vara involverad i alla omvärldsupplevelser registrerade av våra olika sinnen (“ubiquitous neocortical decoding”). Varje nervcell är inblandad i olika funktioner. Det nya synsättet kan bättre förklara varför små hjärnskador kan passera obemärkt. Det förklarar också varför s.k. synestesi (intersinnessamverkan) kan ses som ett grundläggande, naturligt och begripligt arbetssätt hos hjärnan. Hjärnan strävar ju efter en helhetsbild. Men denna ska också vara användbar och effektiv. Hon försöker oftast efter hand därför mer eller mindre generalisera och kategorisera och ta bort onödiga detaljer (“brus”), varför de flesta av oss kanske inte har märkbar synestesi. Men visst är det mer än smaksinnet som har betydelse när vi tycker något smakar bra: lukt, synintryck, konsistens …?
Hjärnans programvara & arkitektur
(Infört 2023-01) Intressanta gissningar från RISE (Research Institutes of Sweden)
Martin Nilsson (*), 2022-09?: Om hjärnan vore en dator …
Hjärnan kan enl. Martin Nilsson kort sägas innehålla en dator "av senaste NMC-modell (“Near-memory computing”) med symmetrisk dubbelprocessor".
Martin Nilsson reflekterar över det faktum att stora resurser läggs på att förstå hjärnans “maskinvara”, d.v.s. på hjärnans neuroner och hur de är kopplade till varandra (connectomics), men att satsningar på att utgående från “maskinkod” förstå programvaran (disassemblera, dekompilera) är försumbara. Jämför med en mobiltelefon där vi brukar vara mer intresserade av programvaran (apparna) än maskinvaran! Att vi idag inte förstår hur hjärnan fungerar kan vi inte så mycket skylla på bristande “maskinvaru”-kunskap utan på vår bristande kunskap om representation, programvara och algoritmer.
Utgående från vad man allmänt vet om hjärnan och om datorer idag, så gör Martin Nilsson ett mycket intressant försök att gissa om hjärnans arkitektur och programvara. Han mappar hjärnans viktigare delar på motsvarigheter i en dator och spekulerar kring intern kommunikation, klockfrekvens (motsvarande fördröjning i huvudslinga cortex - thalamus), datarepresentation (extremt breda instruktioner i hjärnan), adresseringsprinciper (associativ adressering; troligen ej stack;), primitiver (t ex troligen bra anpassning till linjär algebra), gestaltning (hjärnan gissar och bygger upp en hel scen m hj av några få antydningar; hålen i vår perception fylls; gles representation).
(*) Martin Nilsson (privat hemsida här) är en matematisk fysiker som ofta arbetar multidisciplinärt. Han publicerade 2021 tillsammans med neurofysiologen Henrik Jörntell en artikel (ej läst) om en ny mekanistisk, d.v.s. förklarande, modell av signaleringen mellan biologiska neuroner.
Se också detta mycket intressanta föredrag :
Martin Nilsson, RISE SICS Software Week (2019): Beyond Deep Learning - What can biology teach us? (video 29 min)
Har du ont om tid så kolla gärna i alla fall förslaget till mappning mellan några av hjärnans viktigare delar och ett datalogiskt blockschema, stegvis och pedagogiskt illustrerat, min 10:24 - 14:59.
______________________________
Artificiella neurala nätverk
ANN:s struktur
(Se gärna [GU2008a] och [GU2008b] (Gtbgs universitet 2008), som ger bättre introduktion)
I artificiella neurala nätverk, ANN, har man försökt - förmodligen relativt sett mycket primitivt - imitera vad man anser sig veta om den biologiska förebilden, d.v.s. biologiska neurala nätverk, BNN. Syfte är att modellera och simulera BNN för att förstå mer om hjärnan men också för att med s.k. djupinlärning lösa tekniska problem, som är svåra klara av med konventionella datalogiska metoder. Man försöker alltså (framgångsrikt!) lära sig av naturen.
Nätverket i ANN består av ett antal noder (motsvarar neuroner) Xi som har förbindelse med varandra (motsvarar synapser). Varje nods utgång har en viss aktivitetsnivå xi (motsvarar elektrisk signal i neurons axon). Förbindelsens signalstyrka påverkas av en viss vikt wij (vilket motsvarar att synapsen kan dämpa eller förstärka utsignalen till nästa neuron).
Fig 1. Enkelt neuralt nät i två lager med signalriktning från övre till undre lager.
Signaler som går genom en förbindelse multipliceras alltså med dess vikt. De noder som tar emot signaler från omgivningen kallas inputnoder (kan motsvara sensoriska neuroner). För typiska ANN summerar noden sina insignaler. Summan transformerar m hj av en aktiveringsfunktion till en aktivitet (utsignal), som går till nästa nod (eller till omgivning om motorneuron). Se figur 2.
Fig 2. Nod, dvs modell av neuron, där
Summerad insignal: x_in4 = Summa (xi * wi4) och
Output = aktivitet för nod X4: x4 = f( x_in4), där f kallas aktiveringsfunktionen.
Nätets egenskaper beror till stor del på aktiveringsfunktionen. En stegfunktion (tröskelfunktion) där utsignal blir antingen 0 eller 1, antages typiskt modellera enstaka signal i ett neuron. S.k. sigmoida (S-formade) funktioner (jämför dos-responssamband) kan vara modell för signalfrekvensens olinjära inputberoende i ett neuron.
En av de mest remarkabla egenskaperna hos både BNN och ANN är att de programmeras genom att tränas. ANN kan tränas genom att det matas med kända indata och känt facit (kända utdata) . Programmeringen antages väsentligen bygga på att vikterna för förbindelserna justeras (i biologiska system justeras synapsernas styrkor). Om beräkningar skiljer sig från känt svar så justeras signalvikter iterativt tills beräkningarna konvergerar mot facit.
Självlärande system matas med data utan facit. I stället justeras vikterna beroende på om användaren t ex gillar resultatet eller ej (hos människan om hen känner välbehag eller obehag eller så kollar hen omgivningens reaktion etc). Om det gäller ANN i reglertekniktillämpning kan det handla om att sträva mot ett börvärde.
Ex 4. En mus får springa i en labyrint. Om den går in till vänster belönas den med en ostbit - om den går åt höger uteblir ostbiten (vid mer otrevliga experiment får musen en liten elstöt). Musen kommer i fortsättningen att välja att gå till vänster. Anm. Om belöning eller straff kommer slumpmässigt blir det omöjligt för nätverket att konvergera till ett beslut och musen blir förvirrad och stressad.
Mekanismerna för hur vikterna förändras i självlärande system (inlärningsalgoritmerna) är förstås av stort intresse. För ANN har man föreslagit diverse varianter som förändrar vikterna på olika sätt. En variant som troligen har likheter med biologiska mekanismer är den s.k. Hebb-regeln ([GU2008b]/Inlärningsregler), där vikten för en förbindelse ändras i proportion till produkten av aktiviteterna hos sändande nod och mottagande nod. Med beteckningar i figur 2 ovan: delta wij = k * xi * xj.
Figur 1 ovan visade ett mycket liten neuralt nätverk. Verkliga nätet i hjärnan är svindlande stort och strukturen (nätverksarkitekturen) kan se ut på olika sätt. Det kan finnas flera lager (input-lager, output-lager och lager däremellan) och typiskt i hjärnan är att signaler är återkopplade, dvs en utsignal kan riktas tillbaka till annan nod i samma lager eller till tidigare lager (feedback-arkitektur). Antagligen kan olika viktningar i ett sådant återkopplat nätverk leda till varierande dynamik, t ex att output stabiliseras till vissa värden eller att output oscillerar (varierar i tiden) mellan olika värden etc.
Ett exempel på struktur är det s.k Hopfieldnätverket ([GU2008b]/Hopfieldnätet). Alla neuroners utgång där är återkopplade till allas ingångar förutom sig självt. Varje neuron har bara ett binärt tillstånd. Kan ses som starkt förenklad modell av hjärnans minne. Kan återskapa störda indata till ett mönster nätet känner igen.
Djupinlärning.
Hjärninspirerad inlärningsprogramvara i artificiella nätverk med många neuronlager (d.v.s. djupa nät) kallar man deep machine learning; på svenska djupinlärning. Sådan har på senare år använts mycket framgångsrikt för bl. a. språk- och bildbehandling. Se [Tegmark2017], s 92+. Genom att konstruera ett i princip ganska enkelt nätverk - men med många lager - och sedan låta det självt lära sig med hjälp av enorma mängder data, så kan det utföra förbluffande avancerade uppgifter. Klassisk programvaruprinciper kan (för mindre avancerade uppgifter) kräva ett omfattande och träligt manuellt programmeringsarbete men man förstår (i princip) vad som görs och hur det görs. Informationsbehandlingen i det djupa nätverket går inte att förstå på samma sätt. Det är närmast en svart låda som kan visa oss vad den lärt sig men inte hur. I vissa tillämpningar kan det förstås vara problematiskt att denna svarta låda inte kan förklara varför vi ska tro på resultaten (not 5).
_________________________________________
Vidare till nästa undersida i avsnitt om hjärnans plasticitet, Anpassning till miljön, eller tillbaka till startsidan för hela temaområdet, H sapiens - informationsbehandling.
____________________________________________
Not 1. Med synapser avser vi här normalt kemiska enkelriktade synapser (det lär finns ett antal andra sorter).Not 1.5. Mitt försök just nu att förstå dessa neuronavfyrningsfrekvenser är att anta att neuronerna är organiserade i återkopplade nät där fördröjningstiden i återkopplingen gör den positiv för - dvs förstärker - den specifika frekvensen.Not 2. Ett liknande kommunikationssätt verkar vara endokrin (hormonbaserad) signalering.Not 3. Naturligtvis är människans hjärna dock inte ett helt “oskrivet blad” från födseln (en ide som tillskrivits filosofen John Locke, som levde på 1600-talet och som Pinker argumenterade mot i [Pinker2002]). Hon har redan före födseln givetvis ett stort antal fungerande hjärnfunktioner och dessutom har hon en initial personlighet, som vidarutvecklas med hjälp av interaktion mellan gener och miljö.
Not 4. Biologisk aktivitet orsakar - inte minst i den energislukande hjärnan - avfallsprodukter. Hjärnan har ganska nyligen visats ha ett renhållningssystem (se dansk forskare fick svenskt pris 2018), som påminner om vårt lymfatiska system och som fungerar effektivt när vi sover; se också F&F20161102. Långsiktigt giftiga proteiner (t ex amyloidprotein som ansamlas i hjärnan vid Alzheimer) rensas bort under sömnen.Ex (anekdotiskt!): Ronald Reagan och Margaret Thatcher sov 4 timmar/dygn, vilket man ju tyckte var fantastiskt. Båda fick Alzheimer.Senare tids forskning har dessutom visat att god sömn stödjer en lång rad hjärnfunktioner genom att nybilda, förstärka, försvaga kopplingar i neurala nätverket: inlärningsförmåga, minnesförmåga, kreativitet, kalibrering av vår känslohjärna. Se Minne och inlärning, avsnitt om sömnens betydelse.
Not 5. Djupinlärning hittar alltså mönster och samvariationer i en stor mängd observationer (uppmätta fakta). Jämför filosofiska inriktningen positivism, som också går ut på att man får sin kunskap med hjälp av observationer, d.v.s. med hjälp av erfarenheter och iakttagelser (empiri). Visst behövs observationer men de räcker inte om vi på djupet ska begripa världen. Vi behöver också adekvata modeller där orsakssamband framgår (kunskap om samvariationer räcker inte).