1. Konnektionism – grunderna Enkla beräkningsenheter Sammankopplade Enkla signaler Olika lager: indata, gömda, utdata Nettovärde = viktad summa + “bias” Aktiveringsfunktion 2. Nätverk och vektorer Gömda lager Linjär separation Nätverk beskriver vektoraritmetik... 3. Inlärning Funktionen bestäms av: hur enheterna kopplas samman; vad/hur in- och utdata representerar; vikter och “bias” Inlärning genom justering av vikter Back-propagation jämför aktuellt och önskat resultat 4. Konnektionismens fördelar I Länk mellan kognitiv psykologi och neurologi Neural plausibilitet uppbyggnad (neuroner) parallellism (100-regeln...) inlärning via viktförändring (synapser) “Graceful degradation” 5. Konnektionismens fördelar II Litet antal enkla mekanismer Lätt att simulera/testa Enhetlig modell för inlärning/erfarenhet Möjliggör mönsterigenkänning “Mjuka” begrepp... Alltid en bästa lösning 6. Modell för kognitiv arkitektur Lägre beskrivningsnivå “Implementationsperspektivet”, eller... En ny teori... 7. “Implementation” Klassisk arkitektur = programspråk Konnektionism = logiska kretsar Konnektionism konkurrent bara om klassiska modeller inte går att implementera... (annars komplement) Skillnad: implementation lämnas (mer) öppen i klassiska modeller 8.Alternativ teori Klassisism: strukturerade representationer struktur-känslighet (formalism) kompositionalitet Konnektionism ingen explicit symbolism/kodning möjliggör “graceful degradation”, “mjuka” begrepp, anpassning m.m. 9. Alternativ teori II Men vissa mentala processer (tänkande) verkar bestämt vara symboliska? Symbolism kanske är ett epi-fenomen! Men resonerande? Svårt att förklara utan strukturer/symbolism... 10. Koncept & kategorier Scheman: filtrerar bort oväsentlig information fokuserar på väsentlig information underlättar behandling av information ger upphov till slutsatser och förutsägelser kan leda till fel 11. Konkreta objekt Definitioner Nödvändiga villkor Tillräckliga villkor Men vi verkar inte alltid veta detta... Probabilistiska förklaringsmodeller familjelikhet prototyper 12.Semantiska nätverk “Priming” och kontext aktivationsspridning Hur byggs de upp? Exempel lagras inte – schemat förändras Allt lagras och jämförs vid behov