Umeå Universitet
Institutionen för datavetenskap
AI med inriktning mot kognition och design, ht 03
Kursansvarig: Jan Erik Moström
Handledare: Christina Olsén
Laboration 2: Making Simple Decisions
The Value of Information
2003-10-27
Andra inlämningen
Sofia Carlander, dit01scr
Karin Fossum, dit01kfm
Sofia Carlander
Karin Fossum
Artificiell Intelligens
Laboration 2
2017-07-15
Sammanfattning
Ett beslut måste byggas på vissa grunder. Information om situationen
måste finnas eller införskaffas för att ett beslut om handling ska kunna
göras. I Russel och Norvig, 2003, presenteras teorin om The Value of
Information där information anses ha olika värden i ett beslutstagande.
Informationen värderas utifrån vissa kriterier som t.ex. hur pass nyttig
handlingen den leder till är. I artificiell intelligens (AI) sammanhang
talas ofta om Value of Perfect Information som är ett mått för att
avgöra hur stor skillnad den mottagna informations-mängden medför.
För att ett beslut ska kunna tas finns en algoritm kallad Myopic till
hjälp. Den behandlar beslut som inte är för komplicerade och tar
endast hänsyn till en enda variabel. Beslutet blir därför väldigt naivt
och kortsiktigt.
1
Sofia Carlander
Karin Fossum
Artificiell Intelligens
Laboration 2
2017-07-15
Innehållsförteckning
1. Introduktion ............................................................................................................................ 3
2. Syfte ....................................................................................................................................... 3
3. Metod ..................................................................................................................................... 3
4. Resultat ................................................................................................................................... 4
4.1 Ett enkelt exempel ........................................................................................................ 4
4.2 Beräkning av informationens värde ............................................................................. 5
4.3 Implementering ............................................................................................................ 6
5. Diskussion .............................................................................................................................. 7
6. Slutsats ................................................................................................................................... 8
7. Egna reflektioner .................................................................................................................... 8
8. Referenser............................................................................................................................... 9
2
Sofia Carlander
Karin Fossum
Artificiell Intelligens
Laboration 2
2017-07-15
1. Introduktion
Bakom varje handling ligger ett beslut. Detta beslut är ibland enkelt att ta och ibland svårt. Ju
fler intryck som tillåts tas in från omgivningen desto svårare blir beslutet att fatta, eftersom
det är mer information att ta hänsyn till. Informationen kan ha olika värden och kosta olika
mycket, antingen energimässigt, tidsmässigt eller ekonomiskt. Den här rapporten handlar om
vad information är värd i ett enkelt beslutstagande. Informationens värde är viktig att tänka på
vid implementation av en artificiell agent. Rapporten tar även upp hur värderingen av
information går till.
Rapporten behandlar avsnitt 16.6 i Russell och Norvigs bok Artificial Intelligence, A Modern
Approach, 2003, som hanterar ämnet Simple Decision Making och specifikt The Value Of
Information.
2. Syfte
Syftet med rapporten är att utifrån ett avsnitt i kursboken finna vidare informationen och på
ett vetenskapligt sätt sammanställa detta i skrift. Arbetet kommer även att redovisas muntligt
för kurskamrater.
En begränsning som vidtagits är att flera av formlerna som tas upp i Russell och Norvig,
2003, i denna rapport istället förklaras i löpande text. Istället för att fastna i matematiska
fällor koncentreras rapportinnehållet kring formlernas kontext.
3. Metod
Problembestämningen skedde i samråd med en annan grupp vilken även den tilldelats kapitel
16 i kurslitteraturen. Rapporten är baserad på litteraturstudier av kurslitteratur samt
vetenskapliga artiklar funna på Internet. Informationssökning har genomförts på Umeå
Universitets-biblioteket, vilket inte gav något resultat då rapportens ämne var väldigt smalt.
Även på Internet påträffades stora svårigheter att finna information. Guidning och hjälp från
handledare gav dock resultat i informationsinsamlandet.
3
Sofia Carlander
Karin Fossum
Artificiell Intelligens
Laboration 2
2017-07-15
4. Resultat
I en implementation av ett AI-system måste agenten kunna ta beslut på eget bevåg. Den
mänskliga hjärnan är oslagbar på beslutstagning. På grund av detta har en modell av denna
process utformats för att det ska bli enklare att implementera. För att besluten ska vara
”intelligenta” måste beslutsapparaten analyseras och utvärderas.
En beslutstagande agent tar sina beslut utifrån den information som är tillgänglig. Med
information blir antagligen beslutet annorlunda än det hade blivit utan den. En agent tar in
information med så kallade sensing actions vilka är till för att agenten ska få intryck från
omvärlden, t.ex. om det är snö på en väg. Dessa sensing actions definieras redan i
implementationen av agenten.1 Information är endast värdefull om den ändrar agentens beslut
och kan visa att resultatet av den nya planen ger bättre resultat än den gamla. Information kan
inte vara skadlig för agenten, den ger aldrig ett negativt förväntat värde.
4.1 Ett enkelt exempel
För att visa att information kan vara mycket värd visas här ett exempel.
I ett lotteri finns n antal lotter varav en innefattar en vinst på 100 kr. En lott kostar 100/n kr,
dvs. lottförsäljarna går inte med ekonomisk vinst. Det ges en möjlighet att av en sierska få
veta om en av lotterna är vinstlotten eller en av nitlotterna. Frågan är nu hur mycket vi är
beredda att betala sierskan för att få veta lottens utslag? För att kunna räkna ut detta måste vi
dela upp lösningen i två fall:
Fall 1: Sannolikheten att lotten är vinstlotten är 1/n. Lotten köps för 100/n kr och vi tjänar i
detta fall 100 – 100/n = (100 × (n – 1)) / n kr.
Fall 2: Sannolikheten att lotten är en nitlott är (n – 1)/n. I detta fall kommer vi att köpa en
annan lott och sannolikheten att det är vinstlotten blir då 1/(n – 1) vilket gör att vi
tjänar 100 / (n – 1) – 100/n = 100 / (n × (n – 1)) kr.
Nu kan vi räkna ut det vi förväntar oss att tjäna om vi anlitar sierskan:
(n – 1) × 100
1
n-1
100
__
× ___________ + _____ × __________
n × (n – 1)
n
n
n
=
100
___
n
Vi är alltså villiga att betala sierskan upp till 100/n kr för informationen. Informationen är
följaktligen lika mycket värd som lotten själv.
1
[1] Russell & Norvig, 2003, sid 431 och sid. 439
4
Sofia Carlander
Karin Fossum
Artificiell Intelligens
Laboration 2
2017-07-15
4.2 Beräkning av informationens värde
Information Value Theory gör det möjligt för agenten att välja vilken information som krävs
för beslutet. En av de viktigaste delarna i detta beslutstagande är att veta vilka frågor agenten
ska ställa för att få fram just den information som är intressant i sammanhanget. För att veta
vilka frågor som ger den mest intressanta informationen måste den värderas. 2
I AI sammanhang talas ofta om Value of Perfect Information (VPI) som definieras som
skillnaden i det väntade resultatet mellan de bästa handlingarna före och efter informationen
tillförts, dvs. hur stor skillnad gör den nya biten av information mot om vi inte haft den? 3
Nedan visas en matematisk formel för VPI.
agentens nuvarande kunskaper (tillgänglig information)
slumpvariabel som beskriver agentens nya E (en handling har medfört ny
information)
A
ickedeterministisk handling
i
index
α
den för stunden bästa handlingen
Do (A) utför handlingen A i det aktuella tillståndet
EU
expected utility – förväntat resultat av handlingen
E
Ej
Värdet på den för tillfället bästa handlingen definieras som:
EU (α | E) = max ∑ U (Resulti (A)) P (Resulti (A) | Do (A), E)
A
i
Tänk nu att agenten får ytterligare information som förser situationen med andra
förutsättningar, Ej. Då går det att räkna ut den för stunden bästa handlingen efter det att
agenten fått den nya informationen, dvs. αEj.
EU (αEj | E, E j ) = max ∑ U (Resulti (A)) P (Resulti (A) | Do (A), E, E j )
A
i
Eftersom Ej fortfarande är en okänd slumpvariabel måste vi beräkna genomsnittsvärdet för
alla möjliga värden (ejk) för att hitta Ej. Värdet för att hitta Ej, då vi vet agentens nuvarande
kunskaper (E), blir då:
VPIE (Ej ) = ﴾∑ P (Ej = ejk | E) EU (α ejk | E, E j = e jk ) ﴿ - EU (α | E)
k
Något som inte får försummas är kostnaden för informationen. Dels den ekonomiska
kostnaden, dvs. det faktiska priset för informationen vilken måste ligga inom budgetramarna,
och dels kostnaden för fördröjda handlingar som är relevant om agenten är i en tidskritisk
situation. Det kan hända att ett tillfälle kan gå förbi om agenten inte handlar tillräckligt
snabbt. Informationsinsamlingen måste alltså ske snabbt och presenteras för agenten för att
2
3
[1] Russell & Norvig, 2003, sid 600
[1] Russell & Norvig, 2003, sid 601
5
Sofia Carlander
Karin Fossum
Artificiell Intelligens
Laboration 2
2017-07-15
den sedan ska kunna ta ett riktigt beslut. 4 Om en bit information är värd väldigt mycket men
kostar lika mycket som den faktiska lösningen bör agenten ha detta i åtanke innan den gör sitt
beslut. Värderingen av information måste därför baseras på informationens värde i relation
med vad den kostar.
Information som samlas in kan innehålla felaktigheter och osäkerheter. Agenten måste därför
kunna analysera informationen för att kunna avgöra dess tillförlitlighet. Detta medför att
beslutet inte längre är av det simpla slaget som denna rapport avser.5
I ett beslutstagande måste agenten veta när den har tillräckligt med information för att kunna
ta sitt beslut. Detta görs med en variabel som beskriver behovet av information. När denna
variabel indikerar på att informationen som kommer in i systemet är irrelevant, slutar
informationssökandet. 6
4.3 Implementering
Då information samlas in inför ett beslutstagande måste agenten veta vilka frågor som ska
ställas och i vilken ordning. Agenten måste också veta hur informationen ska prioriteras i
relation till dess kostnad samt när insamlingen av information ska avslutas. Detta kan
implementeras med en agentalgoritm kallad myopic. Denna algoritm bygger på idéerna kring
Value of Information, eftersom den sorterar informationen efter vad den är värd i relation till
vad den kostar. 7
Insamlandet av information bör ske systematiskt och övergripande för att ett optimalt beslut
ska kunna fattas. Detta innebär att en stor mängd data behandlas och beslutet blir inte simpelt
längre. Med den myopiska strategin samlas informationsbitarna in en i taget och problemet
blir inte lika komplext. Myopicalgoritmen kan sägas vara en greedy algorithm som alltid
hittar ett beslut, men sådana algoritmer är långsamma om informationsmängden är stor.
4
[2] C. Tseng & P. Gmytrasiewicz, 1999, sid 2
Ibid
6
[2] C. Tseng & P. Gmytrasiewicz, 1999, sid 3-4
7
[1] Russell & Norvig, 2003, sid 603
5
6
Sofia Carlander
Karin Fossum
Artificiell Intelligens
Laboration 2
2017-07-15
5. Diskussion
En agent i ett AI-system måste fatta många beslut. Det finns antagligen information
tillgänglig för agenten men frågan är vilken information den ska utnyttja och vilken
information som egentligen är relevant? Agenten måste därför sortera informationen efter hur
bra resultat informationen leder till.
Russell och Norvig, 2003, menar att information aldrig kan vara skadlig för den som ska ha
den, men för mycket information kan förvirra och kräva mycket minne. Information behöver
inte alltid vara korrekt och detta måste tas hänsyn till då den värderas. Eftersom detta handlar
om Simple Decision Making har agenten inte alltid kunskaper för att hantera dessa problem.
Enligt C. Tseng och P. Gmytrasiewicz, 1999, måste agenten komma till ett beslut snabbt för
att inte situationen drastiskt ska förändras innan agenten hunnit agera. Detta kan annars leda
till ett felaktigt beslut. En annan synvinkel på detta problem är att ett för snabbt beslut kan
leda till att vi går miste om värdefull information. Det gäller därför att noga avväga när
beslutet ska tas.
Täcker de fördefinierade sensing actions verkligen in alla möjliga situationer? Eftersom alla
sensing actions måste bestämmas i förväg kan agent-designern missa att implementera någon
händelse. Det är omöjligt att täcka in alla händelser och vem bestämmer egentligen vilka som
är relevanta?
En agent som handlar efter myopiska regler tar endast hänsyn till kortsiktiga resultat av en
handling. Agenten tar enbart in en variabel (informationsbit) i beslutet åt gången. En sådan
agent skulle antagligen förlora ett spel som schack väldigt fort.
En ensam del information ger en specifik handling med all tidigare kunskap som grund. Detta
skulle i princip kunna implementeras med hjälp av endast if-satser i ett program. Det krävs
dock att det är ett simpelt beslut.
Den myopiska strategins tillförlitlighet betvivlas av flera personer som är verksamma inom
AI-området. Dessa tvivelaktigheter berörs bland annat i C. Tseng och P. Gmytrasiewicz,
1999, (avsnitt 3.2). Det är ett komplicerat område och det kräver mer arbete och material än
denna rapports omfattning för att kunna avgöra huruvida kritiken är befogad eller inte.
7
Sofia Carlander
Karin Fossum
Artificiell Intelligens
Laboration 2
2017-07-15
6. Slutsats
Vid diskussioner kring definitionen av intelligens är kraven väldigt låga om man anser att en
agent som implementerar en myopicalgoritm är intelligent. Den kan inte lära sig av sina egna
misstag och den är för naiv för att klara ett Turingtest.
Eftersom det var svårt att hitta information inom detta ämne kan slutsatsen dras att det inte
forskats så mycket om hur information värderas hos en agent. Viktiga keywords i Russell &
Norvig, 2003, så som Value of Perfect Information och Information Value Theory, gav
knapphändiga träffar under informationssökningen. Detta tyder på att dessa begrepp inte är
vedertagna i någon större utsträckning.
7. Egna reflektioner
Denna laboration har varit mycket lärorik och intressant. Det har uppstått problem med att
hitta information, vilket har dragit ner laboranternas motivation. Kanske skulle ämnesspecificeringen valts efter att informationssökningen påbörjats för att underlätta arbetet.
Eftersom det var begränsat med tid fanns tyvärr ingen möjlighet till detta. Det specifika ämnet
fångade emellertid gruppens uppmärksamhet så pass mycket att andra ämnesspecificeringar
inte var aktuella.
Handledningen har varit mycket bra och tillmötesgående. Utan denna guidning hade arbetets
utformning sett helt annorlunda ut.
8
Sofia Carlander
Karin Fossum
Artificiell Intelligens
Laboration 2
2017-07-15
8. Referenser
[1] S. J. Russel och P. Norvig, 2003, Artificial Intelligence, A Modern Approach, Prentice
Hall, New Jersey, kap. 16.6, sid 431, 439, 600-604.
bok
[2] C. Tseng och P. Gmytrasiewicz, 1999, Time Sensitive Sequential Myopic Information
Gathering
(Proceedings of the 32nd Hawaii International Conference on System Sciences - 1999)
artikel
9