Umeå Universitet Institutionen för datavetenskap AI med inriktning mot kognition och design, ht 03 Kursansvarig: Jan Erik Moström Handledare: Christina Olsén Laboration 2: Making Simple Decisions The Value of Information 2003-10-27 Andra inlämningen Sofia Carlander, dit01scr Karin Fossum, dit01kfm Sofia Carlander Karin Fossum Artificiell Intelligens Laboration 2 2017-07-15 Sammanfattning Ett beslut måste byggas på vissa grunder. Information om situationen måste finnas eller införskaffas för att ett beslut om handling ska kunna göras. I Russel och Norvig, 2003, presenteras teorin om The Value of Information där information anses ha olika värden i ett beslutstagande. Informationen värderas utifrån vissa kriterier som t.ex. hur pass nyttig handlingen den leder till är. I artificiell intelligens (AI) sammanhang talas ofta om Value of Perfect Information som är ett mått för att avgöra hur stor skillnad den mottagna informations-mängden medför. För att ett beslut ska kunna tas finns en algoritm kallad Myopic till hjälp. Den behandlar beslut som inte är för komplicerade och tar endast hänsyn till en enda variabel. Beslutet blir därför väldigt naivt och kortsiktigt. 1 Sofia Carlander Karin Fossum Artificiell Intelligens Laboration 2 2017-07-15 Innehållsförteckning 1. Introduktion ............................................................................................................................ 3 2. Syfte ....................................................................................................................................... 3 3. Metod ..................................................................................................................................... 3 4. Resultat ................................................................................................................................... 4 4.1 Ett enkelt exempel ........................................................................................................ 4 4.2 Beräkning av informationens värde ............................................................................. 5 4.3 Implementering ............................................................................................................ 6 5. Diskussion .............................................................................................................................. 7 6. Slutsats ................................................................................................................................... 8 7. Egna reflektioner .................................................................................................................... 8 8. Referenser............................................................................................................................... 9 2 Sofia Carlander Karin Fossum Artificiell Intelligens Laboration 2 2017-07-15 1. Introduktion Bakom varje handling ligger ett beslut. Detta beslut är ibland enkelt att ta och ibland svårt. Ju fler intryck som tillåts tas in från omgivningen desto svårare blir beslutet att fatta, eftersom det är mer information att ta hänsyn till. Informationen kan ha olika värden och kosta olika mycket, antingen energimässigt, tidsmässigt eller ekonomiskt. Den här rapporten handlar om vad information är värd i ett enkelt beslutstagande. Informationens värde är viktig att tänka på vid implementation av en artificiell agent. Rapporten tar även upp hur värderingen av information går till. Rapporten behandlar avsnitt 16.6 i Russell och Norvigs bok Artificial Intelligence, A Modern Approach, 2003, som hanterar ämnet Simple Decision Making och specifikt The Value Of Information. 2. Syfte Syftet med rapporten är att utifrån ett avsnitt i kursboken finna vidare informationen och på ett vetenskapligt sätt sammanställa detta i skrift. Arbetet kommer även att redovisas muntligt för kurskamrater. En begränsning som vidtagits är att flera av formlerna som tas upp i Russell och Norvig, 2003, i denna rapport istället förklaras i löpande text. Istället för att fastna i matematiska fällor koncentreras rapportinnehållet kring formlernas kontext. 3. Metod Problembestämningen skedde i samråd med en annan grupp vilken även den tilldelats kapitel 16 i kurslitteraturen. Rapporten är baserad på litteraturstudier av kurslitteratur samt vetenskapliga artiklar funna på Internet. Informationssökning har genomförts på Umeå Universitets-biblioteket, vilket inte gav något resultat då rapportens ämne var väldigt smalt. Även på Internet påträffades stora svårigheter att finna information. Guidning och hjälp från handledare gav dock resultat i informationsinsamlandet. 3 Sofia Carlander Karin Fossum Artificiell Intelligens Laboration 2 2017-07-15 4. Resultat I en implementation av ett AI-system måste agenten kunna ta beslut på eget bevåg. Den mänskliga hjärnan är oslagbar på beslutstagning. På grund av detta har en modell av denna process utformats för att det ska bli enklare att implementera. För att besluten ska vara ”intelligenta” måste beslutsapparaten analyseras och utvärderas. En beslutstagande agent tar sina beslut utifrån den information som är tillgänglig. Med information blir antagligen beslutet annorlunda än det hade blivit utan den. En agent tar in information med så kallade sensing actions vilka är till för att agenten ska få intryck från omvärlden, t.ex. om det är snö på en väg. Dessa sensing actions definieras redan i implementationen av agenten.1 Information är endast värdefull om den ändrar agentens beslut och kan visa att resultatet av den nya planen ger bättre resultat än den gamla. Information kan inte vara skadlig för agenten, den ger aldrig ett negativt förväntat värde. 4.1 Ett enkelt exempel För att visa att information kan vara mycket värd visas här ett exempel. I ett lotteri finns n antal lotter varav en innefattar en vinst på 100 kr. En lott kostar 100/n kr, dvs. lottförsäljarna går inte med ekonomisk vinst. Det ges en möjlighet att av en sierska få veta om en av lotterna är vinstlotten eller en av nitlotterna. Frågan är nu hur mycket vi är beredda att betala sierskan för att få veta lottens utslag? För att kunna räkna ut detta måste vi dela upp lösningen i två fall: Fall 1: Sannolikheten att lotten är vinstlotten är 1/n. Lotten köps för 100/n kr och vi tjänar i detta fall 100 – 100/n = (100 × (n – 1)) / n kr. Fall 2: Sannolikheten att lotten är en nitlott är (n – 1)/n. I detta fall kommer vi att köpa en annan lott och sannolikheten att det är vinstlotten blir då 1/(n – 1) vilket gör att vi tjänar 100 / (n – 1) – 100/n = 100 / (n × (n – 1)) kr. Nu kan vi räkna ut det vi förväntar oss att tjäna om vi anlitar sierskan: (n – 1) × 100 1 n-1 100 __ × ___________ + _____ × __________ n × (n – 1) n n n = 100 ___ n Vi är alltså villiga att betala sierskan upp till 100/n kr för informationen. Informationen är följaktligen lika mycket värd som lotten själv. 1 [1] Russell & Norvig, 2003, sid 431 och sid. 439 4 Sofia Carlander Karin Fossum Artificiell Intelligens Laboration 2 2017-07-15 4.2 Beräkning av informationens värde Information Value Theory gör det möjligt för agenten att välja vilken information som krävs för beslutet. En av de viktigaste delarna i detta beslutstagande är att veta vilka frågor agenten ska ställa för att få fram just den information som är intressant i sammanhanget. För att veta vilka frågor som ger den mest intressanta informationen måste den värderas. 2 I AI sammanhang talas ofta om Value of Perfect Information (VPI) som definieras som skillnaden i det väntade resultatet mellan de bästa handlingarna före och efter informationen tillförts, dvs. hur stor skillnad gör den nya biten av information mot om vi inte haft den? 3 Nedan visas en matematisk formel för VPI. agentens nuvarande kunskaper (tillgänglig information) slumpvariabel som beskriver agentens nya E (en handling har medfört ny information) A ickedeterministisk handling i index α den för stunden bästa handlingen Do (A) utför handlingen A i det aktuella tillståndet EU expected utility – förväntat resultat av handlingen E Ej Värdet på den för tillfället bästa handlingen definieras som: EU (α | E) = max ∑ U (Resulti (A)) P (Resulti (A) | Do (A), E) A i Tänk nu att agenten får ytterligare information som förser situationen med andra förutsättningar, Ej. Då går det att räkna ut den för stunden bästa handlingen efter det att agenten fått den nya informationen, dvs. αEj. EU (αEj | E, E j ) = max ∑ U (Resulti (A)) P (Resulti (A) | Do (A), E, E j ) A i Eftersom Ej fortfarande är en okänd slumpvariabel måste vi beräkna genomsnittsvärdet för alla möjliga värden (ejk) för att hitta Ej. Värdet för att hitta Ej, då vi vet agentens nuvarande kunskaper (E), blir då: VPIE (Ej ) = ﴾∑ P (Ej = ejk | E) EU (α ejk | E, E j = e jk ) ﴿ - EU (α | E) k Något som inte får försummas är kostnaden för informationen. Dels den ekonomiska kostnaden, dvs. det faktiska priset för informationen vilken måste ligga inom budgetramarna, och dels kostnaden för fördröjda handlingar som är relevant om agenten är i en tidskritisk situation. Det kan hända att ett tillfälle kan gå förbi om agenten inte handlar tillräckligt snabbt. Informationsinsamlingen måste alltså ske snabbt och presenteras för agenten för att 2 3 [1] Russell & Norvig, 2003, sid 600 [1] Russell & Norvig, 2003, sid 601 5 Sofia Carlander Karin Fossum Artificiell Intelligens Laboration 2 2017-07-15 den sedan ska kunna ta ett riktigt beslut. 4 Om en bit information är värd väldigt mycket men kostar lika mycket som den faktiska lösningen bör agenten ha detta i åtanke innan den gör sitt beslut. Värderingen av information måste därför baseras på informationens värde i relation med vad den kostar. Information som samlas in kan innehålla felaktigheter och osäkerheter. Agenten måste därför kunna analysera informationen för att kunna avgöra dess tillförlitlighet. Detta medför att beslutet inte längre är av det simpla slaget som denna rapport avser.5 I ett beslutstagande måste agenten veta när den har tillräckligt med information för att kunna ta sitt beslut. Detta görs med en variabel som beskriver behovet av information. När denna variabel indikerar på att informationen som kommer in i systemet är irrelevant, slutar informationssökandet. 6 4.3 Implementering Då information samlas in inför ett beslutstagande måste agenten veta vilka frågor som ska ställas och i vilken ordning. Agenten måste också veta hur informationen ska prioriteras i relation till dess kostnad samt när insamlingen av information ska avslutas. Detta kan implementeras med en agentalgoritm kallad myopic. Denna algoritm bygger på idéerna kring Value of Information, eftersom den sorterar informationen efter vad den är värd i relation till vad den kostar. 7 Insamlandet av information bör ske systematiskt och övergripande för att ett optimalt beslut ska kunna fattas. Detta innebär att en stor mängd data behandlas och beslutet blir inte simpelt längre. Med den myopiska strategin samlas informationsbitarna in en i taget och problemet blir inte lika komplext. Myopicalgoritmen kan sägas vara en greedy algorithm som alltid hittar ett beslut, men sådana algoritmer är långsamma om informationsmängden är stor. 4 [2] C. Tseng & P. Gmytrasiewicz, 1999, sid 2 Ibid 6 [2] C. Tseng & P. Gmytrasiewicz, 1999, sid 3-4 7 [1] Russell & Norvig, 2003, sid 603 5 6 Sofia Carlander Karin Fossum Artificiell Intelligens Laboration 2 2017-07-15 5. Diskussion En agent i ett AI-system måste fatta många beslut. Det finns antagligen information tillgänglig för agenten men frågan är vilken information den ska utnyttja och vilken information som egentligen är relevant? Agenten måste därför sortera informationen efter hur bra resultat informationen leder till. Russell och Norvig, 2003, menar att information aldrig kan vara skadlig för den som ska ha den, men för mycket information kan förvirra och kräva mycket minne. Information behöver inte alltid vara korrekt och detta måste tas hänsyn till då den värderas. Eftersom detta handlar om Simple Decision Making har agenten inte alltid kunskaper för att hantera dessa problem. Enligt C. Tseng och P. Gmytrasiewicz, 1999, måste agenten komma till ett beslut snabbt för att inte situationen drastiskt ska förändras innan agenten hunnit agera. Detta kan annars leda till ett felaktigt beslut. En annan synvinkel på detta problem är att ett för snabbt beslut kan leda till att vi går miste om värdefull information. Det gäller därför att noga avväga när beslutet ska tas. Täcker de fördefinierade sensing actions verkligen in alla möjliga situationer? Eftersom alla sensing actions måste bestämmas i förväg kan agent-designern missa att implementera någon händelse. Det är omöjligt att täcka in alla händelser och vem bestämmer egentligen vilka som är relevanta? En agent som handlar efter myopiska regler tar endast hänsyn till kortsiktiga resultat av en handling. Agenten tar enbart in en variabel (informationsbit) i beslutet åt gången. En sådan agent skulle antagligen förlora ett spel som schack väldigt fort. En ensam del information ger en specifik handling med all tidigare kunskap som grund. Detta skulle i princip kunna implementeras med hjälp av endast if-satser i ett program. Det krävs dock att det är ett simpelt beslut. Den myopiska strategins tillförlitlighet betvivlas av flera personer som är verksamma inom AI-området. Dessa tvivelaktigheter berörs bland annat i C. Tseng och P. Gmytrasiewicz, 1999, (avsnitt 3.2). Det är ett komplicerat område och det kräver mer arbete och material än denna rapports omfattning för att kunna avgöra huruvida kritiken är befogad eller inte. 7 Sofia Carlander Karin Fossum Artificiell Intelligens Laboration 2 2017-07-15 6. Slutsats Vid diskussioner kring definitionen av intelligens är kraven väldigt låga om man anser att en agent som implementerar en myopicalgoritm är intelligent. Den kan inte lära sig av sina egna misstag och den är för naiv för att klara ett Turingtest. Eftersom det var svårt att hitta information inom detta ämne kan slutsatsen dras att det inte forskats så mycket om hur information värderas hos en agent. Viktiga keywords i Russell & Norvig, 2003, så som Value of Perfect Information och Information Value Theory, gav knapphändiga träffar under informationssökningen. Detta tyder på att dessa begrepp inte är vedertagna i någon större utsträckning. 7. Egna reflektioner Denna laboration har varit mycket lärorik och intressant. Det har uppstått problem med att hitta information, vilket har dragit ner laboranternas motivation. Kanske skulle ämnesspecificeringen valts efter att informationssökningen påbörjats för att underlätta arbetet. Eftersom det var begränsat med tid fanns tyvärr ingen möjlighet till detta. Det specifika ämnet fångade emellertid gruppens uppmärksamhet så pass mycket att andra ämnesspecificeringar inte var aktuella. Handledningen har varit mycket bra och tillmötesgående. Utan denna guidning hade arbetets utformning sett helt annorlunda ut. 8 Sofia Carlander Karin Fossum Artificiell Intelligens Laboration 2 2017-07-15 8. Referenser [1] S. J. Russel och P. Norvig, 2003, Artificial Intelligence, A Modern Approach, Prentice Hall, New Jersey, kap. 16.6, sid 431, 439, 600-604. bok [2] C. Tseng och P. Gmytrasiewicz, 1999, Time Sensitive Sequential Myopic Information Gathering (Proceedings of the 32nd Hawaii International Conference on System Sciences - 1999) artikel 9