Information

Innehållsförteckning:

Information
Information

Video: Information

Video: Information
Video: Почему Черные Дыры могут удалить Вселенную - Информационный Парадокс 2024, Mars
Anonim

Inmatningsnavigering

  • Inmatningsinnehåll
  • Bibliografi
  • Akademiska verktyg
  • Vänner PDF-förhandsvisning
  • Författare och Citation Info
  • Tillbaka till toppen

Information

Först publicerad fredag 26 oktober 2012; substantiell revidering fredag 14 december 2018

Informationsfilosofi behandlar filosofisk analys av begreppet information både ur ett historiskt och systematiskt perspektiv. Med framväxten av den empiriska kunskapsteorin i tidigt modern filosofi, utvecklingen av olika matematiska teorier om information under det tjugonde århundradet och ökningen av informationsteknologi har begreppet "information" erövrat en central plats i vetenskapen och i samhället. Detta intresse ledde också till uppkomsten av en separat filosofisk gren som analyserar information i alla dess drag (Adriaans & van Benthem 2008a, b; Lenski 2010; Floridi 2002, 2011). Information har blivit en central kategori inom både vetenskaper och humaniora och reflektionen av information påverkar ett brett spektrum av filosofiska discipliner som varierar från logik (Dretske 1981;van Benthem & van Rooij 2003; van Benthem 2006, se posten om logik och information), epistemologi (Simondon 1989) till etik (Floridi 1999) och estetik (Schmidhuber 1997a; Adriaans 2008) till ontologi (Zuse 1969; Wheeler 1990; Schmidhuber 1997b; Wolfram 2002; Hutter 2010).

Det finns ingen enighet om den exakta karaktären av informationsfilosofifältet. Flera författare har föreslagit en mer eller mindre sammanhängande informationsfilosofi som ett försök att ompröva filosofi ur ett nytt perspektiv: t.ex. kvantfysik (Mugur-Schächter 2002), logik (Brenner 2008), semantisk information (Floridi 2011; Adams & de Moraes 2016, se posten om semantiska föreställningar om information), kommunikations- och meddelandesystem (Capurro & Holgate 2011) och metafilosofi (Wu 2010, 2016). Andra (Adriaans & van Benthem 2008a; Lenski 2010) ser det mer som en teknisk disciplin med djupa rötter i filosofins historia och konsekvenser för olika discipliner som metodik, epistemologi och etik. Oavsett vad tolkningen av informationsfilosofin är,det verkar innebära ett ambitiöst forskningsprogram som består av många delprojekt som varierar från omtolkning av filosofihistorien i samband med moderna teorier om information, till en djupgående analys av informationens roll i vetenskap, humaniora och samhälle som en hel.

Termen”information” i samtalstal används för närvarande huvudsakligen som ett abstrakt massnamn som används för att beteckna vilken mängd data, kod eller text som lagras, skickas, tas emot eller manipuleras i vilket medium som helst. Den detaljerade historien för både termen”information” och de olika koncept som följer med den är komplex och för större delen måste fortfarande skrivas (Seiffert 1968; Schnelle 1976; Capurro 1978, 2009; Capurro & Hjørland 2003). Den exakta betydelsen av termen "information" varierar i olika filosofiska traditioner och dess samhällsbruk varierar geografiskt och över olika pragmatiska sammanhang. Även om en analys av begreppet information har varit ett tema i västerländsk filosofi från dess tidiga början, är den explicita analysen av information som filosofiskt begrepp nyligen,och går tillbaka till andra hälften av det tjugonde århundradet. Just nu är det tydligt att information är ett viktigt begrepp inom vetenskaperna och humaniora och i vårt dagliga liv. Allt vi vet om världen är baserat på information vi fått eller samlat in och varje vetenskap i princip handlar om information. Det finns ett nätverk av relaterade begrepp information, med rötter inom olika discipliner som fysik, matematik, logik, biologi, ekonomi och epistemologi. Alla dessa föreställningar kluster runt två centrala egenskaper:med rötter inom olika discipliner som fysik, matematik, logik, biologi, ekonomi och epistemologi. Alla dessa föreställningar kluster runt två centrala egenskaper:med rötter inom olika discipliner som fysik, matematik, logik, biologi, ekonomi och epistemologi. Alla dessa föreställningar kluster runt två centrala egenskaper:

Informationen är omfattande. Central är begreppet additivitet: kombinationen av två oberoende datasätt med samma mängd information innehåller dubbelt så mycket information som de separata enskilda datamängderna. Begreppet extensivitet framträder naturligt i våra interaktioner med världen runt oss när vi räknar och mäter objekt och strukturer. Grundläggande föreställningar om mer abstrakta matematiska enheter, som uppsättningar, multisets och sekvenser, utvecklades tidigt i historien på grundval av strukturella regler för manipulation av symboler (Schmandt-Besserat 1992). Den matematiska formaliseringen av extensivitet när det gäller logfunktionen ägde rum i samband med forskning om termodynamik under det nittonde (Boltzmann 1866) och tidigt 1900-tal (Gibbs 1906). När de kodas i termer av mer avancerade multidimensionella nummersystem (komplexa siffror,kvaternioner, oktonioner) begreppet extensiv generaliseras till mer subtila begrepp om additivitet som inte uppfyller våra vardagliga intuitioner. Ändå spelar de en viktig roll i den senaste utvecklingen av informationsteori baserad på kvantefysik (Von Neumann 1932; Redei & Stöltzner 2001, se posten om kvantförvirring och information).

Information minskar osäkerheten. Mängden information vi får växer linjärt med den mängd med vilken den minskar vår osäkerhet till det ögonblick som vi har fått all möjlig information och osäkerhetsmängden är noll. Förhållandet mellan osäkerhet och information formulerades antagligen först av empiristerna (Locke 1689; Hume 1748). Hume observerar uttryckligen att ett val från ett större urval av möjligheter ger mer information. Denna observation nådde sin kanoniska matematiska formulering i den funktion som föreslagits av Hartley (1928) som definierar mängden information vi får när vi väljer ett element från en ändlig uppsättning. Den enda matematiska funktionen som förenar dessa två intuitioner om extensivitet och sannolikhet är den som definierar informationen i termer av den negativa loggen för sannolikheten: (I (A) = - / log P (A)) (Shannon 1948;Shannon & Weaver 1949, Rényi 1961).

Elegansen i denna formel skyddar oss dock inte från de konceptuella problem som den har. Under det tjugonde århundradet kom olika förslag till formalisering av informationskoncept:

  • Kvalitativa informationsteorier

    1. Semantisk information: Bar-Hillel och Carnap utvecklade en teori om semantisk information (1953). Floridi (2002, 2003, 2011) definierar semantisk information som välformad, meningsfull och sanningsenlig data. Formella entropibaserade definitioner av information (Fisher, Shannon, Quantum, Kolmogorov) fungerar på en mer allmän nivå och mäter inte nödvändigtvis information i meningsfulla sanningsenliga datasätt, även om man kan försvara uppfattningen att för att kunna mätas måste uppgifterna vara väl- bildas (för en diskussion se avsnitt 6.6 om logik och semantisk information). Semantisk information ligger nära vår vardagliga naiva uppfattning av information som något som förmedlas genom sanna uttalanden om världen.
    2. Information som ett agentstillstånd: den formella logiska behandlingen av uppfattningar som kunskap och tro initierades av Hintikka (1962, 1973). Dretske (1981) och van Benthem & van Rooij (2003) studerade dessa uppfattningar inom ramen för informationsteori, jfr. van Rooij (2003) om frågor och svar, eller Parikh & Ramanujam (2003) om allmänna meddelanden. Dunn verkar också ha denna uppfattning i åtanke när han definierar information som”vad som är kvar av kunskap när man tar bort tro, rättfärdighet och sanning” (Dunn 2001: 423; 2008). Vigo föreslog en strukturkänslig teori om information baserad på komplexiteten i begreppsförvärv av agenter (Vigo 2011, 2012).
  • Kvantitativa informationsteorier

    1. Nyquists funktion: Nyquist (1924) var förmodligen den första som uttryckte mängden "intelligens" som kunde överföras med tanke på en viss linjehastighet för ett telegrafsystem i termer av en logfunktion: (W = k / log m), där W är överföringshastigheten, K är en konstant, och m är de olika spänningsnivåer man kan välja mellan.
    2. Fisher information: mängden information som en observerbar slumpvariabel X har om en okänd parameter (theta) på vilken sannolikheten för X beror (Fisher 1925).
    3. Hartley-funktionen: (Hartley 1928, Rényi 1961, Vigo 2012). Mängden information vi får när vi väljer ett element från en ändlig uppsättning S under enhetlig distribution är logaritmen för den setens kardinalitet.
    4. Shannoninformation: entropin, H, för en diskret slumpvariabel X är ett mått på mängden osäkerhet som är förknippad med värdet på X (Shannon 1948; Shannon & Weaver 1949).
    5. Kolmogorov-komplexitet: informationen i en binär sträng x är längden på det kortaste programmet p som producerar x på en referens universell Turing-maskin U (Turing 1937; Solomonoff 1960, 1964a, b, 1997; Kolmogorov 1965; Chaitin 1969, 1987).
    6. Entropimätningar i fysik: Även om de inte i alla fall är strikt mått på information, är de olika begreppen entropi som definieras i fysiken nära besläktade med motsvarande informationskoncept. Vi nämner Boltzmann Entropy (Boltzmann, 1866) nära besläktad med Hartley-funktionen (Hartley 1928), Gibbs Entropy (Gibbs 1906) formellt motsvarande Shannon-entropi och olika generaliseringar som Tsallis Entropy (Tsallis 1988) och Rényi Entropy (Rényi 1961).
    7. Kvantinformation: Kvbit är en generalisering av den klassiska biten och beskrivs av ett kvanttillstånd i ett två-tillstånd kvant-mekaniskt system, som formellt är ekvivalent med ett tvådimensionellt vektorutrymme över de komplexa siffrorna (Von Neumann 1932; Redei & Stöltzner 2001).

Fram till nyligen tvivlades allmänt på möjligheten att ena dessa teorier (Adriaans & van Benthem 2008a), men efter två decennier av forskning verkar perspektiv för förening bättre.

Konturerna för ett enhetligt informationsbegrepp framträder enligt följande linjer:

  • Informationsfilosofi är en underdisciplin för filosofi, intrikat relaterad till filosofin om logik och matematik. Filosofi för semantisk information (Floridi 2011, D'Alfonso 2012, Adams & de Moraes, 2016) är återigen en underdisciplin för informationsfilosofi (se informationskartan i posten om semantiska uppfattningar av information). Från detta perspektiv är informationsfilosofin intresserad av att undersöka ämnet på den mest allmänna nivån: data, välformade data, miljödata etc. Filosofi för semantisk information lägger dimensionerna till mening och sanningsenhet. Det är möjligt att tolka kvantitativa informationsteorier inom ramen för en filosofi om semantisk information (se avsnitt 6.5 för en djupgående diskussion).
  • Olika kvantitativa informationskoncept är förknippade med olika berättelser (räkning, mottagande av meddelanden, insamling av information, beräkning) som är förankrade i samma grundläggande matematiska ramverk. Många problem i informationsfilosofin kring relaterade problem i matematikfilosofi. Omvandlingar och reduktioner mellan olika formella modeller har studerats (Cover & Thomas 2006; Grünwald & Vitányi 2008; Bais & Farmer 2008). Situationen som verkar uppstå är inte till skillnad från begreppet energi: det finns olika formella underteorier om energi (kinetisk, potentiell, elektrisk, kemisk, kärnkraft) med väl definierade transformationer mellan dem. Bortsett från det används termen "energi" löst i samtalstal.
  • Agentbaserade informationsbegrepp dyker upp naturligt när vi utvidgar vårt intresse från enkel mätning och symbolmanipulation till det mer komplexa paradigmet för en agent med kunskap, övertygelser, avsikter och valfrihet. De är förknippade med distributionen av andra informationskoncept.

Framväxten av en sammanhängande teori för att mäta information kvantitativt under det tjugonde århundradet är nära relaterat till utvecklingen av teorin om datorisering. Centrala i detta sammanhang är föreställningarna om universitet, turingekvivalens och invarians: eftersom begreppet ett Turing-system definierar uppfattningen om en universell programmerbar dator, verkar alla universella modeller för beräkning ha samma kraft. Detta innebär att alla möjliga mått på information som kan definieras för universella modeller för beräkning (rekursiva funktioner, Turing Machine, Lambda Calculus etc.) är asymptotiskt invariant. Detta ger ett perspektiv på en enhetlig informationsteori som kan dominera forskningsprogrammet för de kommande åren.

  • 1. Information i samtalstal
  • 2. Termen och informationsbegreppet

    • 2.1 Klassisk filosofi
    • 2.2 Medeltidsfilosofi
    • 2.3 Modern filosofi
    • 2.4 Historisk utveckling av betydelsen av termen "Information"
  • 3. Byggstenar av moderna teorier om information

    • 3.1 Språk
    • 3.2 Optimala koder
    • 3.3 Nummer
    • 3.4 Fysik
  • 4. Utvecklingen inom informationsfilosofi

    • 4.1 Popper: Information som förfalskningsgrad
    • 4.2 Shannon: Information definierad i sannolikhetsvillkor
    • 4.3 Solomonoff, Kolmogorov, Chaitin: Information som längd på ett program
  • 5. Systematiska överväganden

    • 5.1 Informationsfilosofi som en förlängning av matematikfilosofi

      • 5.1.1 Information som ett naturfenomen
      • 5.1.2 Symbolmanipulation och extensivitet: uppsättningar, multisets och strängar
      • 5.1.3 Uppsättningar och siffror
      • 5.1.4 Mätinformation i antal
      • 5.1.5 Mätning av information och sannolikheter i antal uppsättningar
      • 5.1.6 Föreningsperspektiv
      • 5.1.7 Informationsbehandling och informationsflödet
      • 5.1.8 Information, primes och faktorer
      • 5.1.9 Inkompletenhet i aritmetik
    • 5.2 Information och symbolisk beräkning

      • 5.2.1 Turingmaskiner
      • 5.2.2 Universitet och invarians
    • 5.3 Kvantinformation och vidare
  • 6. Anomalier, paradoxer och problem

    • 6.1 Paradoxen för systematisk sökning
    • 6.2 Effektiv sökning i ändliga uppsättningar
    • 6.3 P-versus NP-problem, beskrivande komplexitet kontra tidskomplexitet
    • 6.4 Modellval och datakomprimering
    • 6.5 Bestämning och termodynamik
    • 6.6 Logik och semantisk information
    • 6.7 Betydelse och beräkning
  • 7. Slutsats
  • Bibliografi
  • Akademiska verktyg
  • Andra internetresurser
  • Relaterade poster

1. Information i samtalstal

Bristen på preciseness och den allmänna användbarheten av termen "information" går hand i hand. I vårt samhälle, där vi utforskar verkligheten med hjälp av instrument och installationer med ständigt ökande komplexitet (teleskop, cyklotroner) och kommunicerar via mer avancerade medier (tidningar, radio, TV, SMS, Internet), är det användbart att ha en abstrakt massnamn för "saker" som skapas av instrumenten och som "flödar" genom dessa media. Historiskt sett framkom denna allmänna betydelse ganska sent och verkar vara förknippad med uppkomsten av massmedier och underrättelsebyråer (Devlin & Rosenberg 2008; Adriaans & van Benthem 2008b).

I nuvarande samtalstal används termen information på olika löst definierade och ofta till och med motstridiga sätt. De flesta människor, till exempel, anser att följande inferens prima facie är giltiga:

Om jag får informationen som p så vet jag att p.

Samma människor skulle troligtvis inte ha några problem med uttalandet att "hemliga tjänster ibland sprider falsk information" eller med meningen "Informationen som vittnen till olyckan var vag och motstridig". Det första uttalandet innebär att information nödvändigtvis är sant, medan de andra uttalandena möjliggör att information är falsk, motstridig och vag. I vardagskommunikationen verkar dessa inkonsekvenser inte skapa stora problem och i allmänhet framgår det ur det pragmatiska sammanhanget vilken typ av information som utses. Dessa exempel räcker för att hävda att hänvisningar till våra intuitioner som engelskspråkare är till liten hjälp i utvecklingen av en rigorös filosofisk informationsteori. Det verkar inte finnas något pragmatiskt tryck i vardagskommunikationen att konvergera till en mer exakt definition av begreppet information.

2. Termen och informationsbegreppet

Fram till andra hälften av 1900-talet ansåg nästan ingen modern filosof "information" som ett viktigt filosofiskt begrepp. Termen har inget lemma i den välkända encyklopedin Edwards (1967) och nämns inte i Windelband (1903). I detta sammanhang är intresset för”Filosofi för information” en ny utveckling. Ändå med eftertanke från en idéhistorisk perspektiv har reflektion över begreppet”information” varit ett dominerande tema i filosofihistorien. Rekonstruktionen av denna historia är relevant för att studera information.

Ett problem med varje "idéhistoria" -strategi är valideringen av det underliggande antagandet att begreppet man studerar verkligen har kontinuitet över filosofihistorien. I fallet med den historiska analysen av information kan man fråga sig om begreppet”informatio” diskuterat av Augustin har någon koppling till Shannon information, annat än en likhet med termerna. Samtidigt kan man fråga sig om Lockes”historiska, enkla metod” är ett viktigt bidrag till uppkomsten av det moderna informationsbegreppet, även om Locke i sina skrifter knappast använder termen”information” i teknisk mening. Som visas nedan finns det ett konglomerat av idéer som involverar en uppfattning om information som har utvecklats från antiken till nyligen, men ytterligare studier av historien för begreppet information är nödvändig.

Ett viktigt återkommande tema i den tidiga filosofiska analysen av kunskap är paradigmet att manipulera en bit vax: antingen genom att deformera det enkelt, genom att trycka in en signetring i det eller genom att skriva tecken på det. Det faktum att vax kan ha olika former och sekundära egenskaper (temperatur, lukt, beröring) medan volymen (förlängningen) förblir densamma, gör det till en rik källa till analogier, naturliga till grekisk, romersk och medeltida kultur, där vax användes både för skulptur, skrivning (vaxtavlor) och encaustic målning. Man finner detta ämne i skrifter av så olika författare som Democritus, Platon, Aristoteles, Theophrastus, Cicero, Augustine, Avicenna, Duns Scotus, Aquinas, Descartes och Locke.

2.1 Klassisk filosofi

I klassisk filosofi var”information” en teknisk uppfattning förknippad med en teori om kunskap och ontologi som har sitt ursprung i Platons (427–347 fvt) formteori, utvecklad i ett antal av hans dialoger (Phaedo, Phaedrus, Symposium, Timaeus, Republic). Olika ofullkomliga enskilda hästar i den fysiska världen kunde identifieras som hästar, eftersom de deltog i den statiska atemporala och ambitiösa idén om "hästlighet" i en värld av idéer eller former. När senare författare som Cicero (106–43 fvt) och Augustin (354–430 e. Kr.) diskuterade platoniska begrepp på latin använde de termerna informare och informatio som en översättning för tekniska grekiska termer som eidos (essens), idé (idé), typos (typ), morphe (form) och prolepsis (representation). Rotformen är fortfarande igenkänd i ordet in-form-ation (Capurro & Hjørland 2003). Platons formteori var ett försök att formulera en lösning för olika filosofiska problem: formteorin medierar mellan en statisk (Parmenides, cirka 450 fvt) och en dynamisk (Herakleitos, ca. 535–475 fvt) ontologisk uppfattning av verkligheten och det erbjuder en modell för att studera teorin om mänsklig kunskap. Enligt Theophrastus (371–287 fvt) går vaxtablettens analogi tillbaka till Democritos (ca. 460–380 / 370 fvt) (De Sensibus 50). I Theaetetus (191c, d) jämför Platon funktionen hos vårt minne med en vaxtablett där våra uppfattningar och tankar är präglade som en signetring stämplar intryck i vax. Observera att metaforen för att trycka symboler i vax är i huvudsak rumslig (omfattande) och inte lätt kan förenas med den ambitiösa tolkningen av idéer som stöds av Platon.

Man får en bild av den roll begreppet”form” spelar i klassisk metodik om man tar hänsyn till Aristoteles (384–322 fvt) läran om de fyra orsakerna. I Aristotelian metodik förståelse av ett objekt implicerade förståelse fyra olika aspekter av det:

Materiell orsak:: att som ett resultat av vars närvaro någonting kommer till, t.ex. bronsen av en staty och silver av en kopp, och de klasser som innehåller dessa

Formell orsak:: formen eller mönstret; det vill säga den väsentliga formeln och klasserna som innehåller den, t.ex. är förhållandet 2: 1 och antalet i allmänhet orsaken till oktaven och delarna av formeln.

Effektiv orsak: källan till den första början av förändring eller vila; t ex är mannen som planerar en orsak, och fadern är barnets orsak, och i allmänhet är det som producerar orsaken till det som produceras och det som förändras av det som förändras.

Slutlig orsak:: samma som "slut"; dvs den slutliga orsaken; till exempel eftersom "slutet" på promenader är hälsa. För varför går en man?”Att vara frisk”, säger vi, och genom att säga detta anser vi att vi har levererat orsaken. (Aristoteles, metafysik 1013a)

Observera att Aristoteles, som avvisar Platons teori om former som atemporal aspatialenheter, fortfarande använder”form” som ett tekniskt begrepp. Det här avsnittet säger att känna till ett objekts form eller struktur, dvs. informationen, är ett nödvändigt villkor för att förstå det. I detta avseende är information en avgörande aspekt av klassisk epistemologi.

Det faktum att förhållandet 2: 1 citeras som exempel illustrerar också den djupa kopplingen mellan begreppet former och idén att världen styrdes av matematiska principer. Platon trodde under påverkan av en äldre Pythagorean (Pythagoras 572 - ca 500 f. Kr.) tradition att "allt som framträder och händer i världen" kan mätas med hjälp av siffror (Politicus 285a). Vid olika tillfällen nämner Aristoteles det faktum att Platon associerade idéer med siffror (Vogel 1968: 139). Även om formella matematiska teorier om information först uppstod under det tjugonde århundradet, och man måste vara noga med att inte tolka den grekiska uppfattningen om ett nummer i någon modern mening, är tanken att information i huvudsak var en matematisk uppfattning, tillbaka till klassisk filosofi:en enhets form utformades som en struktur eller mönster som kunde beskrivas i termer av siffror. En sådan form hade både en ontologisk och en epistemologisk aspekt: den förklarar essensen såväl som objektets förståelse. Informationsbegreppet alltså redan från början av filosofisk reflektion var redan förknippat med epistemologi, ontologi och matematik.

Två grundläggande problem som inte förklaras av den klassiska teorin om idéer eller former är 1) den faktiska handlingen att känna till ett objekt (dvs. om jag ser en häst på vilket sätt aktiveras en hästs idé i mitt sinne) och 2) processen att tänka som manipulering av idéer. Aristoteles behandlar dessa frågor i De Anime och åberopar signet-ring-intryck-i-vax-analogin:

Med en "känsla" menas det som har kraften att ta i sig de förnuftiga formerna av saker utan saken. Detta måste tänkas som att det sker på det sätt som en bit vax får intrycket av en skyltring utan järn eller guld; vi säger att det som skapar intrycket är en signet av brons eller guld, men dess speciella metalliska sammansättning gör ingen skillnad: på liknande sätt påverkas känslan av vad som är färgat eller smaksatt eller låter, men det är likgiltigt vad i varje fall ämnet är; vad som bara betyder är vilken kvalitet den har, dvs. i vilket förhållande dess beståndsdelar kombineras. (De Anime, bok II, kap. 12)

Har vi inte redan bortsett från svårigheterna med interaktion som involverar ett gemensamt element, när vi sa att sinnet i en mening är potentiellt vad som är tänkbart, men faktiskt är det ingenting förrän det har tänkt? Vad det tänker måste vara i det precis som karaktärer kan sägas ligga på en skrivtavla som ännu ingenting står skrivet: det är exakt vad som händer med sinne. (De Anime, bok III, kap. 4)

Dessa passager är rika på inflytelserika idéer och kan i efterhand läsas som programmatiska för en informationsfilosofi: informationsprocessen kan tolkas som avtryck av karaktärer på en vaxtavla (tabula rasa), tänkande kan analyseras i termer av manipulation av symboler.

2.2 Medeltidsfilosofi

Under medeltiden tas reflektionen över begreppet informatio upp av successiva tänkare. Illustrativt för det aristoteliska inflytandet är passagen av Augustin i boken De Trinitate XI. Här analyserar han visionen som en analogi för förståelsen av treenigheten. Det finns tre aspekter: den kroppsliga formen i omvärlden, informatio av synskänslan och den resulterande formen i sinnet. För denna informationsprocess använder Augustin bilden av en signetring som gör intryck i vax (De Trinitate, XI Cap 2 par 3). Capurro (2009) konstaterar att denna analys kan tolkas som en tidig version av det tekniska begreppet”skicka ett meddelande” i modern informationsteori, men idén är äldre och är ett vanligt ämne i grekisk tanke (Plato Theaetetus 191c, d; Aristoteles De Anime, bok II, kap. 12, bok III, kap. 4;Theophrastus De Sensibus 50).

Begreppet tabula rasa utvecklades senare i kunskapsteorin om Avicenna (ca 980–1037).

Det mänskliga intellektet vid födseln är snarare som en tabula rasa, en ren potential som realiseras genom utbildning och lär känna. Kunskap uppnås genom empirisk förtrolighet med objekt i denna värld från vilken man abstraherar universella begrepp. (Sajjad 2006 [Andra Internetresurser [nedan OIR])

Idén om en tabula rasa-utveckling av det mänskliga sinnet var ämnet för en roman Hayy ibn Yaqdhan av den arabiska andalusiska filosofen Ibn Tufail (1105–1185 e. Kr., känd som”Abubacer” eller”Ebn Tophail” i väst). Denna roman beskriver utvecklingen av ett isolerat barn på en öde ö. En senare översättning på latin under titeln Philosophus Autodidactus (1761) påverkade empiristen John Locke i formuleringen av sin tabula rasa-doktrin.

Förutom den permanenta kreativa spänningen mellan teologi och filosofi, kan medeltida tankar efter återupptäckten av Aristoteles metafysik under det tolfte århundradet inspireras av arabiska forskare, karakteriseras som en utarbetad och subtil tolkning och utveckling av, främst Aristotelisk, klassisk teori. Reflektion över uppfattningen om informatio tas upp, under påverkan av Avicenna, av tänkare som Aquinas (1225–1274 CE) och Duns Scotus (1265 / 66–1308 CE). När Aquinas diskuterar frågan om änglar kan interagera med materie hänvisar han till den aristoteliska doktrinen om hylomorfism (dvs. teorin om att ämnet består av materia (hylo (trä), materia) och form (morphè)). Här översätter Aquinas detta som information av materia (informatio materiae) (Summa Theologiae, 1a 110 2; Capurro 2009). Duns Scotus hänvisar till informatio i teknisk bemärkelse när han diskuterar Augustines visionsteori i De Trinitate, XI Cap 2 par 3 (Duns Scotus, 1639, “De imagin”, Ordinatio, I, d.3, s.3).

Den spänning som redan fanns i klassisk filosofi mellan platonisk idealism (universalia ante res) och Aristoteliansk realism (universalia i rebus) återfångas som universals problem: finns universella egenskaper som "mänsklighet" eller idén om en häst existerande bortsett från individen enheter som instanserar dem? Det är i samband med hans avvisande av universals som Ockham (c. 1287–1347 CE) introducerar sin välkända rakkniv: enheter bör inte multipliceras utöver nödvändighet. Under hela sina skrifter använder Aquinas och Scotus de latinska termerna informatio och informare i teknisk mening, även om denna terminologi inte används av Ockham.

2.3 Modern filosofi

Historien om begreppet information i modern filosofi är komplicerad. Förmodligen från och med på fjortonde århundradet kom termen "information" fram på olika utvecklande europeiska språk i den allmänna betydelsen "utbildning" och "utredning". Den franska historiska ordboken av Godefroy (1881) ger action de former, instruktion, enquête, vetenskap, talang som tidiga betydelser av "information". Termen användes också uttryckligen för juridiska undersökningar (Dictionnaire du Moyen Français (1330–1500) 2015). På grund av denna typ av användning förlorar termen "information" gradvis sin koppling till begreppet "form" och förekommer mindre och mindre i formell mening i filosofiska texter.

I slutet av medeltiden förändras samhället och vetenskapen grundläggande (Hazard 1935; Ong 1958; Dijksterhuis 1986). I en lång komplex process omvandlades den aristoteliska metoden för de fyra orsakerna för att tillgodose behoven hos experimentell vetenskap:

  1. Den materiella orsaken utvecklades till det moderna begreppet materia.
  2. Den formella orsaken tolkades om som geometrisk form i rymden.
  3. Den effektiva orsaken omdefinierades som direkt mekanisk interaktion mellan materialkroppar.
  4. Den sista orsaken avvisades som vetenskaplig. På grund av detta hade Newtons samtida svårigheter med begreppet tyngdkraft i hans teori. Tyngdekraft som handling på avstånd tycktes vara en återintroduktion av slutliga orsaker.

I detta föränderliga sammanhang tolkas analogin med vaxintrycket. En prototoversion av det moderna informationsbegreppet som strukturen för en uppsättning eller sekvens av enkla idéer utvecklas av empirikerna, men eftersom den tekniska betydelsen av termen "information" förloras identifieras aldrig denna kunskapsteori som en ny "teori om information".

Konsekvensen av denna förändring i metodiken är att endast fenomen som kan förklaras i termer av mekanisk interaktion mellan materiella kroppar kan studeras vetenskapligt. Detta innebär i modern mening: minskning av intensiva egenskaper till mätbara omfattande egenskaper. För Galileo är denna insikt programmatisk:

För att locka i oss smak, lukt och ljud tror jag att inget krävs i yttre kroppar utom former, siffror och långsamma eller snabba rörelser. (Galileo 1623 [1960: 276)

Dessa insikter ledde senare till läran om skillnaden mellan primära egenskaper (utrymme, form, hastighet) och sekundära kvaliteter (värme, smak, färg etc.). Inom ramen för informationsfilosofin är Galileos iakttagelser av den sekundära kvaliteten på "värme" av särskild vikt eftersom de utgör grunden för studiet av termodynamik under 1800-talet:

Efter att ha visat att många sensationer som är tänkta att vara egenskaper som bor i yttre föremål inte har någon verklig existens utom oss, och utanför oss själva är bara namn, säger jag nu att jag är benägen att tro att värme är av denna karaktär. De material som producerar värme i oss och får oss att känna värme, som är kända under det allmänna namnet "eld", skulle då vara en mängd minutpartiklar som har vissa former och rör sig med vissa hastigheter. (Galileo 1623 [1960: 277)

En avgörande tänkare i denna omvandling är René Descartes (1596–1650 e. Kr.). I hans meditationer, efter att ha”bevisat” att frågan (res extensa) och sinnet (res cogitans) är olika ämnen (dvs. former av att existera oberoende) blir frågan om interaktionen mellan dessa ämnen en fråga. Vaxens formbarhet är för Descartes ett uttryckligt argument mot påverkan av res extensa på res cogitans (Meditationes II, 15). Det faktum att ett stycke vax lätt förlorar sin form och andra egenskaper när det värms upp, innebär att sinnena inte är tillräckliga för att identifiera föremål i världen. Sann kunskap kan alltså bara nås via "besiktning av sinnet". Här används vaxmetaforen som i mer än 1500 år användes för att förklara sensoriskt intryck för att argumentera mot möjligheten att nå kunskap via sinnena. Eftersom essensen i res extensa är förlängning, kan tänkande i grunden inte förstås som en rumslig process. Descartes använder fortfarande termerna "form" och "idé" i den ursprungliga skolastiska icke-geometriska (atemporala, ambitiösa) betydelsen. Ett exempel är det korta formella beviset på Guds existens i det andra svaret till Mersenne i Meditationes de Prima PhilosophiaEtt exempel är det korta formella beviset på Guds existens i det andra svaret till Mersenne i Meditationes de Prima PhilosophiaEtt exempel är det korta formella beviset på Guds existens i det andra svaret till Mersenne i Meditationes de Prima Philosophia

Jag använder begreppet idé för att hänvisa till formen av en given tanke, omedelbar uppfattning som gör mig medveten om tanken.

(Idén nomin intelligo cujuslibet cogitationis formam illam, per cujus omedelbart perceptionem ipsius ejusdem cogitationis medveten summa)

Jag kallar dem "idéer" säger Descartes

bara i den mån de gör en skillnad för själen när de informerar den delen av hjärnan.

(sed tantum quatenus mentem ipsam i illam cerebri partem conversam informant). (Descartes, 1641, Ad Secundas invändningar, Rationes, Dei existentiam & anime distinctionem probantes, mer Geometrico dispositae.)

Eftersom res extensa och res cogitans är olika ämnen, kan tankehandlingen aldrig emuleras i rymden: maskiner kan inte ha den universella förnuftens förmåga. Descartes ger två separata motiv:

Av dessa är det första att de aldrig kunde använda ord eller andra tecken arrangerade på ett sådant sätt som är behöriga för oss för att förklara våra tankar till andra: (…) Det andra testet är att även om sådana maskiner kan utföra många saker med lika eller kanske större perfektion än någon av oss, skulle de utan tvekan misslyckas i vissa andra från vilka det kunde upptäckas att de inte handlade utifrån kunskap, utan enbart från deras organ: för medan skälet är ett universellt instrument det är lika tillgängligt vid varje tillfälle, dessa organ behöver tvärtom ett särskilt arrangemang för varje speciell handling; varifrån det måste vara moraliskt omöjligt att det i någon maskin ska finnas en mångfald av organ som är tillräckliga för att den ska kunna agera i alla livets händelser, på det sätt som vår anledning gör det möjligt för oss att agera.(Discourse de la méthode, 1647)

Passagen är relevant eftersom den direkt argumenterar mot möjligheten till konstgjord intelligens och den till och med kan tolkas som argumenterar mot möjligheten till en universal Turing-maskin: förnuft som ett universellt instrument kan aldrig emuleras i rymden. Denna uppfattning står i motsats till det moderna informationsbegreppet som som en mätbar kvantitet är väsentligen rumslig, dvs omfattande (men i en annan mening än Descartes).

Descartes presenterar inte en ny tolkning av föreställningarna om form och idé, men han lägger scenen för en debatt om arten av idéer som utvecklas kring två motsatta positioner:

Rationalism: Den kartesiska uppfattningen att idéer är medfödda och därmed a priori. Denna form av rationalism innebär en tolkning av begreppet idéer och former som atemporala, ambitiösa men komplexa strukturer, dvs. idén om”en häst” (dvs. med huvud, kropp och ben). Det passar också bra med tolkningen av det kännande ämnet som skapat varelse (ens creatu). Gud skapade människan efter sin egen bild och gav således det mänskliga sinnet en adekvat uppsättning idéer för att förstå hans skapelse. I denna teori tillväxt är kunskap a priori begränsad. Att skapa nya idéer ex nihilo är omöjligt. Denna uppfattning är svår att förena med begreppet experimentell vetenskap.

Empirism: Begrepp konstrueras i sinnet a posteriori på grundval av idéer associerade med sensoriska intryck. Denna lära innebär en ny tolkning av idébegreppet som:

överhuvudtaget är förståelsemålet när en man tänker … vad som menas med fantasier, begrepp, arter eller vad det än är som sinnet kan användas om när man tänker. (Locke 1689, bk I, kap 1, punkt 8)

Här är idéer utformade som elementära byggstenar för mänsklig kunskap och reflektion. Detta passar bra med kraven från experimentell vetenskap. Nackdelen är att sinnet aldrig kan formulera apodeiktiska sanningar om orsak och effekter och essensen av observerade enheter, inklusive dess egen identitet. Mänsklig kunskap blir väsentligen sannolik (Locke 1689: bk I, kap. 4, punkt 25).

Lockes omtolkning av idén som en "strukturell platshållare" för alla enheter som är närvarande i sinnet är ett viktigt steg i uppkomsten av det moderna informationsbegreppet. Eftersom dessa idéer inte är involverade i rättfärdigandet av apodeiktisk kunskap, försvinner behovet av att betona idéernas atemporaliska och ambitiösa natur. Konstruktion av koncept på grundval av en samling elementära idéer baserade på sensorisk upplevelse öppnar porten till en rekonstruktion av kunskap som en omfattande egenskap hos en agent: fler idéer innebär mer sannolik kunskap.

Under andra hälften av sjuttonhundratalet utvecklas den formella teorin om sannolikhet av forskare som Pascal (1623–1662), Fermat (1601 eller 1606–1665) och Christiaan Huygens (1629–1695). Verket De ratiociniis in ludo aleae av Huygens översattes till engelska av John Arbuthnot (1692). För dessa författare var världen väsentligen mekanistisk och således deterministisk, var sannolikheten en kvalitet på mänsklig kunskap orsakad av dess bristfälliga:

Det är omöjligt för en Die, med sådan bestämd kraft och riktning, att inte falla på en sådan bestämd sida, bara jag vet inte vilken kraft och riktning som får den att falla på en sådan bestämd sida, och därför kalla det chans, som inte är annat än konstens behov; … (John Arbuthnot Of the Laws of Chance (1692), förord)

Denna text påverkade förmodligen Hume, som var den första som gifte sig med den formella sannolikhetsteorin med kunskapsteori:

Även om det inte finns något sådant som chansen i världen; vår okunnighet om den verkliga orsaken till varje händelse har samma inflytande på förståelsen och föder upp en liknande art av tro eller åsikt. (…) Om ett färgämne var markerat med en siffra eller antalet fläckar på fyra sidor, och med en annan siffra eller antalet fläckar på de två återstående sidorna, skulle det vara mer troligt att den förstnämnda skulle dyka upp än den senare; men om det hade tusen sidor markerade på samma sätt, och bara en sida annorlunda, skulle sannolikheten vara mycket högre och vår tro eller förväntan på händelsen mer stabil och säker. Denna process med tanken eller resonemanget kan verka trivial och uppenbar; men för dem som anser det snävare, kan det kanske ge saker för nyfikna spekulationer. (Hume 1748: Avsnitt VI,”På sannolikhet” 1)

Här mäts kunskapen om framtiden som en grad av tro i termer av sannolikhet, som i sin tur förklaras i termer av antalet konfigurationer som ett deterministiskt system i världen kan ha. De grundläggande byggstenarna för en modern informationsteori finns på plats. Med detta nya kunskapsbegrepp lägger empirikerna grunden för den senare utvecklingen av termodynamik som en reduktion av den sekundära kvaliteten på värme till kroppens primära egenskaper.

Samtidigt verkar termen”information” ha tappat mycket av sin tekniska betydelse i empirikernas skrifter, så att denna nya utveckling inte betecknas som en ny tolkning av begreppet”information”. Locke använder ibland frasen som våra sinnen "informerar" oss om världen och använder ibland ordet "information".

För vilken information, vilken kunskap, bär detta förslag i det, nämligen.”Bly är en metall” till en man som känner till den komplexa idé som namnet bly står för? (Locke 1689: bk IV, kap 8, punkt 4)

Hume verkar använda information på samma avslappnade sätt när han observerar:

Två föremål, även om de perfekt liknar varandra och till och med uppträder på samma plats vid olika tidpunkter, kan vara numeriskt olika: Och eftersom kraften, genom vilken ett objekt producerar ett annat, aldrig kan upptäckas enbart från deras idé, är det uppenbart orsak och effekt är relationer, av vilka vi får information från erfarenhet, och inte från något abstrakt resonemang eller reflektion. (Hume 1739: Del III, avsnitt 1)

Empirikernas metodik är inte utan problem. Den största frågan är att all kunskap blir sannolik och efterhand. Immanuel Kant (1724–1804) var en av de första som påpekade att det mänskliga sinnet har ett grepp om metabegreppen rymd, tid och kausalitet som i sig aldrig kan förstås som ett resultat av en ren kombination av "idéer".. Dessutom tillåter dessa intuitioner vi med säkerhet formulera vetenskapliga insikter: det vill säga att summan av vinklarna på en triangel i det euklidiska rymden är 180 grader. Denna fråga kan inte förklaras i den empiriska ramen. Om kunskap skapas med hjälp av en kombination av idéer måste det finnas en priori syntes av idéer i det mänskliga sinnet. Enligt Kant innebär detta att det mänskliga sinnet kan utvärdera sin egen förmåga att formulera vetenskapliga bedömningar. I sin Kritik der reinen Vernunft (1781) utvecklade Kant transcendental filosofi som en undersökning av de nödvändiga villkoren för mänsklig kunskap. Även om Kants transcendentala program inte direkt bidrog till utvecklingen av informationsbegreppet, påverkade han forskningen till grundvalen av matematik och kunskap som är relevant för detta ämne under det nittonde och tjugonde århundradet: t ex Frege, Husserl, Russell, Brouwer, L. Wittgenstein, Gödel, Carnap, Popper and Quine.han påverkade forskningen i grundvalen av matematik och kunskap som var relevant för detta ämne under det nittonde och tjugonde århundradet: t.ex. arbetet av Frege, Husserl, Russell, Brouwer, L. Wittgenstein, Gödel, Carnap, Popper och Quine.han påverkade forskningen i grundvalen av matematik och kunskap som var relevant för detta ämne under det nittonde och tjugonde århundradet: t.ex. arbetet av Frege, Husserl, Russell, Brouwer, L. Wittgenstein, Gödel, Carnap, Popper och Quine.

2.4 Historisk utveckling av betydelsen av termen "Information"

Historien för termen”information” är intrikat relaterad till studien av centrala problem inom epistemologi och ontologi i västerländsk filosofi. Efter en start som en teknisk term i klassiska och medeltida texter försvann termen "information" nästan från den filosofiska diskursen i modern filosofi, men fick popularitet i samtalstal. Gradvis fick termen status som ett abstrakt massnamn, en betydelse som är ortogonal till den klassiska processorienterade betydelsen. I denna form plockades den upp av flera forskare (Fisher 1925; Shannon 1948) under det tjugonde århundradet som införde formella metoder för att mäta”information”. Detta leder i sin tur till en återupplivning av det filosofiska intresset för informationsbegreppet. Denna komplexa historia verkar vara en av de främsta orsakerna till svårigheterna med att formulera en definition av ett enhetligt informationsbegrepp som tillfredsställer alla våra intuitioner. Åtminstone tre olika betydelser av ordet”information” är historiskt relevanta:

”Information” som informationsprocessen

Detta är den äldsta betydelsen man finner i författarnas skrifter som Cicero (106–43 fvt) och Augustin (354–430 e. Kr.) och det går förlorat i den moderna diskursen, även om föreningen av information med processer (dvs. beräkning, flytande eller skicka ett meddelande) finns fortfarande. I klassisk filosofi kan man säga att när jag känner igen en häst som sådan, så är "hästens" form planterad i mitt sinne. Den här processen är min "information" om hästens natur. Även handlingen om undervisning kan kallas”information” för en elev. På samma sätt kan man säga att en skulptör skapar en skulptur genom att”informera” ett stycke marmor. Skulptörens uppgift är statyns "information" (Capurro & Hjørland 2003). Denna processorienterade mening överlevde ganska länge i västeuropeiska diskurs:även på sjuttonhundratalet kunde Robinson Crusoe hänvisa till sin tjänares utbildning på fredag som hans”information” (Defoe 1719: 261). Det används också i denna mening av Berkeley:”Jag älskar information om alla ämnen som kommer på mitt sätt, och särskilt om de som är viktigast” (Alciphron Dialogue 1, avsnitt 5, punkt 6/10, se Berkeley 1732).

"Information" som ett tillstånd av en agent

dvs som ett resultat av informationsprocessen. Om man lär en elev teoremet om Pythagoras, efter det att denna process har avslutats, kan studenten sägas”ha informationen om Pythagoras teorem”. I denna mening är termen "information" resultatet av samma misstänkta form av underbyggnad av ett verb (informare (gt) informatio) som många andra tekniska termer i filosofi (substans, medvetande, subjekt, objekt). Denna typ av termbildning är beryktad för de konceptuella svårigheter den skapar. Kan man härleda det faktum att jag”har” medvetande från det faktum att jag är medveten? Kan man härleda det faktum att jag”har” information från det faktum att jag har informerats? Omvandlingen till denna moderna underbyggda betydelse verkar ha varit gradvis och verkar ha varit allmän i Västeuropa åtminstone från mitten av femtonde århundradet. Under renässansen kunde en forskare kallas”en informationsman”, på samma sätt som vi nu kan säga att någon fick en utbildning (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). I “Emma” av Jane Austen kan man läsa: “Mr. Martin antar att jag inte är en man med information utanför sin egen verksamhet. Han läser inte”(Austen 1815: 21).mycket på samma sätt som vi nu kunde säga att någon fick en utbildning (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). I “Emma” av Jane Austen kan man läsa: “Mr. Martin antar att jag inte är en man med information utanför sin egen verksamhet. Han läser inte”(Austen 1815: 21).mycket på samma sätt som vi nu kunde säga att någon fick en utbildning (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). I “Emma” av Jane Austen kan man läsa: “Mr. Martin antar att jag inte är en man med information utanför sin egen verksamhet. Han läser inte”(Austen 1815: 21).

"Information" som disposition att informera

dvs som en förmåga att informera en agent. När handlingen om att lära mig Pythagoras teorem lämnar mig med information om detta teorem, är det bara naturligt att anta att en text där teoremet förklaras faktiskt "innehåller" denna information. Texten har kapacitet att informera mig när jag läser den. På samma sätt, när jag har fått information från en lärare, kan jag överföra denna information till en annan elev. Därmed blir information något som kan lagras och mätas. Detta sista informationsbegrepp som ett abstrakt massnamn har samlat bred acceptans i det moderna samhället och har hittat sin slutgiltiga form under 1800-talet, vilket tillåter Sherlock Homes att göra följande iakttagelse:"… vän Lestrade innehöll information i sina händer om värdet som han inte själv visste" ("The Noble Bachelor Adventure", Conan Doyle 1892). Föreningen med de tekniska filosofiska uppfattningarna som”form” och”informera” har försvunnit från det allmänna medvetandet även om sambandet mellan information och processer som lagring, insamling, datoranvändning och undervisning fortfarande finns.

3. Byggstenar av moderna teorier om information

I efterhand har många uppfattningar som har att göra med optimala kodesystem, ideala språk och föreningen mellan dator- och bearbetningsspråk varit återkommande teman i den filosofiska reflektionen sedan sjuttonhundratalet.

3.1 Språk

Ett av de mest detaljerade förslagen till ett universellt”filosofiskt” språk gjordes av biskopen John Wilkins:”En uppsats mot ett verkligt karaktär och ett filosofiskt språk” (1668). Wilkins projekt bestod av ett utarbetat system av symboler som förmodligen var förknippade med entydiga begrepp i verkligheten. Förslag som dessa gjorde filosofer känsliga för de djupa sambanden mellan språk och tanke. Den empiriska metodiken gjorde det möjligt att föreställa sig utvecklingen av språket som ett system med konventionella tecken när det gäller föreningar mellan idéer i det mänskliga sinnet. Frågan som för närvarande är känd som symboljordningsproblemet (hur får godtyckliga tecken deras inter-subjektiva betydelse) var en av de mest diskuterade frågorna under artonhundratalet i samband med problemet med språkens ursprung. Olika tänkare som Vico, Condillac, Rousseau, Diderot, Herder och Haman gav bidrag. Den centrala frågan var om språket gavs i förväg (av Gud) eller om det konstruerades och därmed en uppfinnelse av människan själv. Typisk var tävlingen som utfärdades av Royal Prussian Academy of Sciences år 1769:

En supposant les hommes abandonnés à leurs facultés naturelles, sont-ils en état d'inventer le langage? Et par quels moyens parviendront-ils d'eux-mêmes à cette uppfinningen?

Om man antar att män övergivna till sina naturliga fakulteter, kan de uppfinna språk och på vilket sätt kommer de att komma till denna uppfinning? [1]

Kontroversen gick i över ett sekel utan någon slutsats och 1866 förvisade Linguistic Society of Paris (Société de Linguistique de Paris) frågan från sin arena. [2]

Filosofiskt mer relevant är Leibniz (1646–1716) verk på en så kallad characteristica universalis: idén om en universell logisk kalkyl som skulle vara det perfekta redskapet för vetenskapligt resonemang. En central förutsättning i Leibniz 'filosofi är att ett sådant perfekt vetenskapsspråk i princip är möjligt på grund av världens perfekta natur som Guds skapelse (ratio essendi = ration cognoscendi, ursprunget att vara är ursprunget till att veta) Denna princip förkastades av Wolff (1679–1754) som föreslog mer heuristiskt orienterade characteristica combinatoria (van Peursen 1987). Dessa idéer var tvungna att vänta på tänkare som Boole (1854, En undersökning av lagarnas tankar), Frege (1879, Begriffsschrift),Peirce (som redan 1886 föreslog att elektriska kretsar skulle kunna användas för att bearbeta logiska operationer) och Whitehead och Russell (1910–1913, Principia Mathematica) för att hitta en fruktbarare behandling.

3.2 Optimala koder

Det faktum att frekvenserna på bokstäver varierar på ett språk var känt sedan uppfinningen av boktryck. Skrivare behövde många fler "e" och "t" än "x" eller "q" för att ställa in en engelsk text. Denna kunskap användes i stor utsträckning för att avkoda chiffer sedan sjuttonhundratalet (Kahn 1967; Singh 1999). 1844 bestämde en assistent av Samuel Morse, Alfred Vail, frekvensen för bokstäver som användes i en lokal tidning i Morristown, New Jersey, och använde dem för att optimera Morse-koden. Således var kärnan i teorin om optimala koder redan etablerad långt innan Shannon utvecklade sin matematiska grund (Shannon 1948; Shannon & Weaver 1949). Historiskt viktiga men filosofiskt mindre relevanta är Charles Babbages ansträngningar för att konstruera datormaskiner (Difference Engine 1821,och Analytical Engine 1834–1871) och Ada Lovelace (1815–1852) försök att utforma det som anses vara det första programmeringsspråket för Analytical Engine.

3.3 Nummer

Det enklaste sättet att representera siffror är via ett unärt system. Här är längden på representationen av ett nummer lika med storleken på själva numret, dvs antalet "tio" representeras som "". Det klassiska romerska talssystemet är en förbättring eftersom det innehåller olika symboler för olika storleksordning (en = I, tio = X, hundra = C, tusen = M). Detta system har enorma nackdelar eftersom man i princip behöver en oändlig mängd symboler för att koda de naturliga siffrorna och på grund av detta tar samma matematiska operationer (tillägg, multiplikation etc.) olika former i olika storleksordning. Cirka 500 CE uppfanns numret noll i Indien. Genom att använda noll som platshållare kan vi koda ett oändligt antal med en ändlig uppsättning symboler (en = I, tio = 10, hundra = 100, tusen = 1000 etc.). Ur ett modernt perspektiv är ett oändligt antal positionssystem möjliga så länge vi har 0 som platshållare och ett ändligt antal andra symboler. Vårt normala decimaltalssystem har tio siffror "0, 1, 2, 3, 4, 5, 6, 7, 8, 9" och representerar antalet tvåhundrafemifem som "255". I ett binärt talsystem har vi bara symbolerna "0" och "1". Här representeras två hundra femtiofem som "11111111". I ett hexadecimalt system med 16 symboler (0, 1, 2, 3, 4, 5, 6, 7, 8, 9, a, b, c, d, e, f) kan samma nummer skrivas som "ff". Observera att längden på dessa representationer skiljer sig avsevärt. Med hjälp av denna representation kan matematiska operationer standardiseras oavsett storleksordning för siffror vi har att göra med, dvs möjligheten till en enhetlig algoritmisk behandling av matematiska funktioner (tillägg,subtraktion, multiplikation och delning etc.) är associerade med ett sådant positionssystem.

Begreppet ett positionsnumersystem fördes till Europa av den persiska matematikern al-Khwarizmi (ca 780 – ca 850 e. Kr.). Hans huvudverk på siffror (ca. 820 e. Kr.) översattes till latin som Liber Algebrae et Almucabola under det tolfte århundradet, vilket gav oss bland annat termen”algebra”. Vårt ord "algoritm" härstammar från Algoritmi, den latinska formen av hans namn. Positionella nummersystem förenklade kommersiella och vetenskapliga beräkningar.

1544 introducerade Michael Stifel begreppet exponent för ett nummer i Arithmetica integra (1544). Således kan 8 skrivas som (2 ^ 3) och 25 som (5 ^ 2). Begreppet en exponent föreslår omedelbart idén om en logaritm som dess omvända funktion: (log_b b ^ a) = a). Stifel jämförde den aritmetiska sekvensen:

[-3, -2, -1, 0, 1, 2, 3)

där termen 1 har en skillnad på 1 med den geometriska sekvensen:

(frac {1} {8}, / frac {1} {4}, / frac {1} {2}, 1, 2, 4, 8)

där termerna har ett förhållande på 2. Exponentnotationen tillät honom att skriva om värdena i den andra tabellen som:

[2 ^ {- 3}, 2 ^ {- 2}, 2 ^ {- 1}, 2 ^ 0, 2 ^ 1, 2 ^ 2, 2 ^ 3)

som kombinerar de två borden. Detta var utan tvekan den första logaritmiska tabellen. En mer definitiv och praktisk teori om logaritmer utvecklas av John Napier (1550–1617) i sitt huvudverk (Napier 1614). Han myntade termen logaritm (logotyper + aritmetik: antal siffror). Som framgår av matchningen mellan aritmetiska och geometriska framsteg, reducerar logaritmer produkter till summor:

(log_b (xy) = / log_b (x) + / log_b (y))

De minskar också uppdelningen till skillnader:

(log_b (x / y) = / log_b (x) - / log_b (y))

och befogenheter till produkter:

(log_b (x ^ p) = p / log_b (x))

Efter publicering av loggaritmiska tabeller av Briggs (1624) fick denna nya teknik för att underlätta komplexa beräkningar snabbt popularitet.

3.4 Fysik

Galileo (1623) hade redan föreslagit att analysen av fenomen som värme och tryck kunde reduceras till studien av rörelse hos elementära partiklar. Inom den empiriska metodiken kan detta tänkas som frågan hur den sensoriska upplevelsen av den sekundära värmekvaliteten hos ett objekt eller en gas kan reduceras till partiklarnas rörelser. Bernoulli (Hydrodynamica publicerad 1738) var den första som utvecklade en kinetisk teori om gaser där makroskopiskt observerbara fenomen beskrivs i termer av mikrostater av system av partiklar som följer lagarna i den Newtonska mekaniken, men det var en ganska intellektuell ansträngning att komma fram med en adekvat matematisk behandling. Clausius (1850) tog ett avgörande steg när han introducerade uppfattningen om den genomsnittliga fria vägen för en partikel mellan två kollisioner. Detta öppnade vägen för en statistisk behandling av Maxwell som formulerade sin distribution 1857, som var den första statistiska lagen i fysik. Den definitiva formeln som band alla föreställningar ihop (och som är graverad på hans gravsten, även om den faktiska formeln beror på Planck) utvecklades av Boltzmann:

[S = k / log W)

Den beskriver systemets entropi i termer av logaritmen för antalet möjliga mikrostater W, i överensstämmelse med de observerbara makroskopiska tillstånden i systemet, där k är den välkända Boltzmann-konstanten. I all sin enkelhet kan värdet av denna formel för modern vetenskap knappast överskattas. Uttrycket "(log W)" kan ur informationsteorins perspektiv tolkas på olika sätt:

  • Som mängden entropi i systemet.
  • Som längden på antalet som behövs för att räkna alla möjliga mikrostater som överensstämmer med makroskopiska observationer.
  • Som längd på ett optimalt index måste vi identifiera den specifika okända mikrostaten i systemet, dvs. det är ett mått på vår "brist på information".
  • Som ett mått på sannolikheten för alla typiska specifika mikrostater i systemet som överensstämmer med makroskopiska observationer.

Således kopplar den additiv karaktär av logaritm med de omfattande egenskaperna av entropi, sannolikhet, typiskhet och information och det är ett grundläggande steg i användningen av matematik för att analysera naturen. Senare förfinade Gibbs (1906) formeln:

[S = - / sum_i p_i / ln p_i,)

där (p_i) är sannolikheten för att systemet finns i (i ^ { textrm {th}}) mikrostaten. Denna formel antogs av Shannon (1948; Shannon & Weaver 1949) för att karakterisera kommunikationsentropin för ett meddelandesystem. Även om det finns en nära koppling mellan den matematiska behandlingen av entropi och information, har den exakta tolkningen av detta faktum varit en källa till kontroverser sedan dess (Harremoës & Topsøe 2008; Bais & Farmer 2008).

4. Utvecklingen inom informationsfilosofi

De moderna teorierna om information kom fram i mitten av det tjugonde århundradet i ett specifikt intellektuellt klimat där avståndet mellan vetenskaperna och delar av den akademiska filosofin var ganska stort. Vissa filosofer visade en specifik antivetenskaplig inställning: Heidegger, “Die Wissenschaft denkt nicht.”Å andra sidan diskuterade filosoferna från Wiener Kreis helt öppen traditionell filosofi som hanterade illusionära problem (Carnap 1928). Forskningsprogrammet för logisk positivism var en rigorös rekonstruktion av filosofin baserad på en kombination av empirism och de senaste framstegen inom logik. Det är kanske på grund av detta intellektuella klimat som tidigt viktig utveckling i teorin om information skedde isolerat från den vanliga filosofiska reflektionen. Ett landmärke är Dretskes arbete i början av åttiotalet (Dretske 1981). Sedan sekelskiftet har intresset för informationsfilosofi ökat avsevärt, till stor del under påverkan av Luciano Floridis arbete på semantisk information. Även den snabba teoretiska utvecklingen av kvantberäkning och den tillhörande uppfattningen av kvantinformation har haft det påverkan på filosofisk reflektion.

4.1 Popper: Information som förfalskningsgrad

Forskningsprogrammet för logisk positivism av Wiener Kreis under första hälften av det tjugonde århundradet återupplivade det äldre empirismprojektet. Dess ambition var att rekonstruera vetenskaplig kunskap på grundval av direkta observationer och logiska förhållanden mellan uttalanden om dessa observationer. Den gamla kritiken av Kant på empirism återupplivades av Quine (1951). Inom ramen för logisk positivism var induktion ogiltig och orsakssamband kunde aldrig fastställas objektivt. I sin Logik der Forschung (1934) formulerar Popper sitt välkända avgränsningskriterium och han positionerar detta uttryckligen som en lösning på Humes induktionsproblem (Popper 1934 [1977: 42]). Vetenskapliga teorier som är formulerade som allmänna lagar kan aldrig verifieras definitivt, men de kan förfalskas genom endast en observation. Detta innebär att en teori är "mer" vetenskaplig om den är rikare och ger mer möjlighet att förfalskas:

Således kan man säga att mängden empirisk information som förmedlas genom en teori, eller dess empiriska innehåll, ökar med dess grad av förfalskning. (Popper 1934 [1977: 113], betoning i original)

Detta citat, i samband med Poppers forskningsprogram, visar att ambitionen att mäta mängden empirisk information i vetenskaplig teori som uppfattades som en uppsättning logiska uttalanden redan erkändes som ett filosofiskt problem mer än ett decennium innan Shannon formulerade sin teori om information. Popper är medveten om det faktum att det empiriska innehållet i en teori är relaterat till dess förfalskbarhet och att detta i sin tur har en relation med sannolikheten för påståenden i teorin. Teorier med mer empirisk information är mindre troliga. Popper skiljer logisk sannolikhet från numerisk sannolikhet ("som används i teorin om spel och chanser och i statistik"; Popper 1934 [1977: 119]). I en passage som är programmatisk för den senare utvecklingen av informationsbegreppet definierar han begreppet logisk sannolikhet:

Den logiska sannolikheten för ett uttalande är komplement till dess förfalskning: det ökar med minskande grad av förfalskning. Den logiska sannolikheten 1 motsvarar graden 0 förfalskbarhet och vice versa. (Popper 1934 [1977: 119], betoning i original)

Det är möjligt att tolka numerisk sannolikhet som att tillämpas på en efterföljande (utvald ur den logiska sannolikhetsrelationen) för vilken ett måtsystem kan definieras, på basis av frekvensberäkningar. (Popper 1934 [1977: 119], betoning i original)

Popper lyckades aldrig formulera en god formell teori för att mäta denna mängd information även om han i senare skrifter föreslår att Shannons informationsteori kan vara användbar (Popper 1934 [1977], 404 [Bilaga IX, från 1954]). Dessa frågor utvecklades senare inom vetenskapsfilosofin. Konformationsteori studerar induktionsteori och hur bevis "stöder" en viss teori (Huber 2007 [OIR]). Även om Carnaps arbete motiverade en viktig utveckling inom både vetenskapsfilosofi och informationsfilosofi verkar kopplingen mellan de två disciplinerna ha gått förlorad. Det nämns inget om informationsteori eller något av det mer grundläggande arbetet med informationsfilosofi i Kuipers (2007a), men de två disciplinerna har verkligen överlappande domäner. (Se t.ex.diskussionen av den så kallade Black Ravens Paradox av Kuipers (2007b) och Rathmanner & Hutter (2011).)

4.2 Shannon: Information definierad i sannolikhetsvillkor

I två landmärkesuppsatser kännetecknade Shannon (1948; Shannon & Weaver 1949) kommunikationsentropin för ett system med meddelanden A:

[H (P) = - / sum_ {i / i A} p_i / log_2 p_i)

Här (p_i) är sannolikheten för meddelandet i i A. Detta är exakt formeln för Gibbs entropi i fysik. Användningen av bas-2-logaritmer säkerställer att kodlängden mäts i bitar (binära siffror). Det framgår lätt att kommunikationsentropin för ett system är maximal när alla meddelanden har lika sannolikhet och således är typiska.

Mängden information I i ett enskilt meddelande x ges av:

[I (x) = - / logg p_x)

Denna formel, som kan tolkas som inversen från Boltzmann-entropin, täcker ett antal av våra grundläggande intuitioner om information:

  • Ett meddelande x har en viss sannolikhet (p_x) mellan 0 och 1 som inträffar.
  • Om (p_x = 1) då (I (x) = 0). Om vi är säkra på att få ett meddelande innehåller det bokstavligen inga "nyheter" alls. Ju lägre sannolikheten för meddelandet är, desto mer information innehåller det. Ett meddelande som "Solen kommer att gå upp imorgon" verkar innehålla mindre information än meddelandet "Jesus var kejsare" exakt för att det andra uttalandet är mycket mindre troligt att försvaras av någon (även om det finns på webben).
  • Om två meddelanden x och y inte är relaterade är (I (x / textrm {och} y) = I (x) + I (y)). Informationen är omfattande. Mängden information i två kombinerade meddelanden är lika med summan av mängden information i de enskilda meddelandena.

Information som sannolikhetens negativa logg är den enda matematiska funktionen som exakt uppfyller dessa begränsningar (Cover & Thomas 2006). Shannon erbjuder ett teoretiskt ramverk där binära strängar kan tolkas som ord på ett (programmeringsspråk) som innehåller en viss mängd information (se 3.1 språk). Uttrycket (- / log p_x) ger exakt längden på en optimal kod för meddelandet x och som sådan formaliserar den gamla intuitionen att koder är mer effektiva när frekventa bokstäver får kortare representationer (se 3.2 Optimala koder). Logaritmer som en minskning av multiplikation till tillägg (se 3.3 Siffror) är en naturlig representation av omfattande egenskaper hos system och redan som sådan hade använts av fysiker under nittonhundratalet (se 3.4 Fysik).

En aspekt av information som Shannons definition uttryckligen inte täcker är det faktiska innehållet i meddelanden som tolkas som förslag. Så uttalandet "Jesus var kejsare" och "Månen är gjord av grön ost" kan innehålla samma mängd information medan deras betydelse är helt annorlunda. En stor del av insatsen i informationsfilosofin har riktats mot formuleringen av mer semantiska informationsteorier (Bar-Hillel & Carnap 1953; Floridi 2002, 2003, 2011). Även om Shannons förslag till en början nästan helt ignorerades av filosofer har det under de senaste decennierna blivit uppenbart att deras inverkan på filosofiska frågor är stor. Dretske (1981) var en av de första som analyserade de filosofiska implikationerna av Shannons teori,men det exakta förhållandet mellan olika logiksystem och informationsteori är fortfarande oklart (se 6.6 Logik och semantisk information).

4.3 Solomonoff, Kolmogorov, Chaitin: Information som längd på ett program

Detta problem med att relatera en uppsättning uttalanden till en uppsättning observationer och definiera motsvarande sannolikhet togs upp av Carnap (1945, 1950). Han skilde två former av sannolikhet: Sannolikhet (_ 1) eller "grad av bekräftelse" (P_1 (h; e)) är en logisk relation mellan två meningar, en hypotes h och en mening e som rapporterar en serie observationer. Uttalanden av denna typ är antingen analytiska eller motsägelsefulla. Den andra formen, Probability (_ 2) eller "relativ frekvens", är det statistiska konceptet. Med orden från sin student Solomonoff (1997):

Carnaps modell av sannolikhet började med en lång sekvens av symboler som var en beskrivning av hela universum. Genom sin egen formella språkliga analys kunde han tilldela priori-sannolikheter till alla möjliga sträng av symboler som kan representera universum.

Metoden för att tilldela sannolikheter som Carnap använde, var inte universell och berodde starkt på de använda kodsystemen. En allmän teori om induktion med hjälp av Bayes regel kan endast utvecklas när vi kan tilldela en universell sannolikhet till "alla möjliga strängar" av symboler. I ett papper 1960 var Solomonoff (1960, 1964a, b) den första som skisserade en översikt över en lösning för detta problem. Han formulerade uppfattningen om vad som nu kallas en universell sannolikhetsfördelning: överväga uppsättningen av alla möjliga begränsade strängar som program för en universal Turing-maskin U och definiera sannolikheten för en sträng x symboler i termer av längden på det kortaste programmet p som matar ut x på U.

Denna uppfattning om algoritmisk informationsteori uppfanns oberoende något senare separat av Kolmogorov (1965) och Chaitin (1969). Levin (1974) utvecklade ett matematiskt uttryck för den universella a priori-sannolikheten som en universell (dvs maximal) lägre semikomputabel semimätning M, och visade att den negativa logaritmen av (M (x)) sammanfaller med Kolmogorov-komplexiteten hos x upp till en additiv logaritmisk term. Den faktiska definitionen av komplexitetsmåttet är:

Kolmogorov-komplexitet Den algoritmiska komplexiteten för en sträng x är längden (cal {l} (p)) för det minsta programmet p som producerar x när den körs på en universal Turing-maskin U, noterad som (U (p) = x):

[K (x): = / min_p {l (p), U (p) = x })

Algoritmisk informationsteori (alias Kolmogorov-komplexitetsteori) har utvecklats till ett rikt forskningsfält med ett brett spektrum av applikationsdomäner, av vilka många är filosofiskt relevanta (Li & Vitányi 1997):

  • Det ger oss en allmän teori om induktion. Användningen av Bayes regel möjliggör en modern omformulering av Ockhams rakkniv i termer av Minimum Description Length (Rissanen 1978, 1989; Barron, Rissanen, & Yu 1998; Grünwald 2007) och minsta meddelandelängd (Wallace 2005). Observera att Domingos (1998) har hävdat mot dessa principers allmänna giltighet.
  • Det gör att vi kan formulera sannolikheter och informationsinnehåll för enskilda objekt. Även enskilda naturliga siffror.
  • Den lägger grunden för en teori om lärande som datakomprimering (Adriaans 2007).
  • Det ger en definition av en strängs slumpmässighet när det gäller inkomprimerbarhet. Detta i sig har lett till en helt ny forskningsdomän (Niess 2009; Downey & Hirschfeld 2010).
  • Det tillåter oss att formulera ett objektivt priori-mått på teorins förutsägbara värde i termer av dess slumpmässighet: dvs. den bästa teorin är den kortaste teorin som gör att data ser slumpmässiga villkorade till teorin. (Vereshchagin & Vitányi 2004).

Det finns också nedre sidor:

  • Algoritmisk komplexitet är okomputerbar, även om den i många praktiska fall kan approximeras och kommersiella komprimeringsprogram i vissa fall kommer nära det teoretiska optimumet (Cilibrasi & Vitányi 2005).
  • Algoritmisk komplexitet är ett asymptotiskt mått (dvs. det ger ett värde som är korrekt upp till en konstant). I vissa fall är värdet på denna konstant oöverkomligt för användning i praktiska syften.
  • Även om den kortaste teorin alltid är den bästa när det gäller slumpmässig brist, är inkrementell komprimering av alt="sep man icon" /> Hur man citerar detta inlägg.

    sep man ikon
    sep man ikon

    Förhandsgranska PDF-versionen av det här inlägget på SEP-samhällets vänner.

    ino-ikon
    ino-ikon

    Slå upp det här ämnet vid Internet Philosophy Ontology Project (InPhO).

    phil papper ikon
    phil papper ikon

    Förbättrad bibliografi för detta inlägg på PhilPapers, med länkar till dess databas.

    Andra internetresurser

    • Aaronson, Scott, 2006, Reasons to Believe, Shtetl-optimerad blogginlägg, 4 september 2006.
    • Adriaans, Pieter W., 2016, "En allmän teori för information och beräkning", opublicerat manuskript, november 2016, arXiv: 1611.07829.
    • Bekenstein, Jacob D., 1994, "Förstår vi Black Hole Entropy?", Plenarsamtal vid sjunde Marcel Grossman-mötet vid Stanford University., ArXiv: gr-qc / 9409015.
    • Churchill, Alex, 2012, Magic: the Gathering is Turing Complete.
    • Cook, Stephen, 2000, The P versus NP Problem, Clay Mathematical Institute; Millenniumprisproblemet.
    • Huber, Franz, 2007, Bekräftelse och induktion, inträde i Internet Encyclopedia of Philosophy.
    • Sajjad, H. Rizvi, 2006, “Avicenna / Ibn Sina”, inträde i Internet Encyclopedia of Philosophy.
    • Goodman, L. och Weisstein, EW, 2019, “The Riemann Hypothesis”, från MathWorld - A Wolfram Web Resource.
    • Beräknbarhet - Vad skulle det betyda att motbevisa Church-Turing-avhandling?, Diskussion om Theoretical Computer Science StackExchange.
    • Prime Number Theorem, Encyclopedia Britannica, 20 december 2010.
    • Generator för slumpmässigt hårdvara, Wikipedia-post, november 2018

Rekommenderas: