www.wikidata.de-de.nina.az
Der Begriff der Entropie bzw der sozialen Entropie fand in die Sozialwissenschaften insbesondere in das Gebiet der Soziologischen Systemtheorie innerhalb der Soziologie Eingang als ein ursprunglich aus der Physik ubernommenes Mass fur Ungleichheit oder Unordnung Sie wird zumeist als ein Mass fur den Grad der Ordnung bzw Unordnung innerhalb eines sozialen Systems verstanden beispielsweise zur Beschreibung der sozialen Ungleichheit Teils wird als soziale Entropie auch anstelle eines skalierbaren Masses die Tendenz zur Veranderung sozialer Strukturen verstanden 1 Dieser Artikel wurde auf der Qualitatssicherungsseite des Portals Soziologie eingetragen Dies geschieht um die Qualitat der Artikel aus dem Themengebiet Soziologie auf ein akzeptables Niveau zu bringen Hilf mit die inhaltlichen Mangel dieses Artikels zu beseitigen und beteilige dich an der Diskussion Artikel eintragen Begrundung Bitte um Ubernahme Pflege und Ausbau des LD Restes Emergency doc Disk 15 42 14 Apr 2014 CEST Inhaltsverzeichnis 1 Begriff der Entropie 2 Kritik des Begriffes der Entropie 2 1 Wortwahl 2 2 Das Verhaltnis von Entropie und Unordnung 2 3 Umgang des Menschen mit Entropie 2 4 Intuition und implizites Wissen um Entropie 3 Informationstheoretische Entropie 3 1 Beispiel der Theil Index 3 1 1 Redundanz ist die Differenz zweier Entropien 3 1 2 Des Einen Ordnung ist des Anderen Unordnung 3 1 3 Ubereinstimmung von Formel und Entropie Erklarung 4 Entropie als Mass des Unwissens 4 1 Statistische Physik 4 2 Makrozustand und seine Mikrozustande 4 3 Fluktuationen 5 Zusammenfuhrung der verschiedenen Entropie Konzepte 6 Literatur 7 Weblinks 8 EinzelnachweiseBegriff der Entropie BearbeitenEine der menschlichen Intuition entgegenkommende Weise die Bedeutung von Entropie verstandlich darzustellen besteht darin nicht die Entropie selbst sondern die Veranderung von Entropie zu betrachten also die Zunahme oder die Verringerung von Entropie Entropiezunahme ist Informationsverlust Gilbert Newton Lewis schrieb im Jahr 1930 Eine Zunahme der Entropie bedeutet Informationsverlust und nichts Anderes 2 Die kurze Zusammenfassung einer Erklarung der Entropie von Murray Gell Mann im Jahr 1994 lautet Entropie ist Informationsmangel dessen Grosse an dem Aufwand gemessen wird der zur Behebung dieses Informationsmangels erforderlich ware Einzelheiten s u Zur Entropieverringerung benotigt ein System seine Umwelt Ein System kann seine Entropie nur durch die Belastung seiner Umwelt verringern Dazu muss es offen sein Verringert eines seiner Subsysteme seine Entropie so muss entweder die Summe der Entropien der ubrigen Subsysteme im Gesamtsystem ansteigen oder das Gesamtsystem muss seine Umwelt mit Entropie belasten Entropiezunahme verringert die Veranderungsfahigkeit eines Systems Ein System mit niedriger Entropie kann sich leichter ohne Belastung seiner Umwelt verandern als ein System mit hoher Entropie Verandert sich ein System unabhangig von seiner Umwelt dann nimmt seine Entropie zu Ein System mit maximaler Entropie kann sich aus eigener Kraft uberhaupt nicht mehr verandern Diese beiden Tatsachen treffen auf die Subsysteme eines Systems gleichermassen zu Kritik des Begriffes der Entropie BearbeitenWortwahl Bearbeiten Der Physiker Leon Cooper fuhrt Schwierigkeiten den Begriff der Entropie zu verstehen im Wesentlichen auf die Wahl des falschen Begriffes durch Rudolf Clausius zuruck anstelle den Namen dem Korper der zeitgenossischen Sprachen zu entnehmen gelang es ihm ein Wort zu pragen das fur Alle dieselbe Sache bedeutete Nichts 3 Clausius begrundete seine Wortwahl damit dass er alte Sprachen fur wichtige wissenschaftliche Grossen bevorzuge weil sie in alten Sprachen fur alle dasselbe bedeuteten Und Claude Shannon wahlte anstatt des von ihm ursprunglich angedachten Begriffs der Ungewissheit uncertainty den Begriff der Entropie fur die Informationstheorie weil er eine wohl etwas ironisch gemeinte Idee von John von Neumann ubernahm niemand weiss was Entropie wirklich ist also wird man in der Debatte immer einen Vorteil haben Darum leitet der israelische Thermodynamiker Arieh Ben Naim 1934 ein Lehrbuch uber statistische Thermodynamik mit einer Begrundung ein warum er den Begriff der Entropie durch den Begriff fehlende Information MI Missing Information ersetzt 4 Das Verhaltnis von Entropie und Unordnung Bearbeiten Durch die haufige und populare Gleichsetzung von Entropie mit Unordnung bietet sich die Verwendung des Begriffs der Entropie jeder Wissenschaft an die ordnende Prozesse und die Ordnung sozialer Systeme erforscht Oft wird Entropie als Synonym fur Unordnung auch in popularen Darstellungen sozialwissenschaftlicher Themen verwendet Ein Beispiel ist Soziale Entropie 5 ein Begriff der Makrosoziologie mit dem in der offentlichen Diskussion oft wertend Soziale Unordnung gemeint ist Die Gleichsetzung von Entropie mit Unordnung ist jedoch umstritten Sie ist zwar nicht prinzipiell unzulassig aber die Zulassigkeit der Gleichsetzung ist abhangig von vielen Zusatzbedingungen darunter subjektive Sichtweisen und normative Wertungen Der Gebrauch der Entropie als Synonym fur Unordnung fuhrt daher leicht zu Aussagen die verwirrend unklar und anfechtbar sind Arieh Ben Naim zeigt in Entropy Demystified 2007 dass das Konzept von Ordnung und Unordnung bei der Erklarung der Entropie nicht hilfreich ist und dass eine Erklarung der Wirkmechanismen auch der thermodynamischen Entropie exakt nur uber die Informationstheorie und Wahrscheinlichkeitstheorie moglich ist Der Begriff der Entropie sei zwar zunachst in der Physik entwickelt worden ihm lage aber die Informations und Wahrscheinlichkeitstheorie zugrunde 6 Man kann Ordnung im Sinn von geordnet sein auffassen als die gemeinsame Eigenschaft mehrerer Teile zusammen ein funktionsfahiges System zu bilden Das kann ein Arbeitsplatz sein bei dem alle Dinge dort sind wo sie gebraucht werden Ein Auto bei dem alles was zusammen gehort richtig montiert ist das ist in Ordnung Meist gibt es nur wenige Anordnungen der einzelnen Teile die ein funktionsfahiges System ergeben aber ungleich mehr die dieses Kriterium nicht erfullen und deshalb als Unordnung empfunden werden Hier bietet sich eine Analogie mit dem Entropiebegriff an der ursprunglich im Zusammenhang mit der Verteilung von Molekulen gepragt wurde aber genauso fur die Verteilung von Froschen in einem Teich gilt Es gibt nur wenige Anordnungen bei dem die Frosche oder die Molekule ein geometrisches Muster bilden aber viel mehr Anordnungen bei denen sie beliebig verteilt sind Dieser Zustand ist viel wahrscheinlicher Die Anzahl der Verteilungsmoglichkeiten ist das Mass fur die Wahrscheinlichkeit dass man beim zufalligen Hingucken ein geordnetes oder ein ungeordnetes Bild sieht Der naturliche Logarithmus dieser Anzahl ist nach Ludwig Boltzmann die Entropie 7 Die wenigen Anordnungen die ein sinnvolles Ganzes ergeben und als geordneter Zustand gelten sind durch einen kleinen Entropiebetrag charakterisiert Ein Zustand der Unordnung ist von hoher Wahrscheinlichkeit da es viele Moglichkeiten gibt ihn zu realisieren Entsprechend hoch ist seine Entropie Da nichts Funktionierendes damit verbunden ist werden Unordnung und hohe Entropie als negativ empfunden Umgang des Menschen mit Entropie Bearbeiten Im Umgang mit Entropie kann der Mensch nur eingeschrankt auf Intuition zuruckgreifen 8 weswegen seine Sorge vorwiegend der Suche nach sogenannten Energiequellen gilt ohne die mit jeder Energieumwandlung verbundene Entropieproduktion und die Notwendigkeit von Entropiesenken zum Beispiel Lagerstatten fur Abfallstoffe gleichermassen zu berucksichtigen Zunehmend werden jedoch die Prozesse mit denen Entropie in die Umwelt exportiert wird wegen ihrer belastenden Effekte wahrgenommen Dazu gehort insbesondere die Produktion von Abfallstoffen In der Wirtschaft und Politik ist Entropieproduktion eine Belastung der von der Gesellschaft geteilten Umwelt die in vielen Landern bereits besteuert wird Solche Entropiesteuern 9 mit denen nach dem Verursacherprinzip Umweltbelastung besteuert 10 wird werden heute in der Regel als Okosteuern implementiert Die Verringerung von Entropieproduktion kann auch subventioniert werden beispielsweise durch die Forderung effizienter Antriebe Heizungen usw Mit dem Emissionsrechtehandel wurde das Recht zum Export von Entropie in die gemeinschaftlich genutzte Biosphare zu einem Handelsgut 11 Intuition und implizites Wissen um Entropie Bearbeiten Siddhartha Gautama Woher konnte erlangt werden dass was geboren geworden zusammengesetzt dem Verfall unterworfen ist da doch nicht verfallen sollte das gibt es nicht 12 Menschen verfugen uber ein implizites Wissen um die Grenzen der Umkehrbarkeit der Zerstorung von Strukturen zum Beispiel Dinge und Lebewesen In der Auseinandersetzung mit Entropie und den mit ihr verbundenen Gesetzmassigkeiten erkennt der Mensch intuitiv Vorgange die als unmoglich empfunden werden und in denen gegen den zweiten Hauptsatz der Thermodynamik gegen die Wahrscheinlichkeitstheorie usw verstossen wird Sieht der Mensch in einem Film wie ein Haus sich aus Schutt und Asche wieder selbststandig aufbaut weiss er intuitiv dass der Film ruckwarts abgespielt wird Der Mensch hat also ein implizites Wissen um die Gesetze von Unumkehrbarkeit und Umkehrbarkeit Er fuhlt oft ohne den Grund dafur beschreiben zu konnen dass sich die Entropie eines Systems ohne Hilfe der Umwelt des Systems nicht verringern kann Die Intuition des Menschen basiert auf lebenswichtigem impliziten Wissen Im Gegensatz dazu ist Wissen um die Folgen eigenen Handelns zum Teil auch eine Hemmung der eigenen Entfaltungsmoglichkeiten Hier warnt den Menschen nicht das Wissen um die Beeinflussung der Umwelt durch eigenes Handeln sondern das Wissen um gesellschaftliche Sanktionen und personliche Verluste Soweit Warnungen vor wahrscheinlichen schadlichen Folgen fur den Handelnden nicht erforderlich sind kann Verdrangung und Wissensvermeidung helfen die hoherprioritare eigene Entfaltung nicht durch storendes Wissen zu beeintrachtigen Struktur findet diese in Glaubenssystemen in denen Wunder zugelassen sind und so den handelnden Menschen von seiner Verantwortung befreien Das sind die Ursachen fur die Schwierigkeiten des Menschen mit seinen heutigen Energieumwandlungsmoglichkeiten die in entwicklungsgeschichtlich derart kurzer Zeit um Grossenordnungen anwuchsen dass der Mensch hierzu noch kein angemessenes implizites und kollektives Wissen aufbauen konnte 8 Informationstheoretische Entropie Bearbeiten Hauptartikel Entropie Informationstheorie Als ein Mass der Informationstheorie hielt die Shannon Entropie Einzug in die Sozialwissenschaften bei der Entwicklung von Konzentrationsmassen und Kennzahlen fur die Ungleichverteilung beispielsweise der Einkommensverteilung und Vermogensverteilung Hieraus entstanden die Entropiemasse von Henri Theil 13 14 Anthony Atkinson 13 15 und Serge Christophe Kolm 15 Der Theil Index und das Atkinson Mass werden jedoch nicht nur bei der Untersuchung von Einkommens und Vermogensverteilungen verwendet sondern beispielsweise in der Soziologie auch bei der Beobachtung der Segregation von Bevolkerungsgruppen Beispiel der Theil Index Bearbeiten Die Bezeichnung Entropiemass bereitet selbst hervorragenden Wissenschaftlern Schwierigkeiten In On Economic Inequality Kapitel 2 11 16 meinte Amartya Sen dass der Begriff Entropie nicht gerade intuitiv sei Zwar sei die von seinem Mitautor James Foster verwendete Theil Entropie interessant aber es wunderte ihn dass eine hohe Ungleichverteilung beispielsweise von Einkommen eine hohe Entropie und damit eine hohe Unordnung ergabe Sen geht sogar soweit Theils Formel als willkurlich zu bewerten Redundanz ist die Differenz zweier Entropien Bearbeiten Verfugt ein System in einer seiner Kategorien uber Redundanz so bedeutet das dass sich das System in dieser Kategorie mit eigenen Mitteln verandern kann Wie die Redundanz eines Systems sich fur die Kategorie der internen Ressourcenverteilung aus der Differenz zweier Entropien des Systems ermitteln lasst zeigt die Berechnung des Theil Index der ein in der Soziometrie und der Okonometrie benutztes Ungleichverteilungsmass ist das Henri Theil aus der Informationstheorie ableitete Im Hinblick auf Allgemeinverstandlichkeit soll dieser Artikel ohne Formeln auskommen nur im Folgenden wird einmal eine Ausnahme gemacht und Theils Index stellvertretend fur alle als Entropiemass gestaltete Ungleichverteilungsmasse herangezogen Die Einzelheiten sind im Hauptartikel Theil Index erklart Mit der hier angegebenen Variante der Formel konnen Ungleichverteilungen berechnet werden bei denen N mit Quantilen abgegrenzte Bereiche in diesem Beispiel sind das Gruppen von Einkommensbeziehern eine unterschiedliche Breite A displaystyle A nbsp haben E i displaystyle E i nbsp sei das Einkommen im i ten Bereich und A i displaystyle A i nbsp sei die Anzahl oder der prozentuale Anteil der Einkommensbezieher im i ten Bereich 17 E g e s a m t displaystyle E mathrm gesamt nbsp sei die Summe der Einkommen aller N Bereiche und A g e s a m t displaystyle A mathrm gesamt nbsp sei die Summe der Einkommensbezieher aller N Bereiche oder 100 Sens Verwunderung ist in diesem Fall nicht der Problematik s o der Gleichsetzung von Entropie und Unordnung zuzuschreiben sondern die Auflosung von Sens Problem ergibt sich wenn man Theils Formeln 18 in zwei Teile aufteilt und wie folgt darstellt Die in einen linken und einen rechten Teil aufgeteilte Formel fur Bevolkerungsanteile die sich auf Einkommen verteilen arbeitet mit auf Einkommen bezogenen Summanden T T ln A g e s a m t E g e s a m t i 1 N E i ln A i E i E g e s a m t displaystyle T T ln frac A mathrm gesamt E mathrm gesamt frac sum i 1 N E i ln frac A i E i E mathrm gesamt nbsp Die in einen linken und einen rechten Teil aufgeteilte Formel fur Einkommen die sich auf Bevolkerungsanteile verteilen hat auf Bevolkerungsanteile bezogenen Summanden 19 T L ln E g e s a m t A g e s a m t i 1 N A i ln E i A i A g e s a m t displaystyle T L ln frac E mathrm gesamt A mathrm gesamt frac sum i 1 N A i ln frac E i A i A mathrm gesamt nbsp Tatsachlich enthalt jede der beiden Formeln zwei Entropien Der Teil links vom Minuszeichen ist die maximale Entropie bei Gleichverteilung Der Teil rechts vom Minuszeichen ist die tatsachliche Entropie fur eine tatsachlich gegebene Verteilung Eine solche Differenz ist in Anlehnung an die Informationstheorie 20 keine Entropie sondern eine Redundanz Amartya Sen wunderte sich zu Recht Der Theil Index ist keine Theil Entropie sondern eine Theil Redundanz Als Differenz zweier Entropien bleibt jedoch auch die Redundanz in der Entropiedomane Obwohl Theils Atkinsons und Kolms Ungleichverteilungsmasse Redundanzen sind kann man sie deswegen weiterhin als Entropiemasse bezeichnen Sie als Entropien zu bezeichnen kann dagegen zu Verwirrungen fuhren Mit normalisierten Daten E i E i E gesamt displaystyle E i E i E text gesamt nbsp und A i A i A gesamt displaystyle A i A i A text gesamt nbsp werden die Formeln noch einfacher T T 0 i 1 N E i ln A i E i 1 i 1 N E i ln E i A i displaystyle T T 0 frac sum i 1 N E i ln frac A i E i 1 sum i 1 N E i ln frac E i A i nbsp T L 0 i 1 N A i ln E i A i 1 i 1 N A i ln A i E i displaystyle T L 0 frac sum i 1 N A i ln frac E i A i 1 sum i 1 N A i ln frac A i E i nbsp Die maximale Entropie wird hierbei auf null verschoben Die tatsachliche gegebene Verteilung stellt sich dann als eine negative Entropie dar Das ist die Redundanz Der Mittelwert beider Redundanzen ist ein symmetrisierter Theil Index T s 1 2 i 1 N ln E i A i E i A i displaystyle T s frac 1 2 sum i 1 N ln frac E i A i left E i A i right nbsp Des Einen Ordnung ist des Anderen Unordnung Bearbeiten Das Beispiel verdeutlicht auch die Problematik der Gleichsetzung von Entropie mit Unordnung Bei Erreichen einer volligen Gleichverteilung nimmt der Theil Index den Wert null an Das ist maximale Entropie beziehungsweise minimale Redundanz Aber bedeutet das auch maximale Unordnung Ist maximale Konzentration maximale Ordnung Wenn leichte Auffindbarkeit ein Kriterium fur Ordnung ware dann bestunde maximale Ordnung tatsachlich bei maximaler Ungleichverteilung denn diese Verteilung ergibt sich wenn zum Beispiel das gesamte Vermogen einer Gesellschaft bei einer einzigen Person untergebracht ist Das Kriterium der leichten Auffindbarkeit stunde mit der informationstheoretischen Definition von Entropie als Mass des Informationsmangels im Einklang Um das bei einem Einzigen untergebrachte Vermogen Aller zu finden muss nur eine einzige Adresse erfragt und mitgeteilt werden Dieser kleine Informationsmangel ist einfach zu beheben In einer realen Gesellschaft gabe es bei dieser maximalen Ordnung jedoch auch maximalen Unfrieden verursacht durch als maximal empfundene Ungerechtigkeit Fur Egalitaristen ist maximale Ordnung jedoch die Gleichverteilung des Vermogens Empirische Untersuchungen 21 zeigen jedoch dass viele Menschen eine Ungleichverteilung in einem unscharfen Bereich zwischen totaler Gleichverteilung und totaler Ungleichverteilung fur optimal halten Ubereinstimmung von Formel und Entropie Erklarung Bearbeiten Theils Formel steht auch im Einklang mit Gell Manns Erklarung der Entropie in der von einem Aufwand die Rede ist Links vom Minuszeichen ist A gesamt E gesamt displaystyle A text gesamt E text gesamt nbsp beispielsweise das gleichverteilte Vermogen pro Besitzer Wie wird nun der Informationsaufwand berechnet der erforderlich ist um den sich aus diesem Bruch ergebenden Quotienten darzustellen Das geschieht mit einer skalierenden Funktion die Logarithmus genannt wird Der Logarithmus einer Zahl ist proportional zu dem Aufwand der gebraucht wird um diese Zahl aufzuschreiben Das ist der Informationsaufwand der erforderlich ist das gleichverteilte Pro Kopf Vermogen mitzuteilen Rechts vom Minuszeichen ist A i E i displaystyle A i E i nbsp das tatsachliche Vermogen pro Besitzergruppe Auch hier beschreibt wieder der Logarithmus dieser Zahl den Platz der gebraucht wird um diese Zahl aufzuschreiben Da die Gruppe aber weniger Gewicht hat als das Ganze mussen die einzelnen Aufwande noch mit E i E gesamt displaystyle E i E text gesamt nbsp gewichtet werden Entropie als Mass des Unwissens BearbeitenMurray Gell Mans Erklarung der Entropie als zur Minderung des Unwissens notiger Aufwand wurde am Anfang dieses Artikels nur verkurzt wiedergegeben Seine Erklarung wurde von Ilya Prigogine kritisiert 22 weil er meinte man konne so durch Wissensanderung in einem geschlossenen System die Entropie verringern Darum ist es wichtig bei Gell Manns Definition zu beachten dass sie nicht festlegt dass die Behebung des Informationsmangels tatsachlich erfolgen muss Es geht um den potenziellen Aufwand zur Behebung von Informationsmangel Wurde der Aufwand im geschlossenen System realisiert und dadurch eine Entropieminderung bewirkt so wurde diese Minderung durch eine vom Aufwand bewirkte Entropiesteigerung mindestens kompensiert werden Hier schliesst sich schon wieder der Kreis zu Leo Szilard s o der basierend auf diesem Zusammenhang zeigte dass intelligente Wesen einschliesslich Maxwells Damon in einem geschlossenen System die Entropie nicht verringern konnen Statistische Physik Bearbeiten Entropie wurde zuerst als physikalische Grosse in der Thermodynamik verwendet und phanomenologisch verstanden Erklarbar sind die ihr zugrunde liegenden Vorgange und Zusammenhange mit den Erkenntnissen aus der von Ludwig Boltzmann begrundeten Statistischen Physik auch Statistische Mechanik genannt Systematisch bietet sich darum Boltzmanns Entropie als gemeinsame Basis fur die Erklarung sowohl der thermodynamischen nach Clausius als auch der informationstheoretischen Entropie nach Shannon an 23 Makrozustand und seine Mikrozustande Bearbeiten Sozialwissenschaftler beschreiben mit Mitteln der Statistik beispielsweise die Makrozustande einer Gesellschaft die sich aus den vielen Mikrozustanden der in ihrer Umwelt handelnden Menschen ergeben Gegebenenfalls sind diese Mikrozustande fur sich auch wieder Makrozustande die sich auf noch kleinere Mikrozustande herunterbrechen lassen Das fuhrt zu komplexen Systemen die nur auf der Makroebene gefuhrt 24 werden konnen Das Wissen um das Zusammenwirken der Mikrozustande hilft die moglichen Makrozustande abzuschatzen aber die Mikrozustande selbst entziehen sich der praktischen Handhabbarkeit Auch in der statistischen Physik werden die Makrozustande eines Systems als eine statistische Beschreibung der Mikrozustande behandelt die zu den Makrozustanden fuhren Beispielsweise ist die Temperatur eine statistische Grosse im Makrobereich die im Mikrobereich ortlich und zeitlich fluktuiert und sich aus dem einzelnen Verhalten der vielen Partikel des Korpers ergibt fur den diese Temperatur gemessen wird Selbst wenn das Verhalten eines einzelnen Partikels beobachtbar ware konnte eine Beobachtung aller Partikel in den in unserer Alltagswelt fur uns mit blossem Auge sichtbaren Korpern nicht realisiert werden Dieses Beispiel dient nun dazu die Begriffe Makro und Mikrozustand einzufuhren bevor eine der Moglichkeiten folgt Entropie zu erklaren Die Entropie und Information haben einen engen Zusammenhang Tatsachlich kann Entropie als ein Mass des Unwissens verstanden werden Wenn nur bekannt ist dass sich ein System in einem gegebenen Makrozustand befindet dann beschreibt die Entropie eines Makrozustandes den Grad des Unwissens uber den Mikrostatus Dieser Grad ist die Anzahl der Bits der zusatzlichen Information die noch benotigt wird um den Mikrostatus vollstandig zu spezifizieren Dabei werden alle Mikrozustande als gleichermassen wahrscheinlich behandelt 25 In einer Systemtheorie fur Psychologen beschreibt Norbert Bischof Entropie in ahnlicher Weise als das Mass fur das Quantum an unvorhersehbarer Aktualitat also an Information das im Durchschnitt durch jeden Auswahlakt der Signalquelle erzeugt wird 26 Nach Richard Becker ist Entropie nicht Unwissen sondern eine Funktion des Unwissens S k ln Unkenntnis 27 Damit bleibt die Entropie auch hier ein Mass des Unwissens Fluktuationen Bearbeiten Fluktuationen sind denkbare kurzzeitige lokale Konzentrationsunterschiede und damit lokale Entropieverminderungen Bei einem grossen Makrosystem kann das Auftreten lokaler Fluktuationen beobachtbar werden Viele fur sich betrachtet niedrige Auftrittswahrscheinlichkeiten konnen zu einer ausreichend hohen Wahrscheinlichkeit fuhren dass irgendwo doch ein unerwartetes Ereignis beobachtbar wird Die Moglichkeit von Fluktuationen bedeutet dass bei der Systemanalyse sorgfaltig verstanden werden muss ob bei Systemen mit wenigen Makrozustanden Schwankungen durch kurze Fluktuationen zu berucksichtigen sind derentwegen aufeinanderfolgende Zustande nicht mehr durch einen Anstieg der Entropie zu identifizieren sind Ausserdem kann hinsichtlich der Unendlichkeit und auch der Lange der Menschheitsgeschichte kurz auch fur viele Jahre stehen Fur die Sozialwissenschaften bedeutet das dass nicht immer sicher ist ob ein Zustand zum Beispiel Wirtschaftswachstum von signifikanter Dauer ist oder nur eine Fluktuation vorliegt Zusammenfuhrung der verschiedenen Entropie Konzepte BearbeitenDie strukturelle Kopplung zwischen Wirtschaft und Gesellschaft sowie zwischen Gesellschaft und materieller Umwelt erlaubt verschiedenste Arten von Entropietransfer also auch eine Wechselwirkung von Informationsentropien und thermodynamischen Entropien Wie weit die physische Entropie mit der metaphysischen Entropie zusammengefuhrt werden kann ist jedoch in der Diskussion 28 Zwei Wege die dort hinfuhren wurden bereits angesprochen Die Entropie der Informationstheorie wird in die Thermodynamik uberfuhrt 29 Die thermodynamische Entropie wird informations und wahrscheinlichkeitstheoretisch erklart 4 6 Tatsachlich ist eine Erklarung der Wirkmechanismen der thermodynamischen Entropie exakt uber die Wahrscheinlichkeitstheorie moglich Die quantitative Angabe der Entropie und die quantitative Beschreibung von Entropie Anderungen in komplexen 30 Systemen bleibt schwierig bis unmoglich was mit der Entropie der beschreibenden Systeme Menschen und ihre Hilfsmittel zu erklaren ist Trotzdem ist ein Verstandnis fur die Wirkung von Entropie von Systemen siehe Einleitung dieses Artikels hilfreich um die Wechselwirkung zwischen Systemen und ihrer Umwelt zu verstehen 31 Dazu gehort die prinzipielle Unmoglichkeit autarken Handelns Offnet sich ein System dann ist der Verzicht auf Unabhangigkeit das Ziel dieser Offnung Literatur BearbeitenKenneth D Bailey Social entropy theory State University of New York Press New York 1990 ISBN 978 0 7914 0056 2 englisch 310 S Karl Michael Brunner Soziale Entropie Die Natur Gesellschaft Differenz am Beispiel thermodynamischer Gesellschaftsmodelle In Karl Siegbert Rehberg Hrsg Differenz und Integration Band 2 Westdt Verlag Opladen 1997 ISBN 3 531 12878 7 online Konferenzbeitrag Jakl Thomas Sietz Manfred Hrsg Nachhaltigkeit fassbar machen Entropiezunahme als Mass fur Nachhaltigkeit Tagungsband zum Symposium am 27 April 2012 Diplomatische Akademie Wien 2012 Welf A Kreiner Entropie was ist das Uberblick fur Studierende und Lehrer Weblinks Bearbeiten nbsp Wiktionary Entropie Bedeutungserklarungen Wortherkunft Synonyme Ubersetzungen Nachhaltigkeit fassbar machen Umweltbundesamt 2012 Wien Einzelnachweise Bearbeiten Ditmar Brock u a Soziologische Paradigmen nach Talcott Parsons Eine Einfuhrung 1 Auflage VS Verlag fur Sozialwissenschaften Wiesbaden 2009 ISBN 978 3 531 16216 4 S 388 eingeschrankte Vorschau in der Google Buchsuche Lewis Gilbert Newton 1930 The Symmetry of Time in Physics Science 71 0569 Leon Neil Cooper 1968 An Introduction to the Meaning and the Structure of Physics a b Ben Naim Arieh 2008 A Farewell to Entropy Statistical Thermodynamics Based on Information Wohlcke Manfred 2003 Das Ende der Zivilisation Uber soziale Entropie und kollektive Selbstzerstorung a b Ben Naim Arieh 2007 Entropy Demystified Kapitel 8 2 The Association of Entropy with Disorder Ludwig Boltzmann 2008 Entropie und Wahrscheinlichkeit Ostwalds Klassiker der Exakten Wissenschaften Bd 286 Verlag Harry Deutsch a b Verbeeck Bernhard 1998 Anthropologie der Umweltzerstorung Scheer Hermann 1998 Sonnen Strategie darin Die Entropiesteuer Kapitel 8 Peter Kafka 1998 Zeit zum Aufstehen Memento des Originals vom 22 Oktober 2007 imInternet Archive nbsp Info Der Archivlink wurde automatisch eingesetzt und noch nicht gepruft Bitte prufe Original und Archivlink gemass Anleitung und entferne dann diesen Hinweis 1 2 Vorlage Webachiv IABot www peterkafka de Man konnte diese Steuer aufs Durcheinanderwerfen der Biosphare auch als Entropiesteuer bezeichnen Luhmann Niklas 1988 Die Wirtschaft der Gesellschaft In dem Buch zeigt Luhmann dass in der Wirtschaft ausschliesslich Geld das Kommunikationsmedium ist eine physikalische Grosse wie Entropie kann im operativ geschlossenen Wirtschaftssystem nicht kommuniziert werden Die Wirtschaft ist jedoch soweit mit ihrer Umwelt strukturell gekoppelt dass die Umwelt Kommunikation im Wirtschaftssystem bewirkt Diese erfolgt allerdings immer uber das Kommunikationsmittel Geld Deswegen wird in dieser Kommunikation des Handels keine direkt wahrnehmbare Beziehung zwischen Umweltbelastung und Kosten vermittelt Vermutlich aus dem Jahr 483 v Chr uberliefert Mahaparinibbana Sutta Digha Nikaya 16 3 6 a b Cowell Frank A 2002 2003 Theil Inequality and the Structure of Income Distribution PDF 320 kB London School of Economics and Political Sciences mit Bezugnahmen zu der Klasse der Kolm Indizes das sind Masszahlen fur Ungleichverteilungen wie zum Beispiel der Theil Index Theil Henri 1971 Principles of Econometrics a b Tsui Kai Yuen 1995 Multidimensional Generalizations of the Relative and Absolute Inequality Indices The Atkinson Kolm Sen Approach Journal of Economic Theory 67 251 265 Sen Amartya 1997 On Economic Inequality Enlarged Edition with a substantial annexe after a Quarter Century with James Foster Oxford Die Notation mit E und A folgt der Notation einer kleinen Formelsammlung von Lionnel Maugis Inequality Measures in Mathematical Programming for the Air Traffic Flow Management Problem with En Route Capacities fur IFORS 96 1996 Cuong Nguyen Viet 2007 Do Foreign Remittances Matter to Poverty and Inequality Evidence from Vietnam Memento des Originals vom 25 Marz 2009 imInternet Archive nbsp Info Der Archivlink wurde automatisch eingesetzt und noch nicht gepruft Bitte prufe Original und Archivlink gemass Anleitung und entferne dann diesen Hinweis 1 2 Vorlage Webachiv IABot economicsbulletin vanderbilt edu Die Formeln gelten fur Bereiche mit gleicher Breite Quantile mit gleichem Abstand Die hier im Artikel angegebenen Formeln kann man auch auf Bereiche mit unterschiedlicher Breite anwenden Helpman Elhanan 2004 The Mystery of Economic Growth Die beiden Formeln entsprechen den beiden vom Autor auf S 150 erwahnten Berechnungsweisen des Theil Index In der ersten Formel erfolgt die Gewichtung durch den Einkommensanteil in der zweiten durch den Bevolkerungsanteil Der Mittelwert beider Formeln fuhrt zu dem im Artikel Theil Index fur den Vergleich mit der Hoover Ungleichverteilung benutzten symmetrierten Theil Index ISO IEC DIS 2382 16 1996 definiert die Redundanz in der Informationstheorie Amiel Cowell F A 1999 Thinking about inequality 1999 Prigogine Ilya 1997 The End of Certainty Time Chaos and the New Laws of Nature Ben Naim Arieh 2007 Entropy Demystified popularwissenschaftlich Ben Naim Arieh 2008 Statistical Thermodynamics Based on Information A Farewell to Entropy Lehrbuch Malik Fredmund 1984 2006 Strategie des Managements komplexer Systeme Gell Mann Murray 1994 The Quark and the Jaguar Zitat zur besseren Verstandlichkeit syntaktisch und grammatisch leicht verandert Ignorance wurde mit Unwissen ubersetzt Norbert Bischof 1998 Struktur und Bedeutung Im Original Quelle anstelle von Signalquelle im Zitat Richard Becker 1955 Theorie der Warme Vojta Gunter Vojta Matthias 2000 Taschenbuch der statistischen Physik Kapitel 7 Statistische Physik und Informationstheorie Lange Franz H 1966 Signale und Systeme Band 3 S 64 Ebeling W Freund J Schweitzer F 1998 Komplexe Strukturen Entropie und Information Vojta Gunter Vojta Matthias 2000 Taschenbuch der statistischen Physik Kapitel 13 2 2 Stochastische Theorien des Verhaltens Immerhin eroffnen sich durch Anwendung der Methoden der statistischen Physik neue Wege zur Erforschung und zum Verstandnis des Verhaltens sehr komplexer Systeme der Soziologie Okologie und Okonomie Abgerufen von https de wikipedia org w index php title Entropie Sozialwissenschaften amp oldid 228829737