Matthias Horx  Theorie der Trend- und Zukunftsforschung

Theorie der integrierten Prognostik

Interessieren Sie sich für Hintergründe, Philosophien und
vertiefte Methodik-Probleme der prognostischen
Wissenschaften?

Diese Texte sind im Rahmen meines Prognostik-Seminars
an der Zeppelin-Universität entstanden.
Sie sind "work in progress" und werden ständig
ergänzt und weitergeschrieben.

Eine Zusammenfassung der wichtigsten Ansätze der Integrierten Prognostik finden Sie hier:
Integrierte Systemische Prognostik.

Ich freue mich über Kommentare, Ergänzungen, Kritik, Anregungen und Literaturhinweise:
>>> Kommentar verfassen

HAUPTKAPITEL (zum Aufklappen auf ein Kapitel klicken):

<< voriges Kapitel (1.11) Übersicht nächstes Kapitel (1.13) >>

1.12  Future Bias – Prognostische Irrtümer

The most important thing to realize about systems of animal communication is that they are not expected to be systems for the dissemination of truth. Instead, they are expected to be systems by which individual organisms attempt to maximize their fitness by communicating to other things that may be true or false.
(Robert Trivers)

Future Bias – die psychologischen Ursachen von Fehlprognosen

Die Weiterentwicklung prognostischer Systeme setzt  eine Analyse der Prognose-IRRTÜMER voraus – und eine Evaluation der bewussten wie unbewussten Methoden, mit denen Prognosen erstellt werden.

Der Psychologe Daniel Gilbert unterscheidet in seinem Buch „Stumbling on Happiness” zwischen zwei grundsätzlichen Varianten der Zukunfts-Vorausschau:

  • Die instinktive Verknüpfung
    von Erfahrungen und Sinneseindrücken im Gedächtnis­speicher, wie sie auch Tiere haben können: „Wenn es so riecht, werde ich gleich gefressen!”.
  • Die Bildung mentaler Modelle für die Zukunft
    Diese wird vom frontalen Stirnlappen (präfrontalen Cortex) koordiniert. Der Verlust dieses Gehirnteils führt zur absoluten Gegenwarts-Zentrierung. Menschen, die ohne „Zukunftsgehirn” existieren, können logische Aufgaben lösen und haben einen fast normalen IQ. Sie verlieren jedoch ihre Fähigkeit zur PLANUNG.
    {Gilbert, 2008 S. 38 ff}

    Viele Prognosen tragen (unbewusst) BEIDE Aspekte in sich. Prognosen haben, jenseits der professionellen Ausübung, Intentionen. In diesen Intentionen sind die „Verzerrungen” (Bias) bereits implizit vorhanden.

    „Der wichtigste Grund, warum unser Hirn darauf besteht, die Zukunft zu simulieren, selbst wenn wir lieber in der Gegenwart sein sollten, besteht darin, dass es die zukünftigen Erfahrungen kontrollieren will.”
    (Gilbert S. 51)

Gilbert führt u. a. folgende Gründe für die Alltäglichkeit von Fehlprognosen auf:

  • Emotionale Gegenwarts-Übertragung:

    Wir schließen von der Gegenwart auf die Zukunft, denn „Denken” ist ein körperlich-seelischer Prozess, der eng mit unserem momentanen Gefühls-Zustand zusammenhängt. Wer satt ist, kann sich Hunger kaum vorstellen, wer gerade das Steigen seiner Aktien erlebt, dessen emotionales System ist auf Euphorie geprägt, er kann sich den Crash nicht vorstellen. VOR-FÜHLEN und VOR-DENKEN sind nicht dasselbe, werden aber ständig verwechselt (s. 209 ff).

  • Die Ignoranz von Nichtereignissen:

    Menschliche Wahrnehmung ist an die sinnliche Phänomenologie gebunden – wir „sortieren” die Umwelt nach Ereignissen und Geschehnissen mit Evidenz-Charakter. Dabei ignorieren wir, was NICHT sichtbar wird, obwohl dies gerade für den Zukunftsverlauf entscheidend sein kann.

    „Wir haben die besorgniserregende Tendenz, zukünftige Ereignisse, die wir uns nicht vorstellen, so zu behandeln, als würden sie nicht eintreten.” (S. 175 ff)
    (siehe auch Taleb, Nassim Nicholas: The Black Swan – The Impact of the Highly Improbable, New York, Random House, 2007.)

  • Die Vergangenheits-Fälschung:

    Menschen fälschen Erinnerungen, um eine positive Bewertung der Gegenwart oder ein bestimmtes Bild der Zukunft zu bewahren.
    (S. 284 ff, „Der Realität gegenüber immun”).

  • Falsche Kausalität:

    Wir neigen dazu, einseitige kausale Zusammenhänge zu vermuten. Diese Vermutungen haben oft entlastenden Charakter, weil sie die Verantwortung für eine Entwicklung auf ferne (nicht beeinflussbare) oder abstrakte Kategorien verschieben. So glauben viele Menschen, dass Ereignisse und Prozesse von „Werten” gesteuert werden. Werte sind aber primär (mental-psychologische) ERGEBNISSE von Prozessen und gesellschaftlichen Verhältnissen und nicht deren Ursachen.

Scheinlinearität und Unterkomplexität

Der häufigste Prognosefehler entsteht durch die Tendenz zur linearen Modellbildung, mit der wir Entwicklungen von Vergangenheit zu Gegenwart „nach Vorne verlängern”.

Menschen neigen zu linearen Verlängerungen von Trends im Sinne eindeutiger mathematischer Reihen. Wenn der (lineare) Verlauf von A nach B bekannt ist, neigt man automatisch zu C als wahrscheinlichstem Zukunfts-Zustand.

AUSGEBLENDET werden die systemischen Reaktionen auf dem Weg von B nach C. Diese bestehen in REAKTIONEN und ADAPTIONEN, die auf dem Weg von B nach C entstehen – ökonomischen, sozialen, politischen Veränderungen, Handlungs-Aktivierungen, neuen Erkenntnissen, und / oder Veränderungen des Umfelds, in dem der (scheinlineare) Trend stattfindet. Die Wahrscheinlichkeit „that the trend will bend” wird ignoriert. Das Modell wird dadurch unterkomplex.

Der „Urvater” dieses Prognosefehlers findet sich in der alten Prognose von Malthus, der Ende des 18. Jahrhunderts eine unvermeidliche Bevölkerungs-Explosion mit nach­folgenden weltweiten Hungerkatastrophen mit Millionen Toten voraussagte.

Malthus konnte sich eine Veränderung der Parameter, auf denen sein Modell basierte, nicht vorstellen: Die Produktivitäts-Steigerung der Landwirtschaft, den Rückgang der Geburtenraten, die Veränderung der Produktionen durch die Industrielle Revolution.

In veränderter Form finden sich diese „Eskalations-Fehler” bis heute in den meisten ökologisch besorgten Prognosen zur „Zukunft der Menschheit”. Die Szenarien des „Club of Rome” waren „malthusianisch” inspiriert, die meisten Katastrophen-Szenarien sind es bis heute.

Die Abbildung "Steam Trip" aus dem Jahre 1820 zeigt exemplarisch die Nicht-Antizipation kultureller Adaption im Kontext neuer Technologien. Die Eisenbahnwelt wird als Weiterführung des Obrigkeits-Staates gezeigt, die Menschen fahren in Eisenbahnen wie in Kutschen, oder sie reiten auf Lokomotiven. Technische Entwicklung wird hier als eindimensionale Beschleunigung antizipiert, das Verhältnis zwischen Technik und Soziotechnik nicht erkannt (siehe auch M.Horx: Eine kleine Floppologie, in „Technolution”, Campus, 2008).

Ähnlich wird in dieser Illustration des häuslichen Lebens der Zukunft aus den 60er Jahren die Sozialblindheit der (damaligen) Prognostik deutlich: Die Rollenverteilung ändert sich trotz / wegen der Hochtechnologisierung der Küche keinen Deut. Die Mutter „regiert” die Küche, der Mann und die Kinder stehen fordernd am Rand.

Das Beispiel eines Butlers in der „Modernen Zeit” verdeutlicht die Unterkomplexität mit Hilfe von Humor: Ein (feudaler) Haushalt der Zukunft wird als mechanische Voll­automatisierungs-Phantasie, analog zum Modell der Fabrik, gezeigt; der Butler bleibt derselbe, der er immer war, nur mit unendlicher Freizeit.

Prä-Selektion der Angst und Risk Bias

Nehmen wir an, Sie sind nachts um drei in einer Großstadt unterwegs. Es ist zwar Ihre Heimatstadt, aber man kann ja nicht wissen, man liest so viel in der Zeitung. Am anderen Ecke einer schlecht beleuchteten Straße nehmen sie eine Bewegung wahr. Eine Katze? Dann taucht eine Gestalt auf. Erst ist sie nur ein undeutlicher Schatten. Dann erscheint eine Silhouette. Im Licht der Straßenlaternen werden die Konturen, die Gangart sichtbar. Die Gestalt kommt näher. Formen sich da Muskeln aus einem Schulterteil? Ist das eine Lederjacke? Ist das nicht eine Waffe, ein Knüppel unter der Jacke trägt? Wie ist der Gang? Forsch? Betrunken? Aggressiv? Wo habe ich meine Brieftasche versteckt? Funktioniert mein Handy?

Ach nein, es ist nur Tante Edith, fröhlich auf dem Heimweg von ihrem Bridge-Stammtisch, die ihre Handtasche unter den Arm geklemmt hat! Was will Tante Edith denn hier mitten in der Nacht?

Unser antizipierendes Hirn funktioniert nach dem Prinzip der PRÄ-SELEKTION (siehe „1.02 Die Zukunftsmaschine Mensch”): Wir schalten Informationen in einer bestimmten Reihenfolge frei. Dies entspricht einem Schichten-Modell, das die evolutionären Entwicklungsstufen der Organismen repräsentiert: Ganz unten, in den limbischen Systemen, sitzt unser altes Reflex-Zentrum, das uns zur sofortigen Flucht oder entschiedenem Kampf zwingt. Darüber gruppieren sich die Säugetier-Funktionen, die uns erweiterte Optionen der Kommunikation und Moderation zur Verfügung stellen.

Erst in einer weiteren Stufe stehen die rationalen Funktionen zur Verfügung. Menschliche Wahrnehmung selektiert Umwelt-Wahrnehmungen entlang dieser aufsteigenden Achse schaltet nun relevante Informationen nach einer strikten Reihenfolge frei: Zunächst kommen die Signale, die existentielle Bedrohungen hinweisen. Dann, irgendwann, mit meist großer Verzögerung, werden spezifische Informationen über das Phänomen selbst verarbeitet.

Da Prognosen immer auch Kommunikationen sind (siehe „1.08 Prognosen als Kommunikationen”) werden in der öffentlichen Wahrnehmung Angst-Prognosen besonders aufmerksam wahrgenommen (prä-selektiert). Durch den Konformitätsdruck (siehe unten) kommt es dann zur allgemeinen Zustimmung zu Bedrohungs-Szenarien, die nicht besonders wahrscheinlich sind.

Aberglaube, Religion, Angst, Paranoia, Panik, Alarmismus, Skandalisierung sind wichtige Bestandteile menschlichen Reaktionsvermögens.
„Forecasts can be fearcasts”, sagt Daniel Gilbert.

In der Fehleinschätzung von Bedrohungen wirkt zudem ein psychologischer Effekt der „Übertragungs-Entlastung”. Risikoforscher wie Lutz Niemann und Peter Sandmann haben in ihrer Arbeit nachgewiesen, dass Menschen Risiken „entlastungs-strategisch” betrachten. So werden zum Beispiel Gefahren, die von radioaktiver Strahlung ausgehen, gewaltig überschätzt – während mögliche Folgeschäden des Rauchens und des Alkohols, zweier Alltags-Suchtgifte, einfach ignoriert werden.
(siehe z.B. „Wie gefährlich sind radioaktive Strahlen – Über Krebsgefahr durch Sonnenlicht, radioaktive Strahlung und Alkohol, NOVO März-April 2006, S. 22)

Die Grafik (Susanna Hertrich, Informationsdesignerin) zeigt die Disparität zwischen der öffentlichen Wahrnehmung eines bestimmten Problems / einer Bedrohung / Gefahr und des TATSÄCHLICHEN Risikos, das vom jeweiligen Phänomen ausgeht.

Hier zeigt sich das Gesetz der „verschobenen Wirkungsvermutung”. Menschen präferieren in ihrer Wahr­nehmung Gefahren, die eine geringe Eintrittswahrscheinlichkeit bei kleiner Beeinflussungs-Möglichkeit haben.

Sie neigen dagegen zur Ignoranz von (breiten) Risiken, die durch einfache Handlungen verändert werden könnten. Risiken werden auf diese Weise gewissermaßen „delegiert” – und in eine Art Unterhaltungs- und Gruseleffekt umgewandelt (den die Medien kräftig schüren): „Wir fürchten uns vor dem islamischen Terrorismus, aber rauchen fröhlich weiter!”

Verzerrtes Denken – Erkenntnisse der Wirtschaftspsychologie

Daniel Kahnemann und Amos Tversky, Verhaltens-Psychologen und Nobelpreisträger, haben in ihren Experimenten das „verzerrte Denken” in allen Varianten empirisch erforscht. Hier die zentralen Erkenntnisse der „Prospect Theory”, der „Neuen Erwartungstheorie”:
(D. Kahneman und A. Tversky (1979): Prospect theory: An analysis of decision under risk, Econometrica, Vol. 47, No. 2, S. 263-291. Siehe auch: A. Tversky und D. Kahneman (1992): Advances in prospect theory: cumulative representation of uncertainty. In: D. Kahneman und A. Tversky (Hrsg.), Und Kahnemann/Slovic, Tversky, Judgment under uncertainty: Heuristics and biases, Cambridge University Press, Cambridge 1984)

  • Vermessenheitsverzerrung:

    Wir überschätzen ständig unsere eigenen Fähigkeiten und unseren Mut. Viele Menschen neigen auch zu einer Art positivistischen Aberglauben, in dem sie ihre Fähigkeiten, eine Situation zu beeinflussen, überbewerten. Sie glauben, mit bestimmten symbolischen Handlungen Realität beeinflussen zu können (Tragen eines T-Shirts beim Fußballspiel der eigenen Mannschaft, magische Rituale etc.).

    Für die Zukunftsprognostik bietet diese Eigenschaft ein Einfallstor für die prognostische Heroik. Zukunftsbilder werden oft in Hinsicht auf eine Kontroll-Phantasie entworfen, z.B. bei überbetont technischen Visionen.

  • Ankereffekt:
    Eine einmal getroffene Vergleichs-Aussage wird zur Norm für alle weiteren Definitionen. Selbst wenn sie falsch ist und aus einer sehr fragwürdigen Quelle stammt – aus dem Massenmedium oder aus einem „Urban Myth” – bildet sie den Maßstab für spätere Einschätzungen und Entscheidungen.
    Hier findet sich ein weiterer Grund für die Linearität, aber auch die ideologische Anfälligkeit der meisten Prognosen.
  • Nähe-Verzerrung:
    Wenn wir eine bestimmte Problematik allzu sehr „von Innen” beurteilen, neigen wir gerade deshalb zu Fehleinschätzungen. Wir können das Phänomen nicht mehr im größeren Kontext sehen. Deshalb irren sich ausgerechnet Fachleute und Spezialisten, wenn sie Prognosen über ihr eigenes Genre aufstellen sollen.
    (siehe 1.11 Erfolgreiche Prognosen von gestern” und „2.9 Delphi-Methode”)
  • Status-Quo-Fanatismus:

    Menschen werden sehr aktiv, wenn es gilt, ihren einmal erreichten Status zu bewahren. Das führt zu den aus „der Krise” bekannten Phänomenen des Klammerns an falschen Strategien: Ein Bankmanager, der hohe Gewinne erzielt hat, ist praktisch unfähig zu sehen, dass die Strategie so nicht mehr funktioniert. Er wird eher Denunziation von Kollegen, Mobbing, Lügen, Bilanzfälschung versuchen, als einen neuen Anfang zu suchen.

    Viele Phänomene wie burn-out und allgemeines Lebensunglück haben mit diesem panischen „Drang zur Bewahrung des einmal Erreichten” zu tun. Aber auch viele verbreitete Prognosefehler lassen sich auf das „Hängen an einmal etablierten und nützlichen Irrtümern” zurückführen (Ein Beispiel ist die immer noch weit verbreitete Annahme der globalen „Bevölkerungsexplosion” – sie ist nützlich im Kontext eines elitär-xenophoben Weltbildes).

Wissenschaftliche „Bias-Blasen”

Auch wissenschaftliche Erkenntnisse können, wie Börsenkurse, „Blasen” bilden, die später zerplatzen können.

Jede wissenschaftliche Modellbildung entspringt einem bestimmten Vereinbarungs-Hintergrund – Wissenschaft ist immer auch ein Kultursystem, das auf bestimmten hermeneutischen (interpretatorischen) Übereinkünften basiert.
(siehe „1.03 Ist Zukunftsforschung eine Wissenschaft?” und „1-04 Future Science”)

Demnach ist auch das Wissenschaftssystem selbst einem „Bias” (Ablenkungs-/ Verzerrungs-)-Effekt ausgesetzt.

John Ioannidis, ein griechischer Epidemiologe und Wissenschaftstheoretiker, hat sich mit dem „Bias”-Effekt der modernen Wissenschaften systemisch auseinandergesetzt.
(John P. A. Ioannidis, Why Most Published Research Findings Are False, 2008)

Seine These lautet, dass vor allem das Publizierungs-System der heutigen Wissenschaft zu Fehl-Ergebnissen führt. Durch den Publizierungs-Zwang und die einseitige Orientierung an der Zahl der Zitate wird Opportunismus gefördert. Durch „Cross-Referencing” driften Ergebnisse immer in eine bestimmte, von „Wissenschaftsmoden” oder bestimmten „Stars” dominierte Richtung. So entsteht ein „hermetisches Illusions-System”, in dem Ergebnis-Fälschungen regelrecht gezüchtet werden.

In einer Untersuchung über 49 Papiere, die in renommierten wissenschaftlichen Fach­zeitschriften (wie „Nature” oder „Science”) publiziert wurden, und die in 1000 späteren Studien zitiert (und als Grundlage genutzt wurden), stellte sich heraus, dass etwa EIN DRITTEL der veröffentlichen Erkenntnisse innerhalb weniger Jahre falsifiziert wurden.
(siehe auch „Publish and be wrong”, The Economist Oct. 11. 2008)

Für unser wissenschaftliches Weltbild sowie die Haltbarkeit bestimmter allgemeingültiger Prognosen hat diese Erkenntnis weitreichende Konsequenzen. Auch „Große Prognose-Wahrheiten”, etwa im Bereich der Klimaentwicklung, könnten sich demnächst als Produkte von „Bias-Blasen” herausstellen.

Der Konformitäts-Faktor

Zukunftsbilder sind Produkt eines kollektiven Kommunikationsprozesses (siehe „1.08 Prognosen als Kommunikationen”), in denen die hier geschilderten Irrtümer und „Biases” eingehen. Dabei spielen Massenmedien eine Rolle, aber auch selbstorganisierende, psychologische Prozesse der Meinungsbildung.

Das Muzafer-Sherif-Experiment bildet bis heute einen Standard für die Synchronisation von Meinungen. Der türkische Sozialpsychologe ließ in zahllosen Experiment-Reihen Versuchspersonen in einen dunklen Raum führen und bat sie darum, die Bewegungen eines Lichtpunktes zu beschreiben, der in etwa zehn Meter Entfernung auf eine dunkle Wand projiziert wurde.

Dabei erwies sich, dass jede Person diese Bewegungen in einer individuellen Weise wahrnimmt. Bei einigen flackert oder flimmert er, bei anderen macht er kreisförmige Bewegungen oder pulsiert – Effekte der individuellen und unkontrollier­baren Vibrationen des Augapfels, die bei jedem Menschen völlig verschieden sind.

Bei allen Versuchsabläufen ergab sich das gleiche Bild. Sobald sich mehrere Personen im Raum befanden und über ihre Wahrnehmungen kommunizierten, bildete sich schnell eine Mehrheitsmeinung, eine Gruppennorm. „Der Punkt zittert” oder „der Punkt pulsiert!” – irgend einer Mehrheitsmeinung schlossen sich immer mehr der Probanden an, je länger die Session dauerte und je mehr Menschen sich im Raum befanden. Am Schluss sahen bis zu 90 Prozent die gleiche Bewegung des Punktes!

Die Urteile der anderen bestätigen dann die eigene Abweichung von der ursprünglichen Wahrnehmung, die als „anfängliche Täuschung” definiert wurde. Bei späteren Befragungen behaupteten alle Versuchsteilnehmer trotzdem, ihr Urteil völlig eigenständig getroffen zu haben.
(M. Sherif und C. W. Sherif: Experimentelle Untersuchungen zum Verhalten in Gruppen. In: J.-J. Koch (Hrsg.): Sozialer Einfluss und Konformität. Beltz Verlag, Weinheim und Basel 1977.
Geschildert auch in Kepplinger, Mechanismen der Skandalisierung, S. 20 ff)

Einen ähnlichen Versuchsaufbau hat der Solomon-Asch-Test: hier wird das Urteilsvermögen der Probanden mit „gekauften Zeugen” getestet.
(http://en.wikipedia.org/wiki/Asch_conformity_experiments)

Wie stark dieses Gleichrichter-Prinzip und die Illusion der autonomen Urteilsbildung unsere tägliche Kommunikation prägt, lässt sich durch einen kleinen „Ehrlichkeitstest” illustrieren.

Beantworten Sie bitte folgende Frage: Welchem der folgenden drei Sätze stimmen sie voll und ganz zu?

„Politiker sind korrupt und unfähig.”

„Lehrer sind altmodisch und faul.”

„Beamte sind bequem und innovationsresistent.”

So gut wie niemand wird mit diesen Formulierungen bewusst konform gehen. Allzu offensichtlich sind dies Klischees der plattesten Sorte: Es gibt sehr gute Politiker, Lehrer, und auch Beamte können, als Bundesverfassungsrichter oder Polizisten oder Richter, gute Arbeit leisten. Jetzt aber die Ergänzungsfrage:

„Wie oft haben Sie den obigen Formulierungen schon in größeren Runden oder beim Zusehen bei Talkshows, bei denen Ähnliches geäußert wurde, aktiv oder passiv zugestimmt?”

Die „selbstregulierende Konsensbildung” macht soziale Beziehungen und kommunikative Systeme einfacher. In der langen Geschichte der Menschheit bot sie unschätzbare Überlebens-Vorteile, weil sie Menschengruppen zu schneller Handlungsfähigkeit und besseren „Synchronleistungen” brachte.

Konsensbildung dient auch als eine „Heuristik der Gefahr”: Wenn alle in eine Richtung rennen, ist es besser, dies auch zu tun (Die Wahr­scheinlichkeit, dass es für das Rennen einen guten Grund gibt, ist relativ hoch). „Animal Spirits” nennt der Verhaltensökonom Robert Shiller diesen Herdentrieb in seinem gleichnamigen Buch – und erklärt damit unter anderem die Finanzkrise.
(Akerlof, George; Shiller, Robert: Animal Spirits - How Human Psychology Drives the Economy and Why It Matters for Global Capitalism)

Interessen-Korruption von Prognosen

Unter Interessens-Korruption verstehen wir die verzerrende Einwirkung von kommerziellen oder weltanschaulichen Interessen auf den Prognose-Prozess und seine Ergebnisse.

Der Hintergrund ist die Tatsache, dass ein großer Teil – rund 75 Prozent aller veröffentlichten Prognosen – direkten Zwecken dienen. Ihre Aussage ist im Kontext von Marketing-Intentionen oder Meinungsbildungen intendiert.

Studien mit Vorhersage oder Voraussage-Elementen sind oft teuer und aufwendig. Finanziert werden sie durch Interessensgruppen aus der Wirtschaft oder, teilweise, der Politik. Dass „ein Trend zu...” oder „ein Ergebnis x” festgelegt wird, ist die kommunikative Intention, die sehr oft bereits VOR der Studienerstellung feststeht.

Beispiele:

  • Der angestellte Zukunftsforscher bei einem großen europäischen Telekommunikations­konzern veröffentlicht ständig neue Studien, in denen der „Always-Online”-Lebensstil vorhergesagt wird, bis hin zu Hirnimplantaten, mit denen die Menschen in Zukunft kommunizieren werden.
  • Die Studie „Zukunft der Diabetes” prognostiziert zehn Millionen Diabetesfälle in Deutschland 2020. Auftraggeber ist die „Deutsche Stifung Diabetesvorsorge”, die wiederum vom Verband der forschen Pharmaindustrie unterstützt wird.
  • Der Bundessozialverband prognostiziert 15 Millionen verarmte Kinder bis zum Jahr 2015.
  • David Orrell schildert in seinem Buch „The Future of Everything” einen Vorfall am IIASA, bei dem eine Studie zur Zukunft des Energieverbrauchs der Menschheit im Sinne der Kernenergie manipuliert wurde.
    (Orrell, The Future of Everything - The Science of Prediction, s.9 ff)

Prognosen sind käuflich. Aber selbst, wenn kein unmittelbares geldliches Interesse dahinter­steckt, werden sie leicht zweckentfremdet. In der kommunikativen „Übernutzung” von Prognosen geht ihr kognitiver Wert gegen Null, weil es sich entweder für den durch­schaubaren Versuch einer Sich-Selbst (im Sinne des Markterfolges) erfüllender Prophezeiung handelt, oder um schlichte werbliche Kommunikationsversuche.

Diese Entwertung wird durch einen Hang zum Trend-Opportunismus verstärkt – die Tendenz, sich opportunistisch nach "Trend-Verkündungen" zu richten. Bezeichnend ist die Frage auf Marketing-Kongressen und anderen Business-Veranstaltungen, „was denn ganz besonders im Trend liegt”. Mit dieser Frage kommt man garantiert nicht zu Markt-Erfolgen, denn es rennen ja nun alle in Richtung auf eine bestimmte Marktnische.

In den klugen Worten der Kollegen von Z-Punkt:

„Ein neuer Hype wird ausgerufen und alle springen auf den anfahrenden Zug – bis er aus dem Gleis springt. Allein „auf Trends zu surfen” bringt keinen langfristigen Wettbewerbs­vorteil. Unternehmen müssen wieder lernen, selbst Attraktor zu sein und Märkte offensiv mitzuprägen, anstatt immer nur Anschluss zu suchen.
Dazu reicht es nicht, die „angesagten" Trends zu kennen, vielmehr ist es notwendig, in einer Tiefenanalyse ein klares Bild von den Konturen des Wandels und seinen Treibern zu erlangen.”

Fehler männlich-technologischen Wunschdenkens

Sind Prognosen männlich oder weiblich? Diese scheinbar seltsame Frage führt uns in eine weitere Grund-Überlegung: Es gibt in der Tat eine „weibliche” und eine „männliche” Weltbetrachtung (die allerdings nicht an das physische Geschlecht gebunden ist).

  • „Männliche” Prognostik betont den Überwindungseffekt von Technologie, die Beschleunigungs- und Kontroll-Wünsche, die zu einer (solcherart erwünschten) Zukunft führen. Sie sieht Zukunft und ihre Zustände oft auf deterministische Weise.
  • „Weibliche” Prognostik betont Möglichkeits- und Vernetzungsräume, sie ist in diesem Sinne keine „Zukunfts-Prognostik”, sondern beharrt auf den Bindungs- und Adaptionskräften.

Man kann die Geschichte der Prognostik – und damit Geschichte überhaupt – als ein Wechselspiel von „Kassandra” und „Heros” (männlichem Heldentum) interpretieren, in dem „Fortschritt” und „Überwindung” gegen Skepsis und Einhegung / Balance auftreten. Dies erklärt auch den über-dominanten Aspekt von technologischen Prognosen / Visionen / Utopien in der Prognostik der Vergangenheit. In den 60er und 70er Jahren waren die (westlichen) Gesellschaften klar männlich dominiert.

Auch heute noch haben viele Prognosen einen utopisch-transzendentalen technischen Aspekt; sie handeln von männlich / narzisstischen Übermächtigkeits- und Kontrollphantasien. Im Kontext der realen Komplexität der Welt wirken sie heute vor allem naiv:

Wo sind sie nur alle geblieben, die Raumstationen, in denen wir fröhlich-schwerelos in hautengen Stretchuniformen umhertreiben, während am Himmel über uns Galaxien und Sterne leuchten? Hat jemand eine Ahnung wo die sprachgesteuerten höflichen Roboter – „Ja, Herr! Selbstverständlich, Herr!” –, die uns den Rasen sprengen und das Geschirr abwaschen und den Müll raustragen und das Essen servieren, geblieben sind? Und die lichten Unterwasserstädte, die Aircopter, mit denen wir eben mal zum Einkaufen in die Stadt fliegen? Die Super-Medikamente, die uns alle schlank bleiben lassen, den Krebs bekämpfen und das Leben endlos und unbeschwert machen? Die Helme, die wir uns aufsetzten, und – zong! – schon haben wir eine neue Fremdsprache gelernt? Die sprechenden Haustiere, die sprachgesteuerten Häuser und selbstfahrenden Autos? Wir müssen nur noch eine kleine Weile Geduld haben? Wer’s glaubt, wird selig!

(Matthias Horx: Technolution – Wie unsere Zukunft sich entwickelt, Campus-Verlag 2008)



Abbildung: Naive Zukunft von gestern: Wie wir alle einmal in Raumstationen leben würden...


Die Informationsgesellschaft ist vor allem eine Erzählgemeinschaft. Ihre Erzählform ist das Futur. Es wird einmal. Das freie Prophezeien ist zum Volkssport geworden. Aus dem Traum einer besseren Gesellschaft ist der Glaube an die überlegene Technik geworden, die für den Einzelnen dasselbe leisten kann: die Befriedigung aller körperlichen Bedürf­nisse durch Teleshopping, Cybersex und das Schwanzwedeln irgendeines besten Freundes aus Plastik, bis dass die Akkuladung euch scheidet!
(Schmundt, Hilmar: Hightechmärchen, Argon Verlag Berlin, 2002)

Zusammenfassung

Prognosefehler entstehen immer in einem Wechselspiel von „Bias”-Prozessen, also psychologischen „Ablenkungen”, in Tateinheit mit fundamentalen Modellfehlern.

Die häufigsten sind:

  • Ideologische Komplexitätsreduzierung: Der Welt wird ein bestimmtes (binäres) Modell aufoktroyiert, dessen mentale Funktion die der Einordnung und Feindbestimmung ist.
  • Die eigenen Befindlichkeiten werden als Maßstab für Zukunftsentwürfe genommen.
  • Wunsch- oder Angstvorstellungen dominieren den System-Aufbau.
  • Aktuelle Werte werden überbewertet und in Relation zu längerfristigen Prozessen untergewichtet.
  • Eigene Interessen oder Auftrags-Interessen werden weder erkannt noch gewichtet.
  • Vertraute Muster werden bereitwillig in die Zukunft fortgezeichnet. Bifurkationspunkte werden nicht geortet.
  • Was derzeit populär / Konsens ist, wird als einziger Maßstab verwendet.
  • Prognosen werden nicht an Systemen, sondern an „Events” orientiert.

Schlüsselliteratur:

>>> Text als PDF herunterladen

<< voriges Kapitel (1.11) Übersicht nächstes Kapitel (1.13) >>

 


© 2012 Matthias Horx / Zukunftsinstitut GmbH, Theorie der Trend- und Zukunftsforschung