Magisterarbeit


zur Erlangung des Grades

Magister in Operations Research (M.O.R.)



Denk- und wahrnehmungspsychologische Probleme beim computerunterstützten Entscheiden



Betreuer : Prof. Dr. Dr. h.c. H.-J. Zimmermann

Beratungsassistent : Dipl.-Math. Uwe Bath, M.O.R.



vorgelegt an der

Rheinisch Westfälischen Technischen Hochschule Aachen

- Lehrstuhl für Unternehmensforschung -



von: Kellerwessel, Harald

Borngasse 35

52064 Aachen

Matrikel-Nr.: 111010

Abgabetermin: 14.11.1996


Magisterarbeit OR-Studium



Inhaltsverzeichnis



1. Einleitung
1.1 Problemstellung und Ziel dieser Arbeit
1.2 Aufbau dieser Arbeit
2. Der Begriff der Entscheidung
2.1 Entscheidung als Wahlakt
2.2 Entscheidung als Prozeß
2.3 Denk- und Wahrnehmungsvorgänge beim Entscheiden
2.4 Eigenschaften von Entscheidungsproblemen
3. Ansätze zur Computerunterstützung beim Entscheiden
3.1 Tabellenkalkulationsprogramme und Planungssprachen
3.2 Mathematisches Programmieren
3.3 Simulation
3.4 MCDSS
3.4.1 MADSS
3.4.2 MODSS
3.5 Graphisches Modellieren von Entscheidungen
3.6 Expertensysteme
3.7 Group Decision Support Systems
4. Informationsaufnahme und -verarbeitung durch den Menschen
4.1 Aufbau und Arbeitsweise des menschlichen Denk- und Wahrnehmungsapparates
4.2 Schwächen des menschlichen Denk- und Wahrnehmungsapparates
4.2.1 Motivational bedingte Schwächen
4.2.1.1 Wunschdenken
4.2.1.2 Unterschätzung von Unsicherheit
4.2.1.3 Bevorzugung bestätigender und Ablehnung widersprechender Informationen
4.2.1.4 Reaktion auf Gruppen- und Autoritätsdruck
4.2.1.5 Sonstige motivational bedingte Schwächen
4.2.2 Kognitiv bedingte Schwächen
4.2.2.1 Schwächen im Bereich der Informationsaufnahme
4.2.2.1.1 Selektivität der Wahrnehmung
4.2.2.1.2 Wahrnehmungsverzerrungen durch vorhandenes Wissen
4.2.2.1.3 Wahrnehmung von Zusammenhängen und Korrelationen
4.2.2.1.4 Wahrnehmung von graphischen Darstellungen
4.2.2.2 Schwächen im Bereich der Informationswiedergabe
4.2.2.2.1 Selektivität des Gedächtnisses und Verfügbarkeit
4.2.2.2.2 Rekonstruieren statt Erinnern
4.2.2.2.3 Nichtbewußtsein von Vorgehensweisen und Vorstellungen
4.2.2.3 Schwächen im Bereich der Informationsverarbeitung
4.2.2.3.1 Vereinfachungsstrategien
4.2.2.3.2 Inkonsistenz
4.2.2.3.3 Fixierung
4.2.2.3.4 Schwierigkeiten durch einen vorgegebenen Antwortmodus
4.2.2.3.5 Verankerung
4.3 Probleme aus der Sicht des Modellierens von Entscheidungen
4.3.1 Umgang mit Zahlen allgemein
4.3.2 Umgang mit Wahrscheinlichkeiten
4.3.3 Abschätzen nicht-linearer Zusammenhänge
4.3.4 Festlegung von Zielen, Anspruchsniveaus und Gewichtungen
5. Zusammenfassung, Kritik und Ausblick

Literatur


1. Einleitung

1.1 Problemstellung und Ziel dieser Arbeit

Seit einigen Jahren werden in der Wirtschaft verstärkt computerbasierte Entscheidungs­unterstützungs-Systeme (Decision Support Systems - DSS) eingesetzt, um den Forderungen nach möglichst guten Entscheidungen in immer komplexer werdenden Umfeldern gerecht werden zu können. Die Komplexität der Entscheidungssituationen drückt sich dabei in dem Wunsch aus, Mehrfachzielsetzungen, Unsicherheit bezüglich der Umweltzustände sowie Unschärfe bei Alternativen, Zielen und Umweltzuständen in Entscheidungen einzubeziehen. Damit finden jedoch zwangsläufig erheblich stärker als bei Entscheidungsunterstützung mit Hilfe der bisher gebräuchlichen Methoden, wie z.B. Linearer Programmierung (bei nur einer Zielfunktion und ohne Berücksichtigung von Unsicherheit und Unschärfe), subjektive Momente Aufnahme in die Entscheidungsmodelle. Subjektivität drückt sich aus in der Aus­wahl und der Gewichtung von Zielen, im Schätzen von Wahrscheinlichkeiten und von (scharfen oder unscharfen) Zahlen sowie in den Annahmen über die Zusammenhänge zwi­schen Alternativen, Umweltzuständen und Zielen. Zahlreiche Untersuchungen auf dem Gebiet der Denk- und Wahrnehmungspsychologie zeigen aber, daß das menschliche Gehirn beim Schätzen von Werten, beim Beurteilen von Richtung und Stärke von Zusammenhängen und bei einer Reihe weiterer, zum Aufbau und Lösen von Entscheidungsmodellen wesent­lichen Tätigkeiten, zu systematischen, häufigen und oftmals schwerwiegenden Fehlern neigt. "Das wichtigste Requisit des Planers, sein Denkapparat, wurde nicht zum Zweck des Planens konstruiert, sondern zum Überleben - und dieser Unterschied ist beträchtlich" [Schönwandt 1986, S. 8]. Besonders problematisch ist in diesem Zusammenhang, daß die Tatsache, daß ein Entscheidungsträger (dies kann auch eine Gruppe von Personen sein [vgl. Brauchlin 1978, S. 36 und S. 250]) mit seiner Entscheidung zufrieden ist und sich sicher fühlt, eine gute Alternative gewählt zu haben, offensichtlich nichts über die Qualität der Entscheidung aus­sagt [vgl. Dörner 1992, S. 7 und Geißler 1986, S. 161, S. 171 und S. 177].

Entgegen weit verbreiteten Ansichten ändert auch der Rückgriff auf Expertenwissen zur Ent­scheidungsunterstützung nichts daran, daß subjektive Einflüsse eine hinreichend realistische Modellierung eines Entscheidungsproblems verhindern können, denn auch Expertenwissen ist subjektiv, und seine Entstehung und Weitergabe unterliegt den Gesetzmäßigkeiten der Denk- und Wahrnehmungspsychologie [vgl. Meyer/Booker 1991, S. 6]. Expertenwissen ist nur unter bestimmten Bedingungen dem Wissen von Laien überlegen. Es ist weitaus häufiger als gemeinhin angenommen wird fehlerhaft; zudem wird es von Entscheidern oft zu unkritisch übernommen [vgl. Meyer/Booker 1991, S. 18 und S. 26, Schönwandt 1986, S. 11f. und S. 25, Slovic u.a. 1982, S. 475ff.]. Auch die optimistische Annahme, daß hohe Anreize zu mehr Rationalität und weniger Fehlern bei Entscheidungen führen, wird durch wissenschaft­liche Untersuchungen nicht gestützt [vgl. Kahnemann/Tversky 1982a, S. 501].

Das Risiko, daß DSS zu Garbage-In-Garbage-Out-Systemen werden, also zu Systemen, die wegen grober Fehler in den Eingabedaten zwangsläufig nur unbrauchbare Ausgabedaten lie­fern können, ist deshalb grundsätzlich um so höher einzuschätzen, je mehr subjektive Infor­mationen in die anstehende Entscheidung eingehen sollen bzw. müssen. Andererseits liegen im Einsatz von DSS aber auch Chancen, zumindest einen Teil der Schwächen des mensch­lichen Gehirns auszugleichen oder deren Auswirkungen wenigstens abzumildern. Um das Ziel einer besseren Entscheidungsfällung durch den Einsatz von DSS erreichen zu können, ist es aber erforderlich, die denk- und wahrnehmungspsychologischen Probleme beim computer­unterstützten Entscheiden zu kennen, und sie sowohl bei der Entwicklung als auch beim Ein­satz von DSS systematisch zu berücksichtigen. Dies geschieht bisher jedoch nur in sehr unzu­reichendem Maße. Beispielsweise haben Forschungsergebnisse bezüglich des menschlichen Entscheidungsverhaltens sich bis jetzt auf den Bereich des Multi-Criteria-Decision-Making kaum ausgewirkt [vgl. Korhonen u.a. 1992a, S. 370].

Diese Arbeit soll die der Wissenschaft bisher bekannten Schwächen des menschlichen Denk- und Wahrnehmungsapparates zusammenstellen, ihre Auswirkungen beim computerunter­stützten Entscheiden hinsichtlich Art, Stärke und Häufigkeit abschätzen und Ansätze zur Lösung zu erwartender Probleme aufzeigen. Diese Lösungsansätze können in einer entspre­chenden Gestaltung von DSS liegen, aber beispielsweise auch in der Vermittlung denk­psychologischen Wissens an Entscheider oder im Einsatz von Kreativitäts-, Gruppen- und Gedächtnistechniken. Die übergeordnete Fragestellung, zu der diese Arbeit einen Beitrag liefern möchte, ist, wie man auf möglichst einfache, schnelle und sichere Art und Weise zu guten Entscheidungen kommen kann. Hierzu können DSS sicherlich eine wesentliche, aber wohl nur ausnahmsweise die einzige Hilfe sein. Dies sollte von den Entwicklern von DSS zukünftig stärker berücksichtigt werden. Bereits an dieser Stelle sei gesagt, daß umfassende Konzepte unter Einbeziehung, aber nicht unter alleinigem Einsatz von DSS das Ziel der kommenden Entscheidungsunterstützung sein müssen.

Letztendlich soll diese Arbeit auch ein Beitrag dazu sein, die in DSS liegenden Möglichkeiten realistisch einzuschätzen, und damit einer ungerechtfertigten Ablehnung dieser System vor­zubeugen. Es soll vermieden werden, daß Anwender von DSS die Schuld für eine schlechte Entscheidung in dem verwendeten DSS suchen, wenn in Wahrheit fehlerhafte Eingabedaten für das DSS (und damit der Anwender selbst) verantwortlich ist.


1.2 Aufbau dieser Arbeit

Wer sich Problemen im Bereich "computerunterstütztes Entscheiden" nähern will, muß zunächst einmal klären, was unter einer "Entscheidung" zu verstehen ist. Dazu werden im folgenden die Sichtweisen der klassisch-normativen und der deskriptiven Entscheidungs­theorie gegenübergestellt und bezüglich ihrer Relevanz für die gegebene Themenstellung verglichen. Da auch die Ansätze der deskriptiven Entscheidungstheorie zur Erklärung von Entscheidungen als Informationsverarbeitungsprozesse nicht direkt an denk- und wahr­neh­mungspsychologische Vorgänge anknüpfen, wird eine weitere Sicht auf das Problem "Entscheidung" eingefügt, die speziell für diese Arbeit erforderlich ist. Im Anschluß daran werden mögliche Eigenschaften von Entscheidungsproblemen diskutiert, weil viele Schwä­chen des menschlichen Denkens nur (oder zumindest verstärkt) unter bestimmten Bedingun­gen -  wie z.B. bei Mehrfachzielsetzung, bei Ungewißheit oder unter Zeitdruck -  Bedeutung erlangen. Im folgenden Kapitel wird dann ein Überblick über das Gebiet "computerunterstütztes Entscheiden" gegeben, damit im weiteren Verlauf der Arbeit auf­ge­zeigt werden kann, an welchen Stellen im einzelnen die Schwächen des menschlichen Den­kens Fehler - und somit letztendlich schlechte Entscheidungen - erwarten lassen.

Im Hauptteil dieser Arbeit werden - nach einer kurzen Einführung in die menschliche Infor­mationsverarbeitung - jene Erkenntnisse aus der Denk- und Wahrnehmungspsychologie vor­gestellt, die für den Bereich "computerunterstütztes Entscheiden" Anlaß zur Besorgnis geben. Es gibt eine Vielzahl -  teilweise schwer gegeneinander abzugrenzender -  Effekte, deren Ursachen letztendlich wohl nur darauf zurückzuführen sind, daß das menschliche Gehirn für schnelles Erkennen und Reagieren und nicht für sorgfältiges, systematisches Ent­scheiden geschaffen ist. Die möglichen Auswirkungen dieser Effekte sollen abgeschätzt und Ansätze, diese Effekte zu vermeiden oder wenigstens teilweise zu kompensieren, jeweils genannt und diskutiert werden.

Den Abschluß der Arbeit bilden -  neben einer Zusammenfassung -  Vorschläge für die weitere Forschung und Entwicklung im Bereich der Entscheidungsunterstützung, die sich aus den hier aufgeführten Erkenntnissen ergeben.


2. Der Begriff der Entscheidung

2.1 Entscheidung als Wahlakt

Das zentrale Thema dieser Arbeit ist die Unterstützung von Entscheidungen. Die Auffassun­gen davon, was eine "Entscheidung" ist, richten sich nach Fachgebiet, Autor und konkreter Problemstellung. Im Rahmen dieser Arbeit wird der Begriff "Entscheidung" im Sinne der Wirtschaftswissenschaften - im Gegensatz z.B. zum juristischen oder psychologischen Ent­scheidungsbegriff - verwendet.

Das heißt zum einen nicht, daß die Ergebnisse dieser Arbeit sich nur auf diesem Gebiet ein­setzen ließen, denn der Begriff "Entscheidung" im Sinne der Wirtschaftswissenschaften ist ein sehr allgemeiner. Bei der Übertragung der Ergebnisse dieser Arbeit auf andere Fachgebiete muß aber der fachspezifische Sprachgebrauch gegebenenfalls berücksichtigt werden.

Zum anderen ist der Begriff "Entscheidung" durch den Hinweis auf die Wirtschaftswissen­schaften nicht abschließend geklärt, denn es gibt innerhalb der Wirtschaftswissenschaften zwei unterschiedliche Sichtweisen auf das Problem "Entscheidung": Im Sinne der normativen Entscheidungstheorie wird eine Entscheidung als eine zielgerichtete Wahl zwischen mehreren Alternativen angesehen. Stellvertretend für viele andere sei hier die Definition von Geißler angegeben:


"Unter einer Entscheidung wollen wir folgendes verstehen:
eine zielbeeinflußte, bewußte und selbstverpflichtende Wahl einer Alternative aus mehreren Verhaltensmöglichkeiten, die das zukünftige Verhalten bestimmt" [Geißler 1986, S. 10].

Eine solche Definition charakterisiert das, was in der Praxis oft das Ende eines länger andauernden - wenn man z.B. an politische Entscheidungen denkt, unter Umständen Jahre andauernden - Prozesses ist, in dessen Verlauf in vielfältiger Weise Informationen beschafft und verarbeitet werden. Wenn man Entscheidungen unterstützen will, dann muß man diesen gesamten Prozeß unterstützen, und kann nicht Ziele, Alternativen, Annahmen über zukünf­tige Umweltzustände und dergleichen als gegeben annehmen. Der Entscheidungsbegriff in dieser Arbeit entspricht deswegen insoweit dem der deskriptiven Entscheidungstheorie. Andererseits jedoch lassen sich die Informationen, die im Rahmen eines Entscheidungs­prozesses beschafft und verarbeitet werden müssen, anhand des Grundmodells der normati­ven Entscheidungstheorie in einer für diese Arbeit sinnvollen Weise ordnen. Aus diesem Grunde seien dessen Elemente hier soweit erforderlich aufgeführt.

Das Grundmodell der normativen Entscheidungstheorie besteht aus den folgenden Elementen [vgl. Zimmermann 1992, S. 10ff.; Saliger 1988, S. 2ff.; Sieben/Schildbach 1980, S. 14ff.]:

- Aktionsraum = Menge der Aktionen, Strategien oder (Handlungs-) Alternativen, aus denen genau eine auszuwählen ist

- Zustandsraum = Menge möglicher Konstellationen nicht-kontrollierbarer Faktoren ("Umweltzustände") und gegebenenfalls einer Wahrscheinlichkeitsverteilung über diese

- Ergebnisraum = Menge der vom Entscheider als relevant erachteten Auswirkungen von Kombinationen aus Aktion und Umweltzustand

- Zielraum = eine geordnete Menge, auf die der Ergebnisraum entsprechend den Präferen­zen des Entscheidungs­fällers und gegebenenfalls entsprechend der Wahrscheinlichkeits­vertei­lung der Umwelt­zustände abgebildet wird.

Mathematisch gesehen ist der Aktionsraum eine mindestens zwei-elementige Menge. Der Zustandsraum kann dagegen ein-elementig sein; in diesem Falle handelt es sich um eine Ent­scheidung unter Sicherheit. Das Kreuzprodukt von Aktions- und Zustandsraum wird durch die Ergebnisfunktion in den Ergebnisraum abgebildet. Die Ergebnisfunktion kann vektor­wer­tig sein, beispielsweise wenn für den Entscheider Ergebnisse unterschiedlicher Art oder unterschiedlicher zeitlicher Verteilung von Bedeutung sind [vgl. Sieben/Schildbach 1980, S. 19f.]. Die Ergebnisse sagen zunächst nur aus, welche Auswirkungen einer Kombination aus Aktion und Umweltzustand bewertet werden sollen, nicht wie sie bewertet werden sol­len. Erst durch eine Funktion, die die Ergebnisse je Alternative zusammenfaßt und auf den Zielraum abbildet, wird die Bewertung vollzogen und damit letztendlich eine Ordnung auf dem Aktionsraum erzeugt, die die Wahl einer Alternative ermöglicht. Dieser letzte Schritt erfolgt oft in Form mehrerer Teilschritte, beispielsweise indem man je Alternative zunächst Ergebnisse gleicher Art, aber unterschiedlicher Wahrscheinlichkeit über alle Umweltzustände aggregiert und dann die Ergebnisse unterschiedlicher Art entsprechend einer Zielhierarchie zusammenfaßt.

Entscheidend für diese Arbeit ist, daß keine der angesprochenen Mengen und auch keine der angesprochenen Abbildungen als gegeben angesehen werden können. Sowohl die Mengen als auch die Abbildungen zwischen ihnen werden implizit oder explizit im Verlaufe des Ent­schei­dungsprozesses von den Beteiligten modelliert. Ein Teil der bei der Modellierung mög­lichen Denk- und Wahrnehmungsfehler kann direkt einer der Mengen oder Abbildungen zugeordnet werden, wodurch sich Fehlerfolgen zumindest qualitativ abschätzen lassen.


2.2 Entscheidung als Prozeß

Die Betrachtung von Entscheidungen als Prozeß ergibt eine weitere Möglichkeit, mensch­liche Denk- und Wahrnehmungsfehler im Hinblick auf computerunterstütztes Entscheiden zu systematisieren und damit auch zu analysieren. Grund hierfür ist, daß bestimmte Fehler sich bestimmten Phasen eines Entscheidungsprozesses zuordnen lassen. Eine Übersicht über Pha­senschemata für Entscheidungsprozesse bietet [Brauchlin 1978, S. 34 ff.].

Die folgende Liste gibt einen für die Problemstellung dieser Arbeit hinreichenden Überblick über Phasen eines Entscheidungsprozesses:

- Problemwahrnehmung

- Problem lokalisieren und definieren

- Strukturierung des Problems

- Ursachenanalyse

- Informationsbeschaffung

- Produktion von Lösungsmöglichkeiten (d.h. Bestimmung des Aktionsraums)

- Zielbildung

- Bewertung und Auswahl

- Durchführung bzw. Durchsetzung

- Kontrolle

- Lernen

[vgl. auch Zimmermann 1992, S. 43ff. und Geißler 1986, S. 27ff.].

Die genannten Phasen lassen sich weder sachlich noch zeitlich eindeutig abgrenzen, da zum einen Entscheidungsprozesse in der Praxis Rückkoppelungen enthalten [vgl. Brauchlin 1978, S. 36] und zum anderen die Phasen sich sowohl zeitlich als auch inhaltlich überlappen können (wie z.B. Ursachenanalyse, Informationsbeschaffung und Produktion von Lösungsmöglich­keiten). Für diese Arbeit ist eine exakte Abgrenzung der Phasen eines Entscheidungsprozes­ses aber auch nicht notwendig. Aufgabe der obigen Liste ist es vor allem, die Sicht auf das Problem "Entscheiden" um solche Phasen zu erweitern, die dem Bilden und Lösen eines Ent­scheidungsmodells vor- bzw. nachgelagert sind. Dazu gehö­ren z.B. Problemwahrnehmung, Kontrolle und Lernen. Würde man sich im Rahmen dieser Arbeit auf die Sichtweise der Ent­scheidung als Wahlakt beschränken, könnten diesen Berei­chen zuzuordnende Aspekte nicht angemessen analysiert werden. Ein Beispiel hierfür sind langfristige Verbesserungen im betrieblichen Entscheiden, die durch von DSS positiv beein­flußte Lernvorgänge herbeigeführt werden könnten.


2.3 Denk- und Wahrnehmungsvorgänge beim Entscheiden

Die oben genannten Phasen eines Entscheidungsprozesses sind aus Sicht der Denk- und Wahrnehmungspsychologie sehr allgemein. Um konkrete Fehlerquellen ausmachen zu kön­nen, ist eine weitere Betrachtungsebene erforderlich, in der einzelne, in psychologischen Experimenten oder Feldstudien analysierbare bzw. bereits untersuchte Denk- und Wahr­neh­mungsvorgänge in den Mittelpunkt gestellt werden. Solche Denk- und Wahrnehmungs­vor­gänge sind z.B.:

- Wahrnehmen und Interpretieren von Texten, Zahlen und Graphiken

- Gedächtnisinhalte abrufen / auflisten (aus Kurzzeit- und Langzeitgedächtnis)

- "Konstruieren" von neuem Wissen (logisches Schlußfolgern, Verrechnen von Wahr­scheinlichkeiten usw.)

- Definieren von Begriffen

- Schätzen und Ordnen von Zahlen allgemein

- Schätzen von Wahrscheinlichkeiten bzw. Häufigkeiten

- Schätzen von Prioritäten und Gewichtungen

- Schätzen von Art, Richtung und Stärke von Zusammenhängen

Im Mittelpunkt dieser Arbeit stehen Erkenntnisse aus der Denk- und Wahrnehmungspsycho­logie, die sich mit Schwächen und Problemen des Menschen bei Vorgängen der hier aufge­listeten Art beschäftigen. Diese Erkenntnisse sollen entsprechend den Ausführungen in den vorangegangenen Abschnitten systematisiert und analysiert werden. So ist z.B. offensichtlich, daß Fehler beim Schätzen von Wahrscheinlichkeiten zu unrealistischen Annahmen bei der Wahrscheinlichkeitsverteilung der Umweltzustände in einem Entscheidungsmodell, und damit zu einer fehlerhaften Entscheidung, führen können. Als weniger augenfälliges Beispiel sei der Fall angeführt, daß durch die Dokumentation der Grundlagen einer Entscheidung, die bei der Modellierung einer Entscheidung für den Einsatz eines DSS quasi als Nebenprodukt anfällt, bekannte Arten von Fehleinschätzungen verhindert werden können, die Lernvorgänge - und damit langfristig bessere Entscheidungen - unmöglich machen würden.


2.4 Eigenschaften von Entscheidungsproblemen

Denk- und wahrnehmungspsychologische Probleme treten nicht bei allen Arten von Ent­scheidungsproblemen in gleichem Maße auf. So sind z.B. die Fehler, die das menschliche Gehirn beim Schätzen von Wahrscheinlichkeiten zu machen pflegt, bei Entscheidungen unter Sicherheit selbstverständlich irrelevant. Im folgenden soll deswegen - soweit für diese Arbeit erforderlich - ein Überblick über mögliche Eigenschaften von Entscheidungsproblemen gege­ben werden. Diese Eigenschaften können danach unterteilt werden, ob sie

- den Inhalt der Entscheidung betreffen,

- den Schwierigkeitsgrad (Komplexität) des Entscheidungsproblems charakterisieren oder

- die Rahmenbedingungen beschreiben, unter denen die Entscheidung gefällt wird.

Die erste inhaltliche Frage ist, ob es sich bei einer Entscheidung um eine bei Sicherheit oder bei Ungewißheit handelt. Entscheidungen "bei Sicherheit" sind solche, bei denen der zu betrachtende Umweltzustand feststeht [vgl. Zimmermann 1992, S. 13]. Im Falle der Unge­wißheit gibt es dagegen mehrere mögliche Umweltzustände. Hier wird weiter unterschieden, ob Wahrscheinlichkeiten bzgl. des Eintretens der Umweltzustände bekannt sind (Entscheidungen bei "Risiko") oder nicht (Entscheidungen bei "Unsicherheit") [vgl. Zimmermann 1992, S. 13], oder aber, ob die möglichen Umweltzustände von einem rational handelnden Gegenspieler bestimmt werden ("spieltheoretische Situation") [vgl. Zimmermann 1992, S. 29 und Sieben/Schildbach 1980, S. 63]. In der Praxis sind diese Unterscheidungen natürlich weniger eindeutig als in der normativen Entscheidungstheorie. So können z.B. unbekannte Wahrscheinlichkeiten geschätzt und somit als bekannt vorausgesetzt werden; in bestimmten Fällen ist es auch vorteilhaft, bei einer Umwelt, die nicht zu rationalem Handeln fähig ist, trotzdem eine spieltheoretische Situation zu unterstellen.

Unabhängig von der Frage der Ungewißheit bzw. Unsicherheit ist die Frage möglicher Unschärfe zu sehen. Aktionen, Umweltzustände, Ziele und dergleichen können häufig nicht exakt definiert werden. So kann z.B. ein Ziel in der Form vorgegeben sein, daß eine Variable eine bestimmte Grenze "nicht wesentlich" überschreiten soll. Eine Aktion könnte lauten, "ungefähr" zehnmal im Jahr eine Anzeige in einer bestimmten Zeitschrift zu schalten. Der­artige Probleme lassen sich mit Hilfe der von Zadeh entwickelten "Fuzzy Set Theorie" auch mathematisch formulieren [vgl. Bellman/Zadeh 1970].

Des weiteren kann der Zeithorizont bei Entscheidungen eine Rolle spielen, und zwar in zweierlei Form: Zum einen können sich die Auswirkungen von Aktionen im Zeitverlauf ver­teilen, wie z.B. die Erträge aus Investitionen bei einer Investitionsentscheidung. Zum anderen gibt es Entscheidungen, bei denen die Aktionen selbst aus einzelnen Handlungen bestehen, die zeitlich aufeinander folgen, wobei die bereits gewählten Handlungen für einen Zeitpunkt die Wahlmöglichkeiten für die späteren Zeitpunkte einschränken. Solche Entscheidungen bezeichnet man als mehrstufige Entscheidungen [vgl. Saliger 1988, S. 101]; die möglichen Aktionen nennt man dann häufig "Strategien". Kombinationen der beiden Typen sind selbst­verständlich möglich.

Je nachdem, ob man bei einem Entscheidungsproblem ein Ziel oder mehrere Ziele zu berück­sichtigen hat, unterscheidet man zwischen Entscheidungen bei Einfach- oder bei Mehrfach­zielsetzung. Letztere bezeichnet man auch als Multi-Criteria-Entscheidungen oder Multi-Criteria-Probleme. Es hat sich als zweckmäßig erwiesen, Multi-Criteria-Probleme nochmals hinsichtlich der Frage einzuteilen, ob der Aktionsraum diskret oder kontinuierlich ist [vgl. Korhonen u.a. 1992a, S. 365]. Im diskreten Fall spricht man von Multi-Attribute-Problemen, insbesondere, wenn die Zahl der Alternativen klein ist (normalerweise einstellig, höchstens zweistellig); bei einem kontinuierlichen Aktionsraum spricht man von Multi-Objective-Pro­blemen.

In der Praxis können, im Gegensatz zur normativen Entscheidungstheorie, jene Faktoren, die den Schwierigkeitsgrad von Entscheidungsproblemen beeinflussen, nicht vernachlässigt wer­den. Sowohl die Größe des Problems, bestimmt durch die Anzahl der Alternativen, die An­zahl möglicher Umweltzustände usw., als auch seine Struktur beeinflussen die Art der Pro­blemlösung und damit letztlich die Qualität der gefundenen Lösung sowie den zur Lösung notwendigen Aufwand.

Der Begriff "Komplexität" wird in verschiedenen Disziplinen, wie Informatik, deskriptive Entscheidungstheorie oder Psychologie, sehr unterschiedlich gebraucht. Da diese Disziplinen zudem mit dem Thema dieser Arbeit in Verbindung stehen, soll hier, um Mißverständnissen aus dem Wege zu gehen, der Ausdruck "Schwierigkeitsgrad" verwendet werden. Der Schwierigkeitsgrad von Entscheidungsproblemen hängt ab von [vgl. Dörner 1992, S. 58ff. und Zimmermann o.J., S. 157ff.]

- Problemgröße

- Vernetztheit

- Intransparenz

- Programmiertheit und

- Dynamik.

In dieser Arbeit soll mit der Problemgröße ausschließlich die Anzahl der Variablen bezeichnet werden, die in ein Ent­scheidungsmodell eingehen. Variablen sind dabei

- die Parameter, die die Aktionen charakterisieren

- die Parameter, die die Umweltzustände charakterisieren

- die Ergebnisdefinition(en) und

- die Zielkriterien.

Die Vernetztheit kennzeichnet dagegen die Art und die Anzahl der Beziehungen zwischen den Variablen [vgl. Dörner 1992, S. 60f.]. Vernetztheit ist also ein Maß dafür, wieweit sich die Variablen eines Entscheidungsmodells gegenseitig beeinflussen. Das Gegenteil von "Vernetztheit" ist somit "Unabhängigkeit" der Variablen. Zu beachten ist, daß nicht allein die Anzahl der Beziehungen zwischen den Variablen den Schwierigkeitsgrad eines Ent­schei­dungsproblems beeinflußt, sondern daß in hohem Maße auch die Art der Beeinflussung eine Rolle spielt. Eine geringe Zahl nicht-linearer Zusammenhänge kann weitaus problema­tischer sein als eine Vielzahl linearer.

Dörner bezeichnet die Problematik, daß demjenigen, der Entscheidungen zu treffen hat, viele Merkmale der Situation nicht oder nicht unmittelbar zugänglich sind, als "Intransparenz" [vgl. Dörner 1992, S. 63f.]. Unklar ist dabei, ob sich sein Begriff von "Intransparenz" mit dem der Problematik unvollständiger oder unsicherer Informationen in der normativen Ent­scheidungstheorie deckt, ob er also das Problem fehlender Information allein im Zusammen­hang mit den Umweltzuständen sieht. In der Praxis spielen fehlende, falsche oder schwer zugängliche Informationen in jedem Fall eine weit größere Rolle:

- der Aktionsraum ist oft nicht vollständig bekannt,

- von den Zielen existieren häufig nur grobe Vorstellungen,

- darüber, welche Umweltparameter in die Betrachtung einzubeziehen sind, hat man nur Vermutun­gen und

- die Abbildungen zwischen Aktions-, Zustands-, Ergebnis- und Zielraum liegen nicht ein­deutig fest.

Im Rahmen dieser Arbeit soll deswegen "Intransparenz" allgemein die Unzugäng­lichkeit oder nur indirekte Zugänglichkeit solcher Informationen bezeichnen, die zum Model­lieren des betreffenden Entscheidungsproblems benötigt werden.

Von der Unkenntnis über Teile des Entscheidungsmodells zu unterscheiden ist die Unkennt­nis über Lösungsmethoden, d.h. über Verfahren, bei einem gegebenen Entscheidungsmodell die optimale oder zumindest eine zufriedenstellende Alternative zu finden. Ist ein solches Verfahren bekannt, so bezeichnet man die Entscheidung als "programmiert", sonst als "nichtprogrammiert" [vgl. Simon 1969, zitiert nach Zimmermann o.J., S. 161].

Spielt bei Entscheidungen der Zeithorizont eine Rolle, so soll in dieser Arbeit mit dem Aus­druck "Dynamik" das Ausmaß der Zeitabhängigkeit von Variablen des Entscheidungsmodells bezeichnet werden. Je mehr zeitabhängige Variablen, und je stärker die Abhängigkeit (z.B. exponentiell und nicht bloß linear), desto schwieriger ist es in aller Regel, eine gute Lösung für das betreffende Entscheidungsproblem zu finden. Dynamik wird hier wegen der prak­tischen Bedeutung als eigenständiges Problem aufgeführt, obwohl man Dynamik als Spezial­fall der Vernetztheit ansehen kann.

Am Rande sei erwähnt, daß auch die Offensichtlichkeit oder Plausibilität einer Lösung für ein Entscheidungsproblem eine Schwierigkeit darstellen kann, da dadurch eine Fixierung auf die betreffende Lösung eintreten kann, die die Suche nach besseren Lösungen be- oder sogar verhindern kann [Sell 1991, S. 35].

Bei der Diskussion des Schwierigkeitsgrades von Entscheidungsproblemen ist zu beachten, daß dieser nicht nur von Eigenschaften des Problems selbst abhängt, sondern relativ zum Kenntnisstand und zu den Fähigkeiten des Entscheidungsfällers zu sehen ist und eventuell noch von weiteren Einflußfaktoren abhängt. Ist ein Entscheider den Umgang mit stark ver­netzten Systemen gewohnt, so wird er Entscheidungen erst bei einem höheren Grad an Ver­netztheit als schwierig empfinden als andere Entscheider. Die Problemgröße stellt bei Ver­fügbarkeit eines schnellen Rechners unter Umständen eine weitaus geringere Schwierigkeit dar als ohne. Da jedoch sowohl dem menschlichen Gehirn, als auch den Kapazitäten von Computern, mehr oder minder enge Grenzen gesetzt sind, erscheint es sinnvoll, den Schwie­rigkeitsgrad von Entscheidungsproblemen als Eigenschaft eben dieser Probleme zu sehen, und weniger als Eigenschaft des Entscheidungsfällers und der ihm zur Verfügung stehenden Mittel.

Die Rahmenbedingungen, unter denen eine Entscheidung zu fällen ist, werden wesentlich davon beeinflußt, ob es sich um eine Einzel- oder um eine Gruppenentscheidung handelt. Ist eine Entscheidung nicht von einer einzelnen Person zu fällen, so treten eine Reihe von beson­deren Problemen auf, die sowohl im psychologischen bzw. sozialen als auch im mathema­tisch-logischen Bereich liegen können. Letzteres ist z.B. bei der Wahl von Abstimmungsver­fahren der Fall.

Zu den Rahmenbedingungen einer Entscheidung gehören außerdem die zur Verfügung ste­hende Zeit (Entscheidungen unter Zeitdruck oder ohne), Streßfaktoren (wie z.B. Erfolgs­druck), Störeinflüsse (z.B. Lärm), Probleme auf organisatorischer Ebene (wie z.B. "Abteilungskämpfe") usw.

Alle in diesem Abschnitt aufgeführten möglichen Eigenschaften von Entscheidungsproblemen können in Verbindung mit den Schwächen des Menschen im Bereich des Denkens und Wahrnehmens zur Ursache von Fehlentscheidungen werden. Wieweit dies auch oder gerade beim Einsatz von Computern zur Entscheidungsunterstützung der Fall ist, soll in den folgen­den Kapiteln diskutiert werden.


3. Ansätze zur Computerunterstützung beim Entscheiden

"DSS sind computergestützte Systeme, die dem Entscheidungsträger helfen sollen, Daten und Modelle zu benützen, um unstrukturierte Probleme zu lösen" [Sprague 1980, zitiert nach Bumbarov/Mitterstöger 1991, S. 1; vgl. auch Dannenberg 1990, S. 80]. Selbst diese sehr allgemeine Definition von DSS zeigt längst nicht alle Möglichkeiten auf, Computer zur Unterstützung von Entscheidungen einzusetzen. Denn in der Praxis werden vielfach auch Systeme, die nicht oder nicht ausschließlich zur Entscheidungsunterstützung gedacht sind, zu eben diesem Zweck eingesetzt. Beispiele dafür sind Tabellenkalkulationsprogramme, Planungssprachen oder auch Simulationsprogramme. Aber auch im Bereich der Systeme, die eindeutig als DSS zu bezeichnen sind, gibt es eine Vielzahl sehr unterschiedlicher Ansätze, den Computer beim Fällen von Entscheidungen zu nutzen. Systeme, die einen Entschei­dungsprozeß in seiner Gesamtheit unterstützen, und anhand deren Funktionalität man den Begriff "computerunterstütztes Entscheiden" definieren könnte, gibt es bisher offensichtlich nicht.

Aus diesen Gründen erscheint es sinnvoll, in dieser Arbeit nicht den Versuch zu unterneh­men, den Begriff "computerunterstütztes Entscheiden" abschließend zu definieren. Statt des­sen soll eine Auswahl an unterschiedlichen Ansätzen des computerunterstützten Entscheidens kurz vorgestellt werden. Diese Auswahl soll zum einen die wesentlichen existierenden Ansätze aufzeigen. Zum anderen ist die Auswahl so bemessen, daß die im folgenden Kapitel zu diskutierenden denk- und wahrnehmungspsychologischen Probleme sich wenigstens jeweils einem der hier vorgestellten Ansätze zuordnen lassen. Es wird im folgenden Kapitel jedoch auch gezeigt werden, daß eine ganze Reihe denk- und wahrnehmungspsychologischer Probleme von der Art der Computerunterstützung beim Entscheiden unabhängig sind, und deswegen auch zu berücksichtigen sind, wenn keine dedizierten DSS eingesetzt werden.


3.1 Tabellenkalkulationsprogramme und Planungssprachen

Sowohl Tabellenkalkulationsprogramme als auch Planungssprachen dienen der Aufbereitung und Analyse von (betrieblichen) Daten und dem Erstellen von Berichten. Hierzu verfügen sie neben allgemeinen Funktionen, wie z.B. Suchen und Sortieren, sowohl über grundlegende mathematische als auch - je nach System in mehr oder minder großem Umfang - über spezi­elle finanzmathematische und statistische Funktionen. In diesen Softwarewerkzeugen sind oft Funktionen enthal­ten, mit denen nume­rische Ergebnisse als sogenannte "Busineßgraphik" oder "Präsentationsgraphik" ausgegeben werden können [vgl. Ehlers 1986, S. 586].

Tabellenkalkulationsprogramme und Planungssprachen sind keine direkten Entscheidungs­unterstützungs-Systeme, sondern dienen in erster Linie der Entscheidungsvorbereitung. Sie geben nicht explizit eine Datenstruktur vor, die an einem Entscheidungsmodell orientiert ist, d.h. Begriffe wie "Aktionen", "Umweltzustände", "Ergebnisse" usw. spielen in Tabellen­kalku­lationsprogrammen und Planungssprachen keine Rolle. Mit den zur Verfügung stehen­den Funktionen lassen sich zwar an der normativen Entscheidungstheorie orientierte Modelle aufbauen, aber spezielle Funktionen zur Lösung der Modelle, wie z.B. Entscheidungsregeln bei Unsicherheit oder Verfahren zum Lösen von Multi-Criteria-Problemen, müßten vom Anwender selbst ergänzt werden.

Im Rahmen dieser Arbeit ist von Interesse, was bei der Aufbereitung von Daten mit Hilfe von Tabellenkalkulationsprogrammen und Planungssprachen aus wahrnehmungspsychologischer Sicht beachtet werden muß, um Fehlinterpretationen der Daten durch den Entscheider - und damit letztlich schlechte Entscheidungen - zu vermeiden.


3.2 Mathematisches Programmieren

"Mathematisches Programmieren" ist der Oberbegriff für Verfahren aus den Bereichen linea­res, nicht-lineares, ganzzahliges und dynamisches Programmieren. Aus mathematischer Sicht handelt es sich hierbei um Optimierung unter Nebenbedingungen. Entscheidungstheoretisch betrachtet heißt dies, daß in einem Aktionsraum (Lösungsraum) die beste Aktion gemäß einer vorgegebenen Zielfunktion zu finden ist. Der Aktionsraum ist hierbei eine kontinuier­liche oder diskrete (meist auch beschränkte) Teilmenge eines endlich-dimensionalen Vektor­raumes über den reellen Zahlen. Bestimmte Varianten bzw. Erweiterungen dieser Verfahren ermöglichen die Berücksichtigung von Unsicherheit, Unschärfe, Mehrfachzielsetzungen usw. Einen Überblick über das mathematische Programmieren bietet [Zimmermann 1992].

Auf den ersten Blick erscheinen Optimierungsverfahren wenig anfällig für Einflüsse aus dem denk- und wahrnehmungspsychologischen Bereich. Dies gilt jedoch nur, solange bzw. soweit das zu lösende Modell auf gesicherten, realitätsnahen Daten und funktionalen Zusammen­hängen basiert. Sobald dies nicht mehr der Fall ist, können beispielsweise aus den folgenden Gründen Lösungen entstehen, die zwar das Optimum des betreffenden Rechenmodells dar­stellen, aber praktisch unbrauchbar sind:

- zu ungenaue Schätzwerte für Parameter (Beispiel: Absatzprognosen in einem Produk­tionsplanungsmodell)

- unkorrekte Annahmen über funktionale Zusammenhänge, wie z.B. die unzulässige Ver­nachlässigung von Nicht-Linearitäten (um der Schwierigkeit nicht-linearer Verfahren aus dem Weg zu gehen)

- Nichtberücksichtigung von Zielen und Nebenbedingungen (z.B. weil sie für irrelevant gehalten oder einfach übersehen wurden)

Bei allen diesen Fehlern kann die Ursache in jenen denk- und wahrnehmungspsychologischen Effekten liegen, die der Kern des Themas dieser Arbeit sind.


3.3 Simulation

(Digitale) Simulation besteht aus dem Nachbilden eines Systems durch ein Berechnungs­modell auf einem Computer und aus dem Experimentieren mit diesem Modell [Mertens 1986, S. 534]. Dieses Expe­rimentieren kann ausschließlich auf das Verständnis des Systemverhaltens ausgerichtet sein, aber auch optimierenden Charakter haben, d.h. auf die möglichst günstige Gestaltung eines noch zu entwickelnden oder die optimale Einstellung oder Beeinflussung eines existierenden Systems abzielen. Simulationsmodelle können mit allgemeinen Programmiersprachen, mit speziellen Simulationssprachen und - bei kleinem Umfang und einfacher Struktur - heut­zu­tage auch z.B. mit Tabellenkalkulationsprogrammen erstellt werden.

Sowohl das Erstellen als auch das Auswerten von Simulationsmodellen ist in aller Regel nicht frei von denk- und wahrnehmungspsychologischen Effekten, und zwar unabhängig davon, ob zum Zwecke des Entscheidens nur das Verhalten eines Systems verstanden oder ob eine optimierende Simulation durchgeführt werden soll.

Beim Aufstellen von Simulationsmodellen spielen Annahmen über Variablenwerte und funk­tionale Zusammenhänge des zu modellierenden Systems eine Rolle. Diese Annahmen basie­ren oft auf subjektiven Schätzungen und Beobachtungen, da objektive Informationen nicht oder nur mit unvertretbar hohem Aufwand zu beschaffen sind. Schätzungen und Beobach­tungen unterliegen aber in mehr oder minder großem Umfang den Schwächen und Fehlern der menschlichen Wahrnehmung.

Aber auch das Auswerten der Experimente eines Simulationssystems kann nicht als objekti­ver Vorgang gesehen werden. Denn auch hierbei handelt es sich um einen Wahrnehmungs­prozeß, der letztlich die gleichen Fehlerquellen enthält, wie die Wahrnehmung der Ausgaben von anderen im Bereich "Entscheidungsunterstützung" eingesetzten Systemen.


3.4 MCDSS

Multi-Criteria-Decision-Support-Systems (MCDSS) sind Programme, die das Entscheiden bei Mehrfachzielsetzungen unterstützen sollen [vgl. Korhonen u.a. 1992a, S. 362]. Im Ent­scheidungsprozeß werden sie in einer sehr späten oder sogar der letzten Phase vor der Umsetzung der Entscheidung eingesetzt. Zur Modellierung von Entscheidungsproblemen tragen sie in aller Regel nicht oder nur sehr wenig bei; eine Betrachtung der bekannten Ver­fahren zeigt, daß der Aktionsraum, die Ergebnisse und die entsprechenden Ausprägungen der einzelnen Zielkri­terien - cum grano salis - als bekannt vorausgesetzt werden. Der Wunsch, daß die Multi-Criteria-Analyse dem Entscheidungsfäller während des gesamten Entschei­dungsprozesses helfen soll [vgl. Zimmermann/Gutsche 1991, S. 22 und Korhonen u.a. 1992a, S. 362], spiegelt sich in den existierenden Methoden und Programmen nicht wider. Die bis­herigen MCDSS unterstützen den Entscheider lediglich beim Auffinden einer für ihn adäqua­ten Kompromißalternative. Die denk- und wahrnehmungspsychologischen Probleme im Bereich der Modellierung von Entscheidungen werden also von MCDSS - bis auf den Bereich der Kompromiß­findung zwischen den als gegeben angenommenen Zielkriterien - ausgeklammert.

Entsprechend der oben erwähnten Unterscheidung von Multi-Criteria-Problemen in Multi-Objective- und Multi-Attribute-Probleme unterscheidet man MCDSS in MODSS und MADSS. In beiden Bereichen hat es in den letzten zwanzig Jahren zahlreiche Entwicklungen gegeben, bei denen insbesondere die folgenden Aspekte hervorzuheben sind [vgl. Korhonen u.a. 1992a, S. 362, S. 364 und S. 371]:

- Verwendung von Graphik

- Interaktivität

- Verwendung von Methoden, die auf der Fuzzy Set Theorie basieren.

Graphische Darstellungen sind der menschlichen Wahrnehmung meist wesentlich leichter und besser zugänglich als lange Zahlenkolonnen [vgl. Krämer 1994, S. 12]. Von daher bietet es sich an, gerade bei schwer zu überschauenden, vieldimensionalen Problemen graphische Darstellungen zur Vermittlung von Zusammenhängen einzusetzen. Da bei Entscheidungen unter Mehrfachzielsetzung zwangsläufig mehrere Dimensionen parallel in Betracht gezogen werden müssen, werden im Bereich MCDSS graphische Darstellungen häufig eingesetzt. Beispiele dafür sind Diagramme zum Vergleich zweier Alternativen und zweidimensionale Projektionen eines Ausschnitt aus einem vorgegebenen, vieldimensionalen Lösungsraum. Den unbestrittenen Vorteilen graphischer Darstellungen stehen aber die Erkenntnisse aus dem Bereich der sogenannten "optischen Täuschungen" gegenüber. Optische Täuschungen kön­nen dazu führen, daß der Entscheider eine Darstellung falsch oder verzerrt interpretiert, mit entsprechenden Folgen für die Qualität der Entscheidung. Diese Thematik wird - neben ande­ren - im folgenden Kapitel diskutiert werden.

Interaktive Methoden der Entscheidungsunterstützung bei Mehrfachzielsetzung wurden aus der Erkenntnis heraus entwickelt, daß der Entscheider vielfach seine Zielvorstellungen erst dann konkretisieren kann, wenn er darüber informiert ist, wie weit seine Ziele erreichbar sind [vgl. Zimmermann/Gutsche 1991, S. 137]. Das heißt, der Entscheider kennt zwar seine Zielkriterien der Art nach, kann aber erst nach der Entwicklung von Vorstellungen über den Lösungsraum Auskunft darüber geben, in wel­cher Form er Kompromisse zwischen konflin­gierenden Zielkriterien eingehen möchte. Dazu kommt, daß der Entscheider oft nicht in der Lage ist, seine Kompromißwünsche in einer direkt verwertbaren Form - z.B. als normierte Gewichte für die Zielkriterien - zu äußern. Aus diesen Gründen wurden zahlreiche Verfahren entwickelt, die den Entscheider schrittweise zu der für ihn günstigsten Lösung führen sollen. Aus denk- und wahrnehmungspsychologischer Sicht ergeben sich dabei z.B. folgende Fragen:

- Wie wirkt sich die Vorgehensweise des Verfahrens auf die letztliche Kompromißlösung aus?

- Wie soll man die erforderlichen Daten bei den einzelnen Verfahrensschritten präsentieren (z.B. um die oben erwähnten optischen Täuschungen zu vermeiden)?

- Welche Verfahren sind am schnellsten und welche belasten den Entscheider (z.B. bzgl. Konzentrationsfähigkeit) am wenigsten?

Im Rahmen dieser Arbeit soll die Forschung zu dieser Thematik lediglich in Form eines kur­zen Überblicks dargestellt werden, da man davon ausgehen kann, daß denk- und wahrneh­mungspsychologische Probleme anderer Art in der Praxis weitaus schwerwiegendere Folgen haben.

Die Verwendung von Fuzzy-Methoden bietet sich im Bereich MCDSS an, weil gerade Ziel­definitionen bei Entscheidungsproblemen häufig nicht exakt formuliert werden können. Mit Hilfe einer Reihe sehr unterschiedlicher Ansätze aus dem Bereich der Fuzzy Set Theorie kann man auch unpräzise, unvollständige, zum Teil sogar widersprüchliche Zieldefinitionen bei Multi-Criteria-Problemen der verschiedensten Art methodisch berücksichtigen. Da eine Ein­führung in Fuzzy Set Theorie den Rahmen dieser Arbeit sprengen würde, sei hierzu auf die einschlägige Literatur verwiesen [z.B. Tilli 1991 und Zimmermann 1991].

Fuzzy-Methoden sind für diese Arbeit in zweierlei Hinsicht interessant, und zwar erstens bezüglich der Fragestellung, ob und wenn ja, welche denk- und wahrnehmungspsycho­logi­schen Probleme mit ihnen verbunden sind, und zweitens, inwieweit sie als Lösung für denk- und wahrnehmungspsychologische Probleme beim computerunterstützten Entscheiden in Betracht kommen.


3.4.1 MADSS

Gegenüber MODSS liegt die größere praktische Bedeutung im Bereich "MADSS". Bei MADSS wird mit teilweise sehr unterschiedlichen Methoden versucht, den Anwender zur Wahl seiner bevorzugten Alternative hinzuführen. Die Methoden lassen sich beispielsweise hinsichtlich folgender Aspekte gliedern [vgl. Zimmermann/Gutsche 1991, S. 27ff.]:

- kompensatorische oder nicht-kompensatorische Beziehung zwischen Zielkriterien (den "Attributen")

- ordinale oder kardinale Skalierung der Attributwerte innerhalb der Attribute

- Verwendung keiner, ordinaler oder kardinaler Informationen bezüglich der relativen Wichtigkeit der Attribute

- Verwendung von Fuzzy-Methoden oder nicht.

Die Unterscheidung zwischen kompensatorischer und nicht-kompensatorischer Beziehung zwischen Zielkriterien gibt es allgemein im Bereich MCDSS. Sie kennzeichnet die Frage, ob ein besserer Wert bei einem Zielkriterium einen schlechteren bei einem anderen ausgleichen kann oder nicht. Kompensatorisch sind z.B. alle Verfahren, bei denen Zielkriterien gewichtet werden. Hierzu gehören im Bereich MADSS die lineare Zuordnungsmethode, die einfache additive Gewichtung, hierarchische Gewichtungsverfahren wie der Analytic Hierarchy Process (AHP), ELECTRE, PROMETHEE und diverse Fuzzy-Methoden. Einen Überblick über diese Verfahren bietet [Zimmermann/Gutsche 1991]. Nicht-kompensatorisch sind z.B.

- die lexikographische Vorgehensweise, bei der ein Zielkriterium von ausschlaggebender Bedeutung ist und weitere Kriterien nur sukzessive herangezogen werden, soweit anhand der bereits betrachteten Kriterien noch keine Aktion eindeutig präferiert ist, und solche

- Vorgehensweisen, bei denen durch schrittweises Erhöhen von Anspruchsniveaus bezüg­lich der Zielkriterien solange Aktionen aus dem Lösungsraum ausgeschlossen werden, bis nur noch die eine präferierte Lösung übrig bleibt.

Die ordinale oder kardinale Skalierung der Attributwerte innerhalb der Attribute charakteri­siert

- ob zwischen den Attributwerten (jeweils eines Zielkriteriums) lediglich eine Rangordnung besteht, ohne daß etwas über den Abstand zwischen zwei Rangplätzen ausgesagt werden kann, oder

- ob der Abstand zwischen zwei Attributwerten zahlenmäßig ausgedrückt werden kann, ob also diese Werte (sinnvoll) addiert bzw. subtrahiert und ob insbesondere Mittelwerte gebildet werden können [vgl. Zimmermann/Gutsche 1991, S. 12f.].

Die Frage der Verwendung keiner, ordinaler oder kardinaler Informationen bezüglich der Wichtigkeit der Attribute sagt aus

- ob keinerlei Vorstellungen des Entscheiders bezüglich der Frage, welches Zielkriterium ihm am wichtigsten ist, verwendet werden, oder

- ob zwischen den Attributen eine Rangordnung besteht, ohne daß etwas über den Abstand zwischen zwei Rangplätzen ausgesagt werden kann, oder

- ob die relative Wichtigkeit eines Attributes gegenüber einem anderen zahlenmäßig aus­gedrückt werden kann ("Zielkriterium C1 ist doppelt so wichtig wie Zielkriterium C2").

So arbeitet z.B. die lineare Zuordnungsmethode zwar lediglich mit ordinalen Informationen bezüglich der Zielerreichungsgrade der Alternativen je Zielkriterium ("Alternative i kommt bei Kriterium c auf Rang k"), die relative Bedeutung der Kriterien untereinander wird jedoch durch Gewichte, also zahlenmäßig, ausgedrückt [vgl. Zimmermann/Gutsche 1991, S. 60ff.]. Für das lexikographische Verfahren genügen ordinale Informationen sowohl innerhalb der Attribute als auch bezüglich ihrer relativen Wichtigkeit; AHP benötigt für beides kardinale Informationen.

Wegen ihrer leichten Verständlichkeit und Handhabbarkeit werden Verfahren, die kardinal skalierte Informationen benötigen, in der Praxis oft auch dann eingesetzt, wenn Attributwerte oder die relative Wichtigkeit der Attribute nur auf einer relativ groben, verbalen Skala geschätzt werden können, wie z.B. "fast unwichtig", "weniger wichtig", "mittel", "wichtig", "sehr wichtig". Oft wird dann einfach angenommen, daß sich eine solche Skala etwa auf die Werte 1/15, 2/15, 1/5, 4/15, 1/3 angemessen abbilden ließen und daß mit diesen Zahlen aus­geführte Rechenoperationen zu verwertbaren Ergebnissen führen. Die theoretische Frag­würdigkeit einer solchen Vorgehensweise wird durch psychologische Untersuchungen untermauert, die sich mit der zahlenmäßigen Bedeutung von verbal ausgedrückten Skalierun­gen beschäftigen [vgl. Zimmermann/Gutsche 1991, S. 11f. und S. 37 sowie Eisenführ/Weber 1993, S. 152f.]. Dies und der psychologische Hintergrund, warum theoretisch unzulässige Verfahren dennoch eingesetzt werden, wird weiter unten erläutert. Außerdem wird auf spe­zielle Probleme des Bestimmens von Gewichtungen eingegangen.


3.4.2 MODSS

Das Hauptunterscheidungskriterium für Verfahren im Bereich MODSS ist, zu welchem Zeit­punkt vom Entscheider Informationen über seine Präferenzvorstellungen hinsichtlich der Zielkriterien bzw. deren Ausprägungen verlangt werden. Es gibt drei Möglichkeiten: Entwe­der muß der Entscheider seine Präferenzvorstellungen im vorhinein äußern ("Verfahren mit a-priori Information"), oder sie werden ihm in einem interaktiven Verfahren "entlockt" ("Verfahren mit progressiver Information"), oder es wird lediglich die sogenannte vollstän­dige Lösung, d.h. die Menge aller nicht-dominierten Alternativen, ermittelt, aus der der Ent­scheider dann im nachhinein - meist ohne weitere Unterstützung - seine "optimale Kompro­mißlösung" auswählt ("Verfahren mit a-posteriori Information") [vgl. Zimmermann/Gutsche 1991, S. 30f.]. Algorithmen zur Ermittlung der vollständigen Lösung gibt es zumindest für lineare Probleme; diese sind allerdings rechnerisch aufwendig [vgl. Zimmermann/Gutsche 1991, S. 103].

Zu den Verfahren mit a-priori Information gehören die (konstante) Zielgewichtung, die Ein­schränkung der in Frage kommenden Lösungen durch Anspruchsniveaus für alle oder einen Teil der Zielkriterien, und die Verfahren aus dem Gebiet des Zielprogrammierens.

Bei der konstanten Zielgewichtung wird aus den Funktionen der einzelnen Zielkriterien durch gewichtete Summation eine Gesamtzielfunktion gebildet, und dadurch das Multi-Objective-Problem zu einem Optimierungsproblem bezüglich der Gesamtzielfunktion reduziert. "Konstante" Gewichtung heißt in diesem Zusammenhang, daß die Gewichte nicht von den Zielerreichungsgraden der einzelnen Zielkriterien abhängen. Ob eine konstante Gewichtung und die durch die Summation implizierte Unabhängigkeit der einzelnen Zielkriterien die Vorstellungen des Entscheiders realistisch wiedergeben, ist im Einzelfall sicherlich fragwür­dig [vgl. Zimmermann/Gutsche 1991, S. 112f.].

Anspruchsniveaus können in Form von zusätzlichen Nebenbedingungen bei prinzipiell allen Methoden des linearen und nicht-linearen Programmierens berücksichtigt werden. Allerdings ist das Setzen geeigneter Anspruchsniveaus nicht unproblematisch, da es z.B. vorkommen kann, daß die zusätzlichen Nebenbedingungen zu einem leeren Lösungsraum führen [vgl. Zimmermann/Gutsche 1991, S. 120].

Beim Zielprogrammieren wird eine "Ideallösung" zusammen mit einer Abstandsfunktion vor­gegeben. Diese Abstandsfunktion - üblicherweise eine gewichtete lp-Norm - wird dann z.B. mit Hilfe linearer Programmierung minimiert [vgl. Zimmermann/Gutsche 1991, S. 121ff.]. Hier ergibt sich ein ähnliches Problem wie bei Gewichtungsverfahren, da es fraglich ist, ob der durch die gewählte Norm vorgegebene Verlauf der Abstandsfunktion die Präferenzvor­stellungen des Entscheiders korrekt widerspiegelt.

Alle Verfahren auf der Basis von a-priori Informationen erfordern vom Entscheider, daß er seine Präferenzvorstellungen ohne Informationen darüber, was überhaupt realisierbar ist, und meist auch direkt, also ohne Hilfe spezieller Meßmethoden, in Form von Zahlenangaben äußert. Psychologische Effekte können aus beiden Gründen zu erheblichen Verzerrungen der geäußerten Werte führen.

Durch interaktive Verfahren versucht man sowohl das Problem zu umgehen, daß der Ent­scheider seine Präferenzvorstellungen häufig im vorhinein nicht äußern kann oder will, als auch das Problem, daß die Beschränkung auf das Berechnen der vollständigen Lösung wegen ihrer Größe in aller Regel den Entscheider nicht ausreichend unterstützt. Bei interaktiven MODSS wird der Entscheider ausgehend von mindestens einer nicht-dominierten Lösung durch die vollständige Lösung geführt, bis er eine vorgeschlagene Lösung akzeptiert (oder festgestellt wird, daß das Problem keine für den Entscheider akzeptable Lösung hat). Dabei werden vom Entscheider jeweils nur "lokale" Informationen abgefragt, d.h. Informationen über seine Präferenzen in der Umgebung der gerade vorgeschlagenen Lösung, über eine ein­zelne Alternative oder über ein einzelnes Zielkriterium [vgl. Zimmermann/Gutsche 1991, S. 137f.].

Die Abfrage der Informationen vom Entscheider kann prinzipiell auf zwei Arten erfolgen, und zwar entweder

- es werden von ihm direkt Zahlenangaben verlangt, wie z.B. Austauschraten bezüglich der Zielerreichungsgrade zweier Zielkriterien (engl. "trade-offs"), Angabe von Anspruchs­niveaus usw., oder

- er muß eine Auswahl aus einer Menge von Vektoren treffen, wobei die Vektoren meist die Zielerreichungsgrade in Frage kommender Lösungen sind; es können aber auch soge­nannte "Trade-off-Vektoren" sein, wobei dann der ausgewählte Vektor die Richtung vorgibt, in der nach einer verbesserten Lösung gesucht werden soll. Die Auswahl erfolgt meist in der Weise, daß der Entscheider nur den besten vorgegebenen Vektor angeben muß; es gibt jedoch auch die Möglichkeit, daß der schlechteste Vektor aus einer Menge zu streichen ist.

Beispiele sind

- das Verfahren von Geoffrion, Dyer und Feinberg (GDF) für die direkte Angabe von Austauschraten,

- STEM für die (schrittweise) Angabe von Anspruchsniveaus,

- das Verfahren von Steuer für die Auswahl des besten aus einer Menge von Lösungs­vektoren (bzw. die zugehörigen Zielfunktionsvektoren) und

- das Verfahren von Zionts und Wallenius für die Auswahl des besten aus einer Menge von Trade-off-Vektoren.

Einen Überblick über diese Verfahren bietet [Zimmermann/Gutsche 1991, S. 137ff.]. Die denk- und wahrnehmungspsychologischen Probleme interaktiver MCDSS-Verfahren wurden bereits oben erwähnt.


3.5 Graphisches Modellieren von Entscheidungen

Neben zahlreichen Ansätzen - z.B. im Software Engineering - das Modellieren von Systemen graphisch zu unterstützen, gibt es auch erwähnenswerte Versuche, Entscheidungen mit gra­phischen Methoden zu modellieren. Neben der verbreitetsten Methode, den Entscheidungs­bäumen (engl. "decision trees"), wurden in den achtziger Jahren die "influence diagrams" und in den neunziger Jahren die "valuation networks" entwickelt [vgl. Shenoy 1994, S. 1]. Alle diese Verfahren dienten ursprünglich nur der Darstellung von Entscheidungsproblemen, jedoch existieren mittlerweile auch für alle diese Verfahren Methoden zur Lösung des jeweils dargestellten Problems, wie z.B. das dynamische Programmieren für Entscheidungsbäume. Wegen der Vorteile von "influence diagrams" gegenüber Entscheidungsbäumen [vgl. Shenoy 1994, S. 6 und S. 13] und der Ähnlichkeit zwischen "valuation networks" und "influence diagrams" sollen hier nur letztere kurz erläutert werden.

"Influence diagrams" dienen als Werkzeuge zur Strukturierung von Beziehungen zwischen Variablen [vgl. Bodily 1985, S. 23]. Entscheidungsprobleme werden dabei als gerichtete Graphen mit unterschiedlichen Arten von Knoten und gegebenenfalls auch unterschiedlichen Arten von Bögen dargestellt. Kreise symbolisieren dabei Zufallsvariable, Rechtecke reprä­sentieren Entscheidungsvariable und Rhomben stellen Nutzenfunktionen dar. Bögen, die in eine Zufallsvariable hineingehen, zeigen die Existenz einer bedingten Wahrscheinlichkeit an; Bögen, die in eine Entscheidungsvariable hineingehen, zeigen an, welche Informationen zum Zeitpunkt der Festlegung der Entscheidungsvariablen bekannt sind; Bögen, die an einem Rhombus enden, sagen aus, von welchen Variablen die betreffende Nutzenfunktion abhängt [vgl. Shenoy 1994, S. 8]. Mit Hilfe einer erweiterten Symbolik lassen sich auch unsichere Einflüsse in "influence diagrams" darstellen [vgl. Bodily 1985, S. 23].

Wenn man davon ausgeht, daß die möglichen Ausprägungen der Entscheidungsvariablen letztendlich den Aktionsraum ergeben, und die Nutzenfunktionen die bewerteten Ergebnisse -  also letztendlich die Ziele -  repräsentieren, so stellen "influence diagrams" ein Werkzeug dar, um Entscheidungen im Sinne des Grundmodells der normativen Entscheidungstheorie zu modellieren. Damit wird eine Computerunterstützung von Entscheidungsprozessen bereits in relativ frühen Stadien möglich. Aus denkpsychologischer Sicht entlasten graphische Darstel­lungen von Problemen das Gehirn und Erhöhen damit seine Fähigkeiten insbesondere bei umfangreichen und unübersichtlichen Problemstellungen. Andererseits bleibt auch bei "influence diagrams" (ebenso wie bei "valuation networks" und Entscheidungsbäumen) die Frage der Datenherkunft offen. Auch "influence diagrams" können z.B. fehlerhaft geschätzte Wahrscheinlichkeiten nicht ausgleichen. Somit sind "influence diagrams" aus Sicht der Denk- und Wahrnehmungspsychologie beim Entscheiden zwar sicherlich sinnvoll und hilfreich, aber auch ihr Einsatz bedarf flankierender Maßnahmen, wenn die Qualität von Entscheidungen nicht mehr als nötig dem Zufall überlassen werden soll.


3.6 Expertensysteme

"Ein Expertensystem ist ein Computersystem, das auf einem speziellen Wissensgebiet die Kompetenz von menschlichen Experten besitzt und als Beratungs- und Problemlösungs­system eingesetzt wird" [Rollinger 1986, S. 219]. Savory bezeichnet Expertensysteme als "rechnerunterstützte Entscheidungshilfsmittel" [Savory 1988, S. 7] und drückt damit die Nähe zu DSS aus. Expertensysteme unterscheiden sich von DSS in erster Linie durch die oben erwähnte Spezialisierung auf ein bestimmtes -  meist eng umgrenztes -  Wissensgebiet. Mit DSS meint man dagegen in aller Regel Systeme, die von einem speziellen Wissens- und damit auch Aufgabengebiet unabhängig sind. Dementsprechend muß für den Einsatz eines DSS jeweils die gesamte Problemstellung modelliert werden, während beim Einsatz eines Expertensystems nur solche Daten speziell eingegeben werden müssen, die nicht bereits in der Wissensbasis des Systems vorhanden sind.

Aus Sicht der Denk- und Wahrnehmungspsychologie ist der Einsatz von Expertensystemen zur Entscheidungsunterstützung einerseits sehr positiv zu bewerten, da Expertensysteme eine Reihe von menschlichen Schwächen, z.B. in den Bereichen "Gedächtnis" und "Schluß­fol­gern", ausgleichen können. Andererseits liegen aber insbesondere im Aufbau der Wissens­basis eines Expertensystems mögliche Fehlerquellen, wenn diese Wissensbasis nicht allein auf "harten Daten", sondern auch auf Schätzwerten und "Daumenregeln" basiert. Diese Fehler­quellen sind weitgehend identisch mit denen beim Aufbau eines Entscheidungsmodells (für eine spezielle Entscheidungssituation), das mit Hilfe eines DSS gelöst werden soll. Sie werden dementsprechend im Hauptteil dieser Arbeit ausführlich diskutiert.


3.7 Group Decision Support Systems

Group Decision Support Systems (GSS) sind Systeme, die Gruppen von Personen bei Ent­scheidungen unterstützen sollen. Sie sollen die Kommunikation innerhalb von Entschei­dungsgruppen verbessern oder z.B. der Vorbereitung der einzelnen Parteien auf Verhand­lungssituationen dienen [vgl. Korhonen u.a. 1992a, S. 372]. Von Bumbarov/Mitterstöger wurde z.B. ein GSS entwickelt, daß bei Entscheidungen in Unternehmen die Moderation der Teamsitzungen unterstützen soll. Ziel war es dabei, Team-Entscheidungsprozesse besser zu strukturieren und produktiver bzw. kreativer zu gestalten; außerdem sollte der Einsatz des Systems so effizient sein, daß es häufig eingesetzt wird [vgl. Bumbarov/Mitterstöger 1991, S. 2]. Die Teamsitzungen werden bei diesem System in Form von sogenannten "Sprechblasen", also stichwortartig mitprotokolliert. Diese Sprechblasen werden dabei auf einem entsprechenden Display für alle Sitzungsteilnehmer sichtbar gemacht. Sie können Lösungsvorschläge (Aktionen) oder auch Zielkriterien enthalten. Auch zur Lösung von Ziel­konflikten schlagen Bumbarov/Mitterstöger eine Methode vor; es handelt sich hierbei jedoch um ein reines "Praktikerverfahren", für das keine theoretische Begründung angegeben wird. Die psycho­logischen Aspekte von GSS werden von Bumbarov/Mitterstöger nicht erwähnt, obwohl gerade in Gruppen - neben positiven Wirkungen, die man nicht uner­wähnt lassen sollte - Effekte auftreten können, die die Qualität von Entscheidungen unnötig verschlechtern und zudem möglicherweise ein falsches, sehr gefährliches Sicherheitsgefühl hervorrufen.

Zusammenfassend kann bereits hier gesagt werden, daß jede Form von computerunterstütz­tem Entscheiden auch den Einflüssen der Denk- und Wahrnehmungspsychologie unterliegt. Um zu besserem Entscheiden zu kommen, genügt es allerdings nicht, diese Tatsache allge­mein festzuhalten, sondern es muß konkret festgestellt werden, wo und in welcher Form denk- und wahrnehmungspsychologische Effekte zur Fehlerquelle werden können. Dies wird im folgenden Kapitel näher untersucht werden.

An dieser Stelle sei aber auch bereits vor der Annahme gewarnt, der völlige Verzicht auf Computerunterstützung beim Entscheiden sei die Lösung für die in dieser Arbeit aufgezeig­ten Probleme. Denk- und wahrnehmungspsychologische Effekte dürften im Gegenteil gerade ohne Computerunterstützung noch weitaus häufiger zu schlechten Entscheidungen führen als mit.


4. Informationsaufnahme und -verarbeitung durch den Menschen

Das Fällen von Entscheidungen ist letztendlich ein Prozeß der Informationsverarbeitung durch den Menschen. Wer das Fällen von Entscheidungen unterstützen will, muß sich also damit auseinandersetzen, wie und welche Informationen Menschen aufnehmen und speichern, und wie sie sie abrufen und verarbeiten. Die hiermit zusammenhängenden Fragen werden in erster Linie von der Denk- und Wahrnehmungspsychologie behandelt, aber z.B. auch von der betriebswirtschaftlichen Organisationstheorie und der deskriptiven Entscheidungstheorie.

Die folgenden Ausführungen zur menschlichen Informationsverarbeitung beruhen auf der aktuellen psychologischen Literatur und zum Teil auch auf Forschungsergebnissen aus ande­ren Disziplinen, wie z.B. Neurologie, Wirtschaftswissenschaften und Operations Research. Erkenntnisse auf diesen Gebieten sind mit größeren Unsicherheiten behaftet als beispiels­weise Erkenntnisse aus der Physik, unter anderem deswegen, weil

- zu wenig empirisch geforscht und oft mit relativ kleinen Stichproben gearbeitet wird [vgl. Tversky/Kahnemann 1971, S. 26 und Schönwandt, S. 17]; wahrscheinliche Ursache hierfür ist der Aufwand, den (aussagekräftige) empirische Untersuchungen erfordern.

- die Zahl möglicher Einflußvariablen relativ hoch ist. Damit ist die Interpretation von For­schungsergebnissen, wie z.B. der Schluß von statistischen Zusammenhängen auf Kausali­täten, schwieriger; außerdem ist die Übertragbarkeit der Ergebnisse von Laborexperimen­ten in die Praxis in Frage gestellt, weil beim Übergang vom Labor in die Praxis die Zahl der möglichen Einflußvariablen nochmals ansteigt.

Es ist also damit zu rechnen, daß neuere Forschungsergebnisse das aufgeführte Wissen nicht nur ergänzen, sondern in einzelnen Fällen auch widerlegen könnten. Dementsprechend müß­ten dann auch DSS und die Formen ihres Einsatzes an den neusten Stand der Forschung angepaßt werden.

Im folgenden sollen nicht nur die jeweiligen Erkenntnisse aufgeführt, sondern immer auch die möglichen Auswirkungen auf das Lösen von Entscheidungsproblemen genannt werden. Diese Auswirkungen bestehen in erster Linie in möglichen Fehlerquellen, die zu falschen Daten in Entscheidungsmodellen und damit zur Wahl einer ungünstigeren Alternative (als bei korrekten Daten) führen können.

Die Betonung liegt dabei auf möglichen Fehlerquellen, denn ob ein Fehler tatsächlich gemacht wird, und ob sich ein falscher Wert in einem Entscheidungsmodell letztendlich auswirkt, hängt vom Einzelfall ab. Untersuchungen zur Frage, welche Schwächen des menschlichen Denk- und Wahrnehmungsapparates in welchem Maße (bezüglich Häufigkeit und Schwere) in der Praxis zu Fehlern bei Entscheidungen führen, liegen bisher nur ansatz­weise vor; Beispiele für derartige Ansätze sind [Geißler 1986] und [Janis 1972]. Außerdem gibt es Untersuchungen über Insolvenzursachen und Unternehmenskrisen [vgl. Geißler 1986, S. 51ff. und die dort zitierte Literatur]. Umfangreiche Untersuchungen über die realen Planungs- und Handlungsaktivitäten von Führungskräften in Staat und Wirtschaft wären eigentlich notwendig, sind aber nur schwer durchführbar, unter anderem deswegen, weil es an hinreichend detaillierter und korrekter Dokumentation der Planungs- und Entscheidungs­prozesse mangelt [vgl. Dörner 1992, S. 19]. Aus diesen Gründen können die praktischen Auswirkungen einzelner Schwächen des menschlichen Denk- und Wahrnehmungsapparates nur auf der Basis theoretischer Überlegungen und nicht auf der Basis wissenschaftlich gesi­cherten Datenmaterials eingeschätzt werden. Da Einschätzungen auf der Basis theoretischer Überlegungen sehr fehleranfällig sind, liegt in diesem Bereich zweifelsohne ein Forschungs­defizit, das trotz aller Schwierigkeiten verringert werden sollte.


4.1 Aufbau und Arbeitsweise des menschlichen Denk- und Wahrnehmungsapparates

An der menschlichen Informationsaufnahme- und verarbeitung sind in erster Linie die Sinnesorgane, die Nerven und das Gehirn beteiligt. Dazu kommen in gewissem Umfang hor­monale Einflüsse, d.h. Einflüsse durch Substanzen, die über das Blut zu den Organen gelan­gen und deren Arbeitsweise in gewissen Grenzen steuern können.

Die Informationsaufnahme beginnt in den Sinnesorganen. Teilweise werden die ankommen­den Reize schon hier vorverarbeitet. So werden z.B. die Lichtreize, die auf die Zäpfchen und Stäbchen in der Netzhaut des Auges treffen, bereits dadurch zusammengefaßt, daß jeweils die von einem (kleinen) Netzhautgebiet stammenden Reize über nur eine Nervenzelle an das Gehirn weitergeleitet werden [vgl. Anderson 1989, S. 39].

Die Reizleitung selbst erfolgt durch die Ausbreitung von elektrischen Impulsen in den soge­nannten Axonen. Dies sind bis zu einem Meter lange röhrenartige Fortsätze der Nervenzellen (Neuronen), von denen das menschliche Gehirn ca. 100 Milliarden enthält. Die von anderen Nervenzellen ankommenden Reize werden von einem Neuron über kurze Verästelungen, sogenannte "Dendriten", auf elektrochemischem Weg aufgenommen. Dazu werden am Ende des Axons Neurotransmitter-Substanzen ausgeschüttet, die auf der anderen Seite der Kon­taktstelle zwischen Axon und Dendrit (der sogenannten "Synapse") das Membranpotential ändern. Je nach Art der Synapse kann dadurch die Weiterleitung des betreffenden oder eines anderen, gleichzeitigen Reizes bewirkt oder gehemmt werden. Ein durchschnittliches Neuron hat ca. 1000 synaptische Verbindungen; die Gehirnzellen sind also in hohem Maße vernetzt. Die Signallaufzeiten im Gehirn liegen im Millisekunden-Bereich; seine Geschwindigkeit erreicht das Gehirn nur dadurch, daß Milliarden von Signalübertragungsprozessen parallel ablaufen [vgl. Anderson 1989, S. 31ff.].

Die Speicherung von Gedächtnisinhalten erfolgt -  nach heutigem Wissensstand -  durch eine Änderung des Wirkungsgrades von Synapsen. Je häufiger eine Reizleitung über eine Synapse erfolgt, desto leichter tritt die Wirkung des Reizes -  also der Abruf von Informationen aus dem Gedächtnis -  ein. Gedächtnisinhalte werden allerdings nicht in einzelnen Neuronen oder Synapsen gespeichert, sondern in großen Mustern über Neuronen im gesamten Gehirn ver­teilt [vgl. Anderson 1989, S. 34f.].

Die Betrachtung des menschlichen Gehirns auf der neuronalen Ebene macht bereits deutlich, daß man nicht damit rechnen kann, daß es sich z.B. wie ein Datenbanksystem auf einem Computer verhält. Auf der psychischen Ebene lassen sich dementsprechend auch wesentliche Unterschiede sowohl bezüglich der Arbeitsweise als auch bezüglich der Fähigkeiten zwischen dem menschlichen Gehirn und einem Computer feststellen.

Die Unterschiede beginnen bei der Informationsaufnahme. Während ein Computer Daten in einer Form speichern kann, die sich -  aus der Sicht des Anwenders -  von der Eingabe nicht unterscheidet, ist die menschliche Wahrnehmung ein Prozeß, der immer mit einer sofortigen Informationsverarbeitung und einer starken Informations­reduktion verbunden ist [vgl. Meyer/Booker 1991, S. 34].

Zunächst wird für sehr kurze Zeit (maximal 1 - 2 Sekunden) eine praktisch unbegrenzte Informationsmenge in das sogenannte "sensorische Gedächtnis" (SG) aufgenommen [vgl. Zimbardo/Ruch 1978, S. 190, Anderson 1989, S. 52 und Brander u.a. 1989, S. 22]. Die Informationen im SG zerfallen automatisch wieder, oder aber sie werden zu sogenannten "Chunks" verdichtet in das Kurzzeitgedächtnis (KZG) übernommen. Die Kapazität des KZG ist auf ca. sieben Chunks beschränkt, die maximale Speicherdauer beträgt ca. 18 Sekunden [vgl. Brander u.a. 1989, S. 22f. und Miller 1956]. Bei der Verdichtung der Informationen aus dem SG zu Chunks wird auf bereits vorhandenes Wissen zurückgegriffen. Wichtig dabei ist, daß Chunks Gedächtniseinheiten sind, denen ein Bedeutungsinhalt zukommt, also z.B. Begriffe und nicht bloß sinnlose Buchstabenfolgen [vgl. Anderson 1989, S. 135 und Zimbardo/Ruch 1978, S. 197ff.]. Die Prinzipien, nach denen Informationen zu Chunks orga­nisiert werden, unter­scheiden häufig den Experten vom Laien und sind Grundlage für eine Reihe von intellektuel­len Fähigkeiten [vgl. Brander u.a. 1989, S. 36ff.]. Bedingt durch besse­res Chunking können Experten unter Umständen größere Informationsmengen aufnehmen und verarbeiten als Laien [vgl. Meyer/Booker 1991, S. 30 und Anderson 1989, S. 228 und S. 240].

Durch Wiederholen, vertiefendes Verarbeiten und Vernetzung mit bereits vorhandenem Wissen können Informationen aus dem Kurzzeit- in das Langzeitgedächtnis (LZG) über­nommen und somit auf Dauer gespeichert werden [vgl. Brander u.a. 1989, S. 31ff. und Anderson 1989, S. 158ff.]. Die Kapazität des LZG ist prinzipiell unbegrenzt, allerdings kön­nen die mit der Speicherung und dem Informationsabruf verbundenen Prozesse zur fehler­haften Wiedergabe von Gedächtnisinhalten führen; außerdem werden prinzipiell vorhandene Informationen nicht oder nur unvollständig wiedergefunden, wenn ein ungeeigneter Zugriffspfad gewählt wird [vgl. Brander u.a. 1989, S. 23, Anderson 1989, S. 145ff. und Zimbardo/Ruch 1978, S. 182ff.].

Informationseinheiten werden im LZG nicht völlig unstrukturiert gespeichert. Zum einen stellt die hierarchische Organisation von Wissen ein bedeutsames Prinzip dar [vgl. Brander u.a. 1989, S. 49 und Anderson 1989, S. 79 und S. 172ff.]; zum anderen spielt aber auch die Bildung von Kategorien anhand definierender Merkmale eine Rolle. Bei den sogenannten "Merkmalsmodellen" geht man davon aus, daß die Frage, ob ein Objekt in eine bestimmte Kategorie gehört, anhand eines Vergleiches der Merkmale des Objektes mit denen eines Prototyps der betreffenden Kategorie erfolgt. Solche Vergleiche können zumindest in einem ersten Schritt zu Unklarheiten und Mehrdeutigkeiten führen, die durch eine hierarchische Wissensorganisation nicht erklärt werden können [vgl. Brander u.a. 1989, S. 49ff. und Anderson 1989, S. 123].

Bei der Informationsabfrage breitet sich eine Aktivierung entlang der durch die Strukturie­rung des Wissens vorgegebenen Verbindungen aus. Diesen -  zumindest teilweise unbewußten Vorgang -  bezeichnet man als "assoziative Bahnung" [vgl. Anderson 1989, S. 143]. Er kann beispielsweise durch konkurrierende Verbindungen gestört werden [vgl. Anderson 1989, S. 147ff. und S. 225f. und Zimbardo/Ruch 1978, S. 192].

Im Gegensatz zu einer Datenbankabfrage an einem Computer, bei der man - eine korrekte Abfrage vorausgesetzt - eine vollständige und unverfälschte Wiedergabe der gespeicherten Informationen erwarten kann, muß man also bei einer LZG-Abfrage immer mit (teilweise) falschen, unvollständigen, mehrdeutigen oder auch zusätzlichen, überflüssigen Informationen rechnen. Daraus folgt z.B., daß man das Aufstellen eines Entscheidungsmodells als einen Prozeß sehen muß, in dessen Verlauf immer wieder Ergänzungen und Korrekturen an dem jeweiligen Modell durchzuführen sind.

Die zweite, direkt aus dem Wissen über das Gedächtnis ableitbare Erkenntnis für das com­puterunterstützte Entscheiden betrifft die stark begrenzte Kapazität des KZG. Da für die Verarbeitung von Informationen diese im KZG verfügbar gehalten werden müssen [vgl. Anderson 1989, S. 134], sollten DSS das KZG soweit wie möglich entlasten. Alle für den Entscheider gerade erforderlichen Informationen sollten zwar vom System auf Wunsch sofort angezeigt werden können, aber wenn möglich sollten nie mehr als 5 - 9 Informationseinheiten gleichzeitig präsentiert werden. Diese Grenze ist z.B. bei interaktiven MCDSS schnell über­schritten, wenn mehrere Alternativen anhand mehrerer Kriterien verglichen werden sollen. Allerdings sinkt die Leistungsfähigkeit des Gehirns bei Überschreiten der Grenze nicht schlagartig ab, sondern es kommt lediglich zu einer vergröberten Beurteilung [vgl. Meyer/Booker 1991, S. 29].

Indirekte Auswirkungen der begrenzten Kapazität des KZG und der sofortigen Informations­verarbeitung bei der Wahrnehmung auf das computerunterstützte Entscheiden werden in den folgenden Abschnitten diskutiert.


4.2 Schwächen des menschlichen Denk- und Wahrnehmungs­apparates

Die Schwächen des menschlichen Denk- und Wahrnehmungsapparates basieren letztendlich wohl alle auf der Tatsache, daß das menschliche Gehirn sich im Laufe der Evolution nicht in Richtung auf systematisches, qualitativ hochwertiges Entscheiden, sondern in Richtung auf schnelles Reagieren -  insbesondere in Notsituationen -  und auf "ad-hoc-Problemlösen" hinentwickelt hat [vgl. Dörner 1992, S. 13, Schönwandt 1986, S. 8 und Bender/Nack 1995 Bd. I, S. 4]. Diese Schwächen lassen sich dennoch -  trotz einiger Grenzfälle   recht gut in zweierlei Hinsicht gliedern: Zum einen hinsichtlich der Frage, ob sie motivational oder kognitiv bedingt sind [vgl. Meyer/Booker, S. 39], zum anderen hinsichtlich der Frage, ob sie im Bereich

- der Informationsaufnahme (Wahrnehmung),

- der (reinen) Informationswiedergabe (Gedächtnisabfrage) oder

- der Informationsverarbeitung

angesiedelt sind.

Motivational bedingte Schwächen basieren auf Wünschen, Zielen und Motiven, die nicht in ein Entscheidungsmodell eingehen sollten oder dies an der falschen Stelle oder in falscher Art und Weise tun. Motivational bedingte Schwächen resultieren also aus Gefühlen, die das Denken und Entscheiden theoretisch zwar nicht beeinflussen sollten, dies praktisch aber -  in manchmal sogar fataler Weise -  tun. "Denken ist eingebettet in den Kontext der Gefühle und Affekte, beeinflußt diesen Kontext und wird selbst wieder von ihm beeinflußt" [Dörner 1992, S. 14].

Die kognitiv bedingten Schwächen liegen hingegen in den Beschränkungen des Denk- und Wahrnehmungsapparates selbst. Dazu gehören z.B. alle Schwächen, die sich auf die begrenzte Kapazität des KZG zurückführen lassen, und solche, die auf der Art und Weise der Speicherung von Informationen im LZG basieren. Aus Sicht der Systemtheorie sind die kognitiv bedingten Schwächen durch den Aufbau und die Arbeitsweise des Systems verur­sacht, die motiva­tional bedingten durch seine Ziel- oder Steuergrößen.

Denkvorgänge erfordern immer auch den Zugriff auf bereits gespeichertes Wissen. Des­we­gen können Fehler bei der Informationsaufnahme bis in die zum Entscheiden erforderliche Informationsverarbeitung durchschlagen. Die Art der Fehler umfaßt dabei die Nichtwahr­nehmung von existierenden Fakten und Zusammenhängen ebenso wie die (vermeintliche) Wahrnehmung von nicht vorhandenen, außerdem diverse Formen von Über- und Unter­bewertung bzw. Über- und Unterschätzung, die z.B. durch optische Täu­schungen verursacht werden können.

Schwächen im Bereich der Informationswiedergabe basieren vorwiegend auf der Arbeits­weise des LZG. Mögliche Fehler sind neben dem einfachen Vergessen das Durcheinander­werfen von Gedächtnisinhalten und auch wiederum diverse Formen von Über- und Unter­bewertung bzw. Über- und Unterschätzung, hier allerdings verursacht durch unterschiedlich gutes Erinnern von Informationen.

Aus dem Bereich der Informationsverarbeitung sind für diese Arbeit einerseits das rech­ne­risch-mathematische Denken, andererseits aber auch logisches Denken und allgemeine Pro­blemlösestrategien von Interesse. Fragen, die für das Entscheiden von untergeordneter Bedeutung sind, wie z.B. solche bezüglich Sprachverstehen und - produktion, werden hier nicht behandelt. Das Hauptproblem bei der Verarbeitung von Informationen durch das menschliche Gehirn ist in der Tatsache begründet, daß die zu verarbeitenden Informationen im KZG gehalten werden müssen. Dies zwingt den Menschen zu Denkstrategien, die die begrenzte Kapazität des KZG nicht überfordern. Diese Denkstrategien verursachen -  durch unzulässiges oder zu starkes Vereinfachen -  oft schwerwiegende Fehler.

Wegen der relativ geringen Zahl motivational bedingter Effekte wurde in dem entsprechen­den Abschnitt auf eine explizite Untergliederung bezüglich Informationsaufnahme, - wiedergabe und  verarbeitung verzichtet.


4.2.1 Motivational bedingte Schwächen

4.2.1.1 Wunschdenken

Von "Wunschdenken" (engl. "wishful thinking") spricht man, wenn Einschätzungen bezüglich der Eintrittswahrscheinlichkeiten oder anderer Parameter von Ereignissen durch die Wünsche und Hoffnungen des (bzw. der) Schätzenden in Richtung auf das Gewünschte verzerrt sind [vgl. Meyer/Booker 1991, S. 136]. Musterbeispiele für diesen Effekt sind die Unterschätzung von Aufwänden und Gefahren sowie die Überschätzung der Eintrittswahrscheinlichkeiten von erhofften Ereignissen.

Die Unterschätzung von Aufwänden dürfte bei Entscheidungen über die Durchführung von Projekten in den unterschiedlichsten Bereichen, wie z.B. Forschung, Softwareentwicklung und Bauwesen, eine wesentliche Rolle spielen. Bei Softwareprojekten gibt es das geflügelte Wort, daß die Fertigstellung eines Programmes immer doppelt so lange dauert wie geplant, und zwar auch dann, wenn man versucht, diese Tatsache bei der Zeitplanung zu berücksich­tigen [vgl. Graf 1990, S. 114]. Auch bei öffentlichen Bauprojekten sind Aufwandsüberschrei­tungen um mehrere hundert Prozent bekannt, so z.B. bei den Baukosten für das Klinikum der RWTH Aachen. In den USA wurde in den fünfziger Jahren eine Studie zur Überschreitung von Kosten und Terminen bei militärischen Entwicklungsprojekten durchgeführt [vgl. Zimmermann 1971, S. 9f.]. Das Verhältnis der letzten zur ersten Kostenschätzung betrug dabei im Durchschnitt 2,4 : 1, der durchschnittliche Terminverzug lag bei zwei Jahren. Zu der Unterschätzung von Aufwänden kommt oft die Überschätzung des eigenen Leistungsvermö­gens durch die Projektmitarbeiter, die unter anderem in [Hayes-Roth 1980] untersucht wurde.

Über die Häufigkeit, mit der Aufwandsunterschätzungen zu Fehlentscheidungen führen, kann mangels entsprechender Forschungsergebnisse nur spekuliert werden; möglicherweise han­delt es sich sogar um die häufigste und schwerwiegendste Fehlentscheidungsursache im wirt­schaftlichen Bereich überhaupt. Computerunterstützung bei Entscheidungen über die Durchführung von Projekten hat sicherlich kaum Sinn, wenn der Gesamtaufwand nur mit einem Bruchteil des tatsächlichen Wertes in die Berechnungen eingeht. Da aber auch nicht-computergestützte Entscheidungen über Projekte ohne realistische Aufwandsschätzungen zum unkalkulierbaren Risiko werden, sind Verfahren zur Verbesserung von Aufwandsschät­zungen unbedingt erforderlich. Empfohlen wird [vgl. Meyer/Booker 1991, S. 136 und S. 179]

- die Disaggregation,

- das Begründen der Schätzungen,

- Schätzungen von mehreren Fachleuten, die unterschiedliche Ansichten vertreten, abgeben zu lassen und

- Schätzungen von sachkundigen, aber möglichst wenig involvierten Personen einzuholen.

Disaggregation bedeutet dabei die Zerlegung der gegebenen Aufgabe in Teilaufgaben, deren Aufwände dann getrennt zu schätzen sind. Dabei ist selbstverständlich darauf zu achten, daß die Zerlegung vollständig ist und nicht wesentliche Teile der Gesamtaufgabe übersehen wer­den. Ist eine hinreichend vollständige Zerlegung nicht möglich, so muß besonders darauf geachtet werden, daß der Aufwand für "den Rest" ausreichende Beachtung findet, da in ver­schiedenen Experimenten festgestellt wurde, daß nicht weiter gesplittete Teile von Baum­strukturen in ihrer Bedeutung unterschätzt werden [vgl. Schönwandt 1986, S. 25f. und Eisenführ/Weber 1993, S. 138].

Die Begründung einer Schätzung kann aufzeigen, ob die Schätzung eine objektive Basis hat oder nicht [vgl. Meyer/Booker 1991, S. 179]. Außerdem führt das Begründen eines Schät­zung unter Umständen dazu, daß der Schätzende sich solcher Dinge bewußt wird, die seiner zu optimistischen Schätzung widersprechen.

Das Einholen mehrerer Schätzungen mit möglichst unterschiedlicher Basis ist sicherlich geeignet, um dem zu befürchtenden Wunschdenken eines einzelnen entgegenzuwirken. Durch das Einholen mehrerer Schätzungen erhöht sich allerdings der Aufwand zur Ermitt­lung des Schätzwertes. Außerdem ist zu beachten, daß verschiedene Verfahren existieren, um divergierende Schätzungen für einen einzelnen Wert zu aggregieren. Gegebenenfalls müssen die Vor- und Nachteile dieser Verfahren gegeneinander abgewogen werden, was zu einer weiteren Aufwandssteigerung führt. Eine Übersicht zum Thema "Mathematische Verfahren zur Aggregation von Schätzwerten" bietet [Meyer/Booker 1991, S. 309ff.].

Die einfachste Möglichkeit, Aufwandsunterschätzungen zu vermeiden, besteht darin, dem Wunschdenken aus Weg zu gehen, also Schätzungen von sachkundigen, aber möglichst wenig involvierten Personen einzuholen. Häufig sind jedoch die sachkundigsten Personen gerade diejenigen, die in besonderem Maße von der Schätzung (bzw. der darauf basierenden Entscheidung) abhängig sind [vgl. Meyer/Booker 1991, S. 136]. Ist dies jedoch nicht der Fall, ist dieser Weg wahrscheinlich der beste.

Die hier aufgeführten Verfahren, Aufwandsschätzungen realistischer zu machen, könnten - zumindest teilweise - - auch durch den Einsatz entsprechender Software unterstützt werden. Dazu müßten allerdings Systeme zur Modellierung von Entscheidungen entwickelt werden, die die strukturierte Ablage von Meta-Informationen zu den einzelnen Elementen eines Ent­scheidungsmodells ermöglichen. Zu einem Ergebnis müßte beispielsweise gespeichert werden können, ob es sich dabei um eine Aufwands- oder Kostengröße handelt, ob die Größe man­gels "harter Daten" geschätzt werden muß, wenn ja, wer die Schätzung(en) durchzuführen hat, wie stark derjenige involviert ist usw.

Das Unterschätzen von Gefahren ist insofern als Wunschdenken anzusehen, als hier der Wunsch nach Nicht-Eintreten der in Frage kommenden Gefahr(en) zur Unterschätzung ihrer Eintrittswahrscheinlichkeit und ihrer Folgen führt. So ist z.B. durch zahlreiche Untersuchun­gen belegt, daß Raucher die krebserzeugende Wirkung des Rauchens weitaus niedriger ein­schätzen als Nichtraucher [vgl. Bender/Nack 1995 Bd. I, S. 55]. Als (Mit-) Ursache hierfür kann man annehmen, daß Nichtrauchern das Motiv fehlt, sich zu wünschen, die Krebsgefahr durch das Rauchen sei niedriger als sie es tatsächlich ist (auch wenn Raucher diese Erklärung der Untersuchungsergebnisse sicherlich bestreiten werden). Lerneffekte können das Unter­schätzen von Gefahren begünstigen. Dörner beschreibt dies am Beispiel der Verletzung von Sicherheitsvorschriften: "Die unmittelbare Folge der Verletzung von Sicherheitsvorschriften ist zunächst nur, daß man die Behinderungen durch die Sicherheitsvorschriften los ist und freier agieren kann. [...] Die positiven Folgen der Verletzung von Sicherheitsvorschriften führen dazu, daß sich die Tendenz erhöht, sie zu übertreten" [Dörner 1992, S. 51]. Dement­sprechend muß mit einer weiten Verbreitung dieser Problematik gerechnet werden: "Die Nichtbeachtung von Sicherheitsvorschriften findet man keineswegs nur bei Operateuren von Tschernobyl, Harrisburg, Biblis usw. Spricht man mit Arbeitspsychologen der chemischen Industrie oder mit Unfallforschern, so wird man vernehmen, daß solche Umgehungen der Sicherheitsvorschriften gang und gäbe sind" [Dörner 1992, S. 52]. Für das computerunter­stützte Entscheiden ergeben sich daraus Fragen, sobald die Einschätzung von Gefahren für eine Entscheidung von Bedeutung ist.

- Wer ist für die Einschätzung der Gefahr(en) bezüglich Eintrittswahrscheinlichkeit und Folgen verantwortlich und auf welchen, unter Umständen gefährlichen Lerneffekten basieren seine Schätzungen?

- Unter welchen Bedingungen kann man davon ausgehen, daß jemand, der selbst potentiel­les Opfer der einzuschätzenden Gefahr ist, die betreffende Gefahr nicht trotzdem unter­schätzt?

- Wie weit kann man gegebenenfalls davon ausgehen, daß Sicherheitsvorschriften be- oder mißachtet werden, und inwieweit besteht bei Entscheidern die Tendenz, sich in unge­rechtfertigtem Maße auf Sicherheitsvorschriften zu verlassen?

Die Einschätzung von Gefahren bezüglich Eintrittswahrscheinlichkeit und Ausmaß der mög­lichen Folgen sollte im Rahmen eines Entscheidungsprozesses also nicht so gehandhabt wer­den, wie die Einschätzung sonstiger Wahrscheinlichkeiten und Ergebnisse. Geschätzte Ein­trittswahrscheinlichkeiten von gefahrverursachenden Umweltzuständen sollten besonders genau auf mögliche Verzerrungen durch Wunschdenken untersucht werden, bevor sie in ein Entscheidungsmodell eingehen. Entsprechendes gilt für die zugehörigen Ergebnisse, also das mögliche Ausmaß der Folgen. Günstig wäre es, wenn durch entsprechende Forschung reali­stische Daten, z.B. für die Wahrscheinlichkeit des Übertretens von Sicherheitsvorschrif­ten, bereitgestellt würden, um Schätzungen in diesem Bereich soweit wie möglich überflüssig zu machen oder zumindest mit realistischen Ausgangswerten zu versehen.

Das Überschätzen der Eintrittswahrscheinlichkeit erwünschter Ereignisse ist die dritte wich­tige Form von Wunschdenken. "Die Wahrscheinlichkeit des Auftretens von Ereignissen wird dann höher eingeschätzt als von den gegebenen Informationen her gerechtfertigt, wenn man sich das Auftreten dieses Ereignisses wünscht" [Schönwandt 1986, S. 36]. Diese wenig überraschende Tatsache wurde in psychologischen Laborexperimenten festgestellt bzw. bestätigt [vgl. Schönwandt 1986, S. 36f.]. Die Bedingungen, unter denen die Überschätzung der Eintrittswahrscheinlichkeit erwünschter Ereignisse zu Fehlentscheidungen führt, sowie die Häufigkeit und das Ausmaß ihrer Folgen sind schwer abzuschätzen. Dies gilt insbeson­dere deswegen, weil in der Praxis bei Entscheidungen Wahrscheinlichkeiten in der Regel überhaupt nicht zahlenmäßig geschätzt werden, sondern nur relativ grobe Wahrscheinlich­keitsvorstellungen vorliegen [vgl. Geißler 1986, S. 170], und auch diese für Zwecke einer ex-post-Analyse häufig nicht ausreichend dokumentiert sein dürften. Darüber hinaus sind bei praktischen Entscheidungen oft Eintrittswahrscheinlichkeiten für Ereignisse zu schätzen, für die "objektive", auf relativen Häufigkeiten basierenden Werte überhaupt nicht angegeben werden können, so daß die für wissenschaftliche Untersuchungen zu diesem Thema notwen­digen Maßstäbe nur schwer in einer intersubjektiv überprüfbaren Form festgelegt werden können.

Auf einen speziellen Zusammenhang betreffs der Häufigkeit von durch diese Form von Wunschdenken verursachten Fehlentscheidungen soll dennoch hingewiesen werden. Bei nicht-computerunterstütztem Entscheiden können nämlich bestimmte Strategien der Denk­vereinfachung dazu führen, daß das für am wahrscheinlichsten gehaltene Ereignis - und das könnte das erwünschte sein - ausschließlich betrachtet wird, und alle anderen (für unwahr­scheinlicher gehaltenen) Varianten nicht mehr durchkalkuliert werden [vgl. Gettys u.a. 1973]. Bei computerunterstütztem Entscheiden sollte dieser Effekt nicht eintreten kön­nen. Somit sind die Gefahren dieser Form von Wunschdenken bei nicht-computerunterstütz­tem Ent­scheiden höher einzuschätzen. Allerdings sollten auch beim computerunterstützten Entschei­den alle in ein Modell eingehenden Wahrscheinlichkeiten daraufhin überprüft wer­den, ob sie wirklich geschätzt oder eher "gewünscht" sind. Die Methoden, um die Überschät­zung der Eintrittswahrscheinlichkeit erwünschter Ereignisse zu vermeiden oder zumindest abzumil­dern, sind prinzipiell dieselben, mit denen man auch der Unterschätzung von Auf­wänden begegnet. Dazu kommt die Möglichkeit, Entscheidungsregeln anzuwenden, die in keiner Weise auf Wahrscheinlichkeitsschätzungen aufbauen, wie z.B. die Minimax-Regel, bei der man jene Alternative wählt, die unter den ungünstigsten Umständen das beste Ergebnis liefert [vgl. Zimmermann 1992, S. 19].


4.2.1.2 Unterschätzung von Unsicherheit

In einer Reihe von Untersuchungen wurde gezeigt, daß Menschen dazu tendieren, existie­rende Unsicherheiten nicht oder nur unzureichend wahrzunehmen; sie fühlen sich also häufig sicherer, als in der gegebenen Situation angemessen ist. Da als Hauptursache für die Unter­schätzung von Unsicherheit (engl. "overconfidence") im allgemei­nen das Bedürfnis des Men­schen nach Sicherheit angesehen wird [vgl. Meyer/Booker 1991, S. 138 und Dörner 1992, S. 66], wird sie in dieser Arbeit unter den motivational bedingten Schwächen des mensch­lichen Denkens abgehandelt, auch wenn in bestimmten Fällen kogni­tive Einflüsse vielleicht sogar überwiegen. Bestimmte Formen der Unterschätzung von Unsi­cherheit lassen sich auch als Spezialfälle von Wunschdenken auffassen; mit Hinblick auf das Modellieren von Ent­scheidungsproblemen erscheint es jedoch sinnvoller, die Unterschätzung von Unsicherheit als eigenständiges Phänomen zu betrachten. Dabei ist zu beachten, daß "Unsicherheit" in dem hier gegebenen Kontext einen etwas anderen Bedeutungsgehalt hat als in der normativen Entscheidungstheorie. "Unsicherheit" ist hier im umgangssprachlichen Sinne zu verstehen, also als ein Maß für die Eintrittswahrscheinlichkeit solcher Ereignisse, die vom Entscheider in einem gegebenen Kontext nicht in Betracht gezogen wurden oder werden.

Die Unterschätzung von Unsicherheit äußert sich z.B. in [vgl. Schönwandt 1986, S. 52, S. 57, S. 79ff., S. 88f., Geißler 1986, S. 161, Bar-Hillel 1973, Fischhoff 1982a, Langer 1982, Oskamp 1982 und Lichtenstein u.a. 1982]

- einer generellen Überschätzung der eigenen Informiertheit

- einer generellen Überschätzung der Kontrollierbarkeit von Systemen

- der Herausbildung von Selbstvertrauen ohne Sachverstand

- der fehlerhaften Zuschreibung von Erfolgen zu Können anstatt zu Glück

- der unbewußten Korrektur von Wahrscheinlichkeitsschätzungen bei ex-post Analysen

- der Überschätzung der eigenen Fähigkeiten bei der Beantwortung von Wissensfragen

- der Überschätzung der Stärke von Zusammenhängen bei Vorliegen einer theoretischen Begründung

- der Überschätzung der Eintrittswahrscheinlichkeit von mit "und" verknüpften Ereignis­kombinationen.

Ein Beispiel für die generellen Überschätzung der eigenen Informiertheit bietet [Geißler 1986, S. 161]: In einer von ihm durchgeführten Befragung zum Thema "Fehlentscheidungen" gaben 95% der Befragten an, sie seien sich "sicher bis sehr sicher" gewesen, alle relevanten Alternativen bei der Entscheidungsfindung berücksichtigt zu haben - und das, obwohl sich in 93% der untersuchten Fälle im nachhinein herausgestellt hatte, daß bereits zum Entschluß­zeitpunkt eine -  nach Einschätzung der Befragten -  bessere als die gewählte Alternative existierte. Ein ähnliches Ergebnis (88%) brachte die Frage, ob sich die Entscheider sicher gewesen seien, genügend Informationen über die relevanten Eigenschaften der betrachteten Alternativen zu besitzen. Geißler bezeichnet das subjektive Sicherheitsgefühl der Entscheider in diesem Zusammenhang als "erstaunlich". Nicht unerwähnt bleiben sollte an dieser Stelle, daß vielleicht auch generell die Qualität von Informationsquellen überschätzt wird. In einer Untersuchung von Grotz-Martin zu Entscheidungsprozessen stellten sich 21% der unterneh­mensintern und 64% der unternehmensextern beschafften Informationen nachträglich als falsch heraus [vgl. Geißler 1986, S. 211]. Ähnliche Ergebnisse lieferten Studien zur Qualität von Prognosen [vgl. Schönwandt 1986, S. 11 und Dörner 1992, S. 196]. Für das Aufstellen von Entscheidungsmodellen kann daraus nur die Regel abgeleitet werden, alle relevanten Informationen mindestens einmal zu überprüfen, bevor sie in das Modell übernommen wer­den. Diese Überprüfung sollte nur dann unterbleiben, wenn der für die Überprüfung notwen­dige Aufwand unangemessen hoch ist. Die Tatsache, daß man sich hinsichtlich der Korrekt­heit einer Information "sicher bis sehr sicher" ist, sollte bei der Frage nach der Überprüfung einer Information dagegen keine Rolle spielen. Außerdem sollte die Vollständigkeit von Ent­scheidungsmodellen hinsichtlich Alternativen, mögliche Umweltzustände usw. genauestens geprüft werden, und auch dies sollte nicht wegen eines subjektiven Sicherheitsgefühls unter­lassen werden. DSS, die das Modellieren von Entscheidungen unterstützen sollen, müßten Komponenten enthalten, die helfen, die Qualität der in das Modell eingehenden Informatio­nen zu kontrollieren.

Ein weiterer Faktor, der zu einer generellen Unterschätzung von Unsicherheit führt, ist, daß die Kontrollierbarkeit von Systemen in der Regel überschätzt wird ("Illusion of Control") [vgl. Langer 1982 und Schönwandt 1986, S. 27, S. 43 und S. 80f.]. Sowohl durch Feldfor­schung als auch durch psychologische Laborexperimente wurde gezeigt, daß Menschen sich sogar in Situationen, die -  für sie eigentlich erkennbar -  ausschließlich vom Zufall bestimmt sind (wie z.B. bei Glücksspielen), häufig so verhalten, als könnten sie die Situation durch ihr Verhalten beeinflussen [vgl. Langer 1982, S. 231f.]. Beim Modellieren von Entscheidungen muß deswegen damit gerechnet werden, daß der Einfluß der Umweltzustände - verglichen mit dem der Aktionsparameter - auf die Ergebnisse zu gering angesetzt wird. Im Extremfall muß sogar damit gerechnet werden, daß durch Entscheidungen versucht wird, Situationen zu beeinflussen, die von den Aktionen vollständig unabhängig sind. Einziges Gegenmittel ist die Beschaffung möglichst gesicherter Daten über die funktionalen Zusammenhänge von Umweltzuständen, Aktionen und Ergebnissen.

Verschärft wird das Problem der "Illusion of Control", wenn Personen Gelegenheit haben, sich intensiv mit dem fraglichen System auseinanderzusetzen. Offensichtlich steigt das Ver­trauen in die eigene Fähigkeit, ein bestimmtes System beeinflussen zu können, mit der Intensität, mit der man sich mit dem System - sei es physisch, sei es gedanklich - beschäftigt [vgl. Schönwandt 1986, S. 81]. Ein hierzu ähnlicher Effekt ist das "Herausbilden von Selbstvertrauen ohne Sachverstand", das man bei der schrittweisen Präsentation von Infor­mationen beobachtet hat. In einer Studie von Oskamp zeigte sich nämlich, das mit zuneh­mender Informiertheit der (insgesamt 32) Versuchspersonen die Qualität der Beurteilung eines Falles (aus der klinischen Psychologie) nahezu konstant schlecht blieb, das Vertrauen in das eigene Urteil dagegen erheblich zunahm [vgl. Oskamp 1982]. "Dieses Ergebnis zeigt, daß eine Steigerung des Selbstvertrauens, was die eigene Urteilskraft angeht, nicht notwendiger­weise und in jedem Fall mit einer gleichzeitigen Verbesserung der Sachkompetenz gekoppelt sein muß" [Schönwandt 1986, S. 39]. Wenn zu einer Entscheidung Informationen von Per­sonen verwendet werden, die ein hohes Maß an Vertrauen in ihre Beurteilungen zeigen, sollte also dennoch zunächst von einer hohen Unsicherheit bezüglich der Korrektheit der Informationen ausgegangen werden. Dies gilt auch dann, wenn die betreffende Person angibt, sich intensiv mit dem betreffenden Gebiet auseinandergesetzt zu haben.

Die Unterschätzung von Unsicherheit kann ihre Ursache auch in der fehlerhaften Zuschrei­bung von Erfolgen zu Können anstatt zu Glück haben. "Im menschlichen Denkapparat gibt es eine Tendenz, Erfolge sich selbst zuzuschreiben und für Mißerfolge andere (oder etwas ande­res) verantwortlich zu machen" [Schönwandt 1986, S. 84, vgl. auch Dörner 1992, S. 18]. Diese Tatsache, die in einer Reihe von empirischen Studien belegt wurde [vgl. Schönwandt 1986, S. 83], kann zu einer Überschätzung der "worst-case"-Ergebnisse von Handlungsalter­nativen führen: Wenn der Entscheider durch eigene Erfolge auf einem Gebiet den Blick dafür verloren hat, wie stark diese Erfolge von günstigen Umweltbedingungen abhängig waren, wird er nicht in der Lage sein, korrekt zu schätzen, wie gering dementspre­chend diese Erfolge bei sich verschlechternden Umweltbedingungen ausfallen werden; die Spannweite der möglichen Ergebnisse wird also zu klein und ihr Erwartungswert zu günstig angesetzt wer­den. Die Verwechslung von Glück und Können spielt bei wirtschaftlichen Fehl­entscheidun­gen sicherlich mehr als nur eine untergeordnete Rolle. Sollen unternehmerische Entscheidun­gen computerunterstützt gefällt werden, so sind also Daten, die auf Selbstein­schätzungen beruhen, als besonders unsicher zu betrachten.

Ein ähnliches Problem wie die Verwechslung von Glück und Können ist der "Ich hab’s ja gewußt"-Effekt (engl. "I knew it would happen"-effect). Bei rückblickenden Analysen über­schätzen Menschen häufig die Kenntnisse und Fähigkeiten, die sie im vorhinein gehabt haben und korrigieren insbesondere im nachhinein unbewußt Wahrscheinlichkeitsschätzungen für den Ausgang bestimmter Ereignisse [vgl. Schönwandt 1986, S. 87f. und Fischhoff 1982a, S. 341]. "Die Anzahl der Überraschungen, die wir in der Vergangenheit sehen, wird durch den Denkapparat künstlich reduziert" [Schönwandt 1986, S. 88]. Dieser "Ich hab’s ja gewußt"-Effekt kann zwar einerseits auch beim computerunterstützten Entscheiden zu Fehlern führen, andererseits könnte dieser Effekt selbst aber auch durch die mit computer­unterstütztem Entscheiden verbundene Dokumenta­tion des Entscheidungsmodells -  und der damit verbundenen Überprüfbarkeit der tatsäch­lichen Schätzwerte   verringert werden.

Auch bei der Beantwortung von Wissensfragen wurde in einer Reihe von Untersuchungen festgestellt, daß das subjektive Sicherheitsgefühl bezüglich der Korrektheit einer Antwort in aller Regel überzogen ist. Eine Übersicht über dieses -  im englischen Sprachraum als (fehlende) "Calibration" bezeichnete -  Phänomen bieten [Lichtenstein u.a. 1982]. Die wesentlichen Ergebnisse der Studien zum Thema "Calibration" sind die folgenden [vgl. Lichtenstein u.a. 1982, S. 315f. und Meyer/Booker 1991, S. 25]:

- Je weniger Kenntnisse Menschen auf einem Gebiet haben, desto mehr überschätzen sie ihr Wissen.

- Je mehr Wissen Experten haben, desto besser ist auch ihre Calibration. Bei denen, die mehr als 80 % aller Antworten richtig beantworten können, kommt es sogar zu einem zu geringen Selbstvertrauen, d.h. sie unterschätzen die Sicherheit ihrer eigenen Antworten.

- Insgesamt ist das subjektive Sicherheitsempfinden bei schwierigen Aufgabenstellungen zu hoch und bei einfachen Aufgabenstellungen zu gering.

Individuelle Parameter wie Intelligenz und Geschlecht scheinen keinen Einfluß auf die Quali­tät der Calibration zu haben; im Gegensatz dazu gibt es allerdings Anlaß zu der Vermutung, daß kulturelle Faktoren bei der Calibration eine Rolle spielen [vgl. Lichtenstein u.a. 1982, S. 319f.]. Die Folgen mangelnder Calibration sind dieselben wie bei einer generellen Über­schätzung der eigenen Informiertheit. Allerdings kann eine korrekte Calibration gefördert werden, indem derjenige, der eine Frage zu beantworten hat, aufgefordert wird, alle Gründe zu nennen, die seiner Antwort widersprechen könnten [vgl. Lichtenstein u.a. 1982, S. 321]. Ein Versuch, eine bessere Calibration durch Anreize für den (bzw. die) Befragten zu er­rei­chen, ergab dagegen sogar eine signifikante Verschlechterung der Ergebnisse; Trainings­sitzungen mit entsprechendem Feedback brachten in Teilbereichen Verbesserungen [vgl. Lichtenstein u.a. 1982, S. 320]. Beim Aufstellen von Entscheidungsmodellen erscheint es sinnvoll, möglichst alle Daten mit einer Angabe über die Wahrscheinlichkeit ihrer Richtigkeit zu versehen; DSS sollten hierzu   wenn durch sie auch die Modellierung unterstützt werden soll -  entsprechende Funktionalitäten bereitstellen. Durch die oben angegebene "Technik der widersprechenden Gründe" sollte es möglich sein, die Wahrscheinlichkeiten für die Richtig­keit der verwendeten Informationen so genau zu schätzen, daß sie z.B. für Sensitivitätsanaly­sen genutzt werden können.

Für Entscheidungsmodelle sind die Annahmen über die funktionalen Zusammenhänge von Aktionen, Umweltzuständen und Ergebnissen von grundlegender Bedeutung. Bezüglich der Einschätzung funktionaler Zusammenhänge gibt es aber Forschungsergebnisse, die Fehler in diesem Bereich sehr wahrscheinlich erscheinen lassen. Jennings u.a. fanden in einem Laborexperiment heraus, daß Versuchspersonen schwache Korrelationen zwischen Variablen teilweise erheblich (Faktor > 2) überschätzten, wenn sie ihre Schätzungen auf theoretische Überlegungen anstatt auf Datenmaterial aufbauten [vgl. Jennings u.a. 1982, S. 223f. und Schönwandt 1986, S. 50ff.]. Schwache Korrelationen (< 0,7) findet man z.B. häufig im Gebiet der Sozialwissenschaften [vgl. Schönwandt 1986, S. 52]. Das heißt, wenn Entschei­dungen in Bereichen unterstützt werden sollen, die nicht mit "naturwissenschaftlicher Exakt­heit" erfaßbar sind, so ist damit zu rechnen, daß die vorhandenen Unsicherheiten nicht in erforderlichem Maße in die Modellierung eingehen.

Ein Beispiel für den Einfluß kognitiver Effekte bei der Unterschätzung von Unsicherheit sind Fehleinschätzungen bezüglich der Eintrittswahrscheinlichkeit von zusammengesetzten Ereig­nissen (engl. "compound events"). In einer Studie von Bar-Hillel wurde nachgewiesen, daß die Eintrittswahrscheinlichkeit eines zusammengesetzten Ereignisses in der Regel überschätzt wird, wenn das Gesamtereignis durch eine konjunktive Verknüpfung der Einzelereignisse gebildet wird [vgl. Schönwandt 1986, S. 57, Bar-Hillel 1973 und Cohen u.a. 1971]. Es ist anzunehmen, daß hierfür die Schwäche des menschlichen Denkapparates, nicht-lineare Beziehungen abzuschätzen, verantwortlich ist [vgl. Schönwandt 1986, S. 57]. Der Effekt selbst kann z.B. bei Entscheidungen über Projekte fatale Folgen haben, da für den erfolg­rei­chen Abschluß eines Projektes eine Anzahl Teilaufgaben erledigt sein müssen. Wahr­schein­lichkeitstheoretisch gesehen heißt dies, daß die Wahrscheinlichkeit für das Ereignis "Projekt erfolgreich abgeschlossen" dem Produkt über die Wahrscheinlichkeiten für alle Ereignisse vom Typ "Teilaufgabe erfolgreich abgeschlossen" darstellt. Kleine Unsicherheiten bei einer Reihe von Teilaufgaben können insgesamt zu einer weitaus geringeren Erfolgswahr­schein­lichkeit des Gesamtprojektes führen, als üblicherweise geschätzt wird.

Die praktische Relevanz der Unterschätzung von Unsicherheit muß beim derzeitigen For­schungsstand als sehr hoch eingeschätzt werden. "Offensichtlich liegt Fehlentscheidungen eine Inkongruenz zwischen der 'subjektiven' und 'objektiven' Sicherheitssituation zugrunde, und wir vermuten, daß Fehlentscheidungen um so eher auftreten, je größer diese Inkongru­enz ist" [Geißler 1986, S. 182; vgl. außerdem Geißler 1986, S. 161, S. 171, S. 177 und S. 207f. und Dörner 1992, S. 24, S. 29 und S. 55f.]. Computerunterstützung bietet einerseits die Möglichkeit, Unsicherheit beim Entscheiden in angemessener Weise zu berücksichtigen; andererseits können DSS nur dann gute Ergebnisse liefern, wenn die vorhandene Unsicher­heit auch korrekt eingeschätzt und im Entscheidungsmodell berücksichtigt wird. Die Ent­wicklung und der Einsatz von Methoden zur angemessenen Abschätzung und Berücksichti­gung von Unsicherheit sind also Voraussetzung für einen erfolgreichen Einsatz von DSS. Vorschläge, wie man der Unterschätzung von Unsicherheit begegnen kann, finden sich bei [Meyer/Booker 1991, S. 180 und Boose/Shaw, S. 72].

Neben den praktischen Problemen, die durch übermäßiges Vertrauen eines Entscheiders in die Qualität seiner Entscheidungsgrundlagen entstehen können, werfen die hier aufgeführten psychologischen Effekte auch die forschungstheoretische Frage auf, inwieweit die Zufrieden­heit des Anwenders eines DSS und sein Vertrauen in die gefundene Lösung sowie in das (bzw. die) angewandte(n) Verfahren ein geeigneter Qualitätsmaßstab für das DSS und die betreffenden Verfahren sind. Da gerade im Zusammenhang mit Entscheidungen das subjek­tive Empfinden des Entscheiders offensichtlich äußerst trügerisch sein kann, sollten DSS in Feldstudien daraufhin untersucht werden, ob die mit ihrer Hilfe gefällten Entscheidungen auch langfristig die in sie gesetzten Erwartungen erfüllen. Eine übermäßige Zufriedenheit der Anwender von DSS zum Zeitpunkt des Entscheidungsfällens könnte sogar eher als Warn­hinweis denn als positives Qualitätsurteil gesehen werden.

Die generelle Tendenz des Menschen, Unsicherheiten zu unterschätzen, gibt auch Anlaß zu der Frage, ob nicht auch in gleicher Weise die Tendenz besteht, die Unschärfe von Aussagen oder Werten (z.B. von linguistischen Variablen) zu unterschätzen. Gegebenenfalls sollte man Fuzzy-DSS grundsätzlich mit der Möglichkeit versehen, Entscheidungsmodelle mit einer vergrößerten Intervallbreite des Supports der verwendeten Fuzzy Sets durchzurechnen, um die Stabilität der Ergebnisse bei einer größeren als der zunächst angenommenen Unschärfe testen zu können.


4.2.1.3 Bevorzugung bestätigender und Ablehnung widersprechender Informationen

Individuen bevorzugen bei der Auswahl von Informationen in der Regel solche, die ihre schon vorhandenen Annahmen bestätigen; widersprechende Informationen werden dagegen meist nur mit Vorbehalt aufgenommen [vgl. Schönwandt 1986, S. 28f., Meyer/Booker 1991, S. 28 und S. 34, Ross/Anderson 1982, S. 149, Anderson 1989, S. 244 und S. 267ff., Bender/Nack 1995 Bd. I, S. 30f., Brander u.a. 1989, S. 171ff., Frey 1983, S. 273ff., Levine/Murphy 1943]. Gegen diese Tendenz des menschlichen Gehirns sind auch Wissen­schaftler nicht immun [vgl. Ross/Anderson 1982, S. 144ff. und Meyer/Booker 1991, S. 28]. Sie bewirkt ein Festhalten an vorgefaßten Meinungen (engl. "belief perseverance"), das einer möglichst objektiven Urteilsbildung -  und damit guten Entscheidungen -  hinderlich ist.

Die Ursache für die Bevorzugung bestätigender Informationen liegt wahrscheinlich in der Tendenz des Menschen, sogenannte "kognitive Dissonanzen" zu vermeiden. Die Grund­annahme der Theorie der kognitiven Dissonanz besagt, "daß der Mensch Inkonsistenz nicht ertragen kann und versuchen wird, diese, wann auch immer, zu eliminieren oder zu reduzie­ren" [Zimbardo/Ruch 1978, S. 445f.]. Offensichtlich werden Inkonsistenzen z.T. bereits bei der Informationsaufnahme durch entsprechende Auswahl und/oder Bewertung der Informa­tionen ausgefiltert. "Befunde aus der empirischen Psychologie belegen, daß Informationen, die dem Konzept / der Denkrichtung des Bearbeiters widersprechen, nicht nur besonders leicht übersehen werden, sondern daß sogar mit regelrechten Widerständen zu rechnen ist, wenn es um die Wahrnehmung solcher (widersprechender) Informationen geht" [Schönwandt 1986, S. 29]. Beispiele für solche Befunde sind die folgenden:

Wenn zwei Gruppen von Personen, die zu einem Thema entgegengesetzte Meinungen vertre­ten, nacheinander sowohl die eigene Meinung bestätigende als auch die der eigenen Ansicht widersprechende Informationen vorgelegt bekommen, so führt dies nicht etwa zu einer Annäherung der Positionen, sondern zu einer Verstärkung der Polarisation. Als Ursache dafür ist anzunehmen, daß die vorgelegten Informationen im Sinne der bereits vorgefaßten Meinung interpretiert werden [vgl. Ross/Anderson 1982, S. 144ff.].

Ein zweites Beispiel sind Experimente zu den sogenannten "Debriefing"-Problemen bei psy­chologischen Versuchen. Auslöser für diese Experimente war die Beobachtung, daß Ver­suchspersonen, denen man für irgendwelche psychologischen Versuche beim "Briefing" (Erteilen der Versuchsanweisungen) falsche Informationen vermittelt hatte, trotz "Debriefing" (Aufklärung über die wahren Sachverhalte nach Versuchsende) häufig weiterhin die ursprünglichen -  also falschen -  Informationen glaubten [vgl. Ross/Anderson 1982, S. 147ff.]. Experimente zum Thema "Debriefing" ergaben ein Festhalten an Fehlinformatio­nen in z.T. hoch signifikantem Umfang. Bei einem Experiment brachte ein Vergleich zwi­schen Versuchspersonen, die das Debriefing bereits mitgemacht hatten, und anderen, daß nach dem Debriefing noch ca. 50% des Effektes der ursprünglichen (Fehl-) Information nachgewiesen werden konnten [vgl. Ross/Anderson 1982, S. 149].

Ausnahmen von der Bevorzugung bestätigender Informationen gibt es nur, "wenn

- die kognitive Dissonanz extrem stark ist und die Entscheidung reversibel ist,

- das Individuum mit den konsonanten Informationen vertraut ist,

- das Individuum erwartet, daß es dissonante Informationen widerlegen kann und

- die dissonanten Informationen als sehr nützlich und glaubwürdig eingeschätzt werden.

Dies bedeutet, daß die Aufnahmebereitschaft für widersprechende Informationen nur dann hoch ist, wenn das Individuum extrem sicher oder extrem unsicher ist" [Brander u.a. 1989, S. 173].

Ein Befund aus der empirischen Entscheidungsforschung zeigt die direkten Auswirkungen des Ausfilterns widersprechender Informationen beim Fällen von Entscheidungen. Bei einer Untersuchung zum Thema "Fehlentscheidungen" zeigte sich, daß die gewählte, schlechte Alternative auffallend häufig die im Entscheidungsprozeß zuerst betrachtete war. "Von den 28 Fehlentscheidungen, in denen man sich für eine schlechtere Lösung entschloß, obwohl die bessere (richtige) Lösung bereits existierte, zeigt sich, daß diese schlechtere Lösung in 79% der Fälle (n = 22) die jeweils erste im Entscheidungsprozeß betrachtete Alternative war. Lediglich in n = 6 Fällen (21%) trat die schlechtere Alternative erst im späteren Verlauf der Lösungssuche in Erscheinung. Es liegt die Vermutung nahe, daß besonders in Fehlentschei­dungen eine 'verzerrte' Alternativensuche erfolgt" [Geißler 1986, S. 163]. Offensichtlich wird die Bewertung von Alternativen häufig nicht wirklich zielorientiert durchgeführt, sondern zugunsten der zuerst betrachteten Alternative verzerrt. Möglicherweise wird auch aktiv und einseitig nach Informationen gesucht, die das Vorurteil bestätigen, daß die erste Alternative auch die beste ist, während widersprechende Informationen abgewehrt oder vernachlässigt werden [vgl. Geißler 1986, S. 163].

Für das computerunterstützte Entscheiden ergeben sich somit insbesondere die folgenden Probleme:

- Informationen, die gegen eine bereits im vorhinein präferierte Alternative sprechen, gehen unter Umständen erst gar nicht in das Entscheidungsmodell ein oder werden zu gering bewertet. Informationen, die für die präferierte Alternative sprechen, werden dagegen überbewertet. Die Informationen können dabei die Existenz bzw. die Wahrscheinlichkeit von Umweltzuständen betreffen, sie können die Frage betreffen, was überhaupt als Ergebnis betrachtet wird, sie können die Annahmen über die funktionalen Zusammen­hänge von Alternativen, Umweltzuständen und Ergebnissen betreffen usw.

- Bei Multi-Criteria-Entscheidungen wird gegebenenfalls die Gewichtung der Ziele nicht wirklich "bedürfnisgerecht" vorgenommen, sondern zugunsten einer bereits im vorhinein präferierten Alternative verzerrt.

- Weiterhin kann die "selektive Wahrnehmung" bewirken, daß ein aufkommendes Problem nicht oder erst zu spät wahrgenommen wird, der Entscheidungsprozeß dementsprechend auch nicht oder zu spät in Gang gesetzt wird, und somit die Computerunterstützung kei­nen Nutzen (mehr) bringen kann.

Die Frage ist, wie man in der Praxis dem Problem der Bevorzugung bestätigender Informa­tionen begegnen kann. Da es sich hier um ein sehr allgemeines Problem handelt, erscheint der einzig sinnvolle Weg, Entscheider -  wie z.B. Führungskräfte in Unternehmen -  im Rahmen von Schulungen auf dieses Problem aufmerksam zu machen und sie zu aktivem Gegensteuern aufzufordern. Folgende Vorgehensweisen - bieten sich für das Gegensteuern an:

- gezielte Suche nach widersprechenden Informa­tionen

- Einführung eines Malus für die zuerst betrachtete Alter­native

- Definition der Ergebnisse und Ziele durch jemanden, der die Problemstellung, aber nicht die bisher betrachteten Alternativen kennt.

Inwieweit diese Vorgehensweisen in der Praxis realisiert werden können und ob sie tatsäch­lich zu besseren Entscheidungen führen, muß allerdings noch erforscht werden.


4.2.1.4 Reaktion auf Gruppen- und Autoritätsdruck

Äußerungen von Menschen geben häufig nicht ihre eigene Meinung wieder. Gruppendruck oder sozialer Druck durch eine Autorität, der Wunsch nach Anerkennung (durch vielleicht noch nicht einmal anwesende Personen) und dergleichen führen häufig -  auch ohne daß jemand eine Manipulation beabsichtigt -  zur Abgabe von Informationen, die gegenüber den tatsächlichen vorhandenen Ansichten als falsch oder zumindest verzerrt angesehen werden müssen [vgl. Meyer/Booker 1991, S. 40 und S. 134f. und Bender/Nack 1995 Bd. I, S. 37]. Untersuchungen zum Verhalten von Personen bei Befragungen erbrachten beispielsweise, daß Auskünfte bezüglich Ausbildung oder Gehalt oft nicht der Realität entsprechen, sondern diese besser darstellen als sie ist [vgl. Meyer/Booker 1991, S. 135]. Bei Untersuchungen zum Verhalten von Gruppen ergab sich zudem, daß sich Meinungen innerhalb von Gruppen auch angleichen können, ohne daß dabei die Richtigkeit der Meinungen zunimmt [vgl. Schön­wandt 1986, S. 68f.]. Ob Gruppeneffekte auch die Risikobereitschaft der Gruppenmitglieder erhöhen können, ist in der psychologischen Forschung umstritten [vgl. Schönwandt 1986, S. 69].

Gruppen- und Autoritätsdruck können -  ähnlich wie die Bevorzugung bestätigender Infor­mationen -  zu Fehlern in praktisch allen Bereichen eines Entscheidungsmodells führen. Es gibt Untersuchungen, die die Auswirkungen von Gruppendruck bei politischen (Fehl-) Ent­scheidungen aufgezeigt haben [vgl. Meyer/Booker 1991, S. 135, Dörner 1992, S. 55 und Janis 1972]. Es gibt keine Gründe anzunehmen, daß bei Entscheidungen in unternehmeri­schen oder sonstigen Bereichen die Phänomene "Gruppendruck" bzw. "Autoritätsdruck" vernachlässigbar seien. In welchem Maß Gruppen- und Autoritätsdruck in der Praxis Fehl­entscheidungen verursachen, kann jedoch beim derzeitigen Forschungsstand nicht beantwor­tet werden. Da diese Phänomene bereits bei der Beschaffung von Daten für ein Entschei­dungsmodell zu Fehlern führen können, müssen sie beim computerunterstützten Entscheiden aber in jedem Fall berücksichtigt werden.

Gruppendruck ist dabei einerseits ein besonderes Problem, weil beim Fällen von Entschei­dungen viele Schwierigkeiten gerade durch den Einsatz von Gruppentechniken -  wie Delphi oder Nominal Group Technique -  vermieden oder zumindest verringert werden können. Andererseits gibt es aber auch Vorgehensweisen, um den Gruppendruck selbst oder zumin­dest seine Auswirkungen zu mildern. Einen Überblick hierzu bietet [Meyer/Booker 1991, S. 178f.]. Außerdem besteht gegebenenfalls die Möglichkeit, mit statistischen Verfahren zu ermitteln, ob Gruppeneffekte zu Verzerrungen in einer Menge von Schätzwerten geführt haben können [vgl. Meyer/Booker 1991, S. 263ff.]. Zudem könnte die Computerunterstüt­zung beim Entscheiden in bestimmten Fällen zu einer Abschwächung von Gruppen- und Autoritätsdruck führen, und zwar dann, wenn Daten nicht von einer Person erfragt, sondern direkt -  und unter Umständen sogar anonym -  in den Computer eingegeben werden. Da Gruppen- und Autoritätsdruck auch empfunden werden können, wenn die Gruppenmitglieder bzw. die Autoritätsperson(en) nicht anwesend sind, kann aber nicht davon ausgegangen wer­den, daß deren Auswirkungen durch Computerunterstützung vollständig eliminiert werden können.


4.2.1.5 Sonstige motivational bedingte Schwächen

Neben den bereits aufgeführten -  im Bereich computerunterstütztes Entscheiden besonders zu beachtenden -  motivational bedingten Schwächen des menschlichen Denkens, gibt es einige, die mit computerunterstütztem Entscheiden nur am Rande zu tun haben. Beispiels­weise tendieren Menschen dazu, ihre eigenen Ansichten und Verhaltensweisen für die der Mehrheit zu halten [vgl. Ross/Anderson 1982, S. 140ff.]. Mögliche Folge davon ist, daß Ent­scheider die Wünsche derjenigen, die von der jeweiligen Entscheidung betroffen sind, falsch einschätzen und dementsprechend in dem jeweiligen Entscheidungsmodell realitätsferne Ziele oder Zielgewichtungen verwenden. Außerdem sind verschiedene Formen der "Flucht vor der Verantwortung" als motivational bedingten Schwächen des menschlichen Denkens anzuse­hen, wie z.B.

- einfaches Fallenlassen schwer lösbarer Probleme [vgl. Dörner 1992, S. 41]

- Probleme durch Delegieren scheinbar lösen [vgl. Dörner 1992, S. 44]

- Lösen derjenigen Probleme, die man lösen kann, anstatt der wirklich drängenden Pro­bleme [vgl. Dörner 1992, S. 46].

Wenn Computerunterstützung beim Entscheiden als Erleichterung empfunden wird, kann sie den Hang zu den hier aufgeführten Formen der "Flucht vor der Verantwortung" gegebenen­falls abmildern. Wenn Entscheidungsprobleme allerdings erst gar nicht angegangen werden, kann auch ein DSS keinen Nutzen mehr bringen. DSS können also -  auch wenn ihr Einsatz in vielen Fällen sinnvoll ist bzw. wäre -  bestimmte, für Führungskräfte notwendige Charakter­eigenschaften nicht ersetzen.

Zusammenfassend muß festgestellt werden, daß motivational bedingte Schwächen des menschlichen Denkens zu häufigen und schwerwiegenden Fehlern bei Entscheidungen allge­mein und auch beim computerunterstützten Entscheiden führen können. Ein Teil der bekann­ten Schwächen kann mit Hilfe spezieller Vorgehensweisen verringert oder vermieden wer­den, aber nicht alle. Da es Entscheidern häufig an Wissen über ihr eigenes Entscheidungs­verhalten fehlt [vgl. Geißler 1986, S. 216], muß man jedoch davon ausgehen,

- daß die hier angesprochenen Probleme in der Praxis oft übersehen werden,

- daß -  wenn sie gesehen werden -  die Gefahr besteht, ihre Wirkung zu unterschätzen und

- daß das Wissen bezüglich der Methoden zur Verringerung der Probleme zu wenig ver­breitet ist (was unter anderem zu einer fatalistischen Haltung gegenüber diesen Proble­men führen kann).

Von daher ergibt die Analyse der motivational bedingten Schwächen des menschlichen Den­kens bereits für sich allein, daß die Computerunterstützung von Entscheidungen unbedingt durch Schulungen in Bezug auf die Probleme menschlichen Entscheidungsverhaltens und die Methoden zur Verringerung dieser Probleme ergänzt werden sollte.


4.2.2 Kognitiv bedingte Schwächen

4.2.2.1 Schwächen im Bereich der Informationsaufnahme

4.2.2.1.1 Selektivität der Wahrnehmung

Zu jedem Zeitpunkt wählt der Mensch teils bewußt, teils unbewußt aus, welche Informatio­nen er aufnimmt (genauer gesagt: aus dem SG in das KZG und von da aus gegebenenfalls in das LZG übernimmt) und welche nicht. Welche Informationen in einem bestimmten Moment aufgenommen werden, hängt davon ab, worauf sich in diesem Moment die Aufmerksamkeit der betreffenden Person richtet [vgl. Bender/Nack 1995 Bd. I, S. 27f.]. "Die Funktion der Aufmerksamkeit besteht darin, bestimmte Informationen zu behalten und andere zu ignorie­ren" [Brander u.a. 1989, S. 23f.]. Die Wahrscheinlichkeit dafür, eine Information aufzuneh­men und zu behalten, steigt mit der Aufmerksamkeit, die dem entsprechenden Signal gewid­met wird. Die Aufmerksamkeit hängt wiederum von einer Reihe von Faktoren ab, wie z.B. der Lebhaftigkeit, der Neuigkeit, der Bedeutung oder der Nützlichkeit des Signals [vgl. Zimbardo/Ruch 1978, S. 191].

Das Problem aus Sicht des Entscheidens besteht darin, daß "die Auswahl der bewußt aufge­nommenen Informationen nicht ausschließlich nach Kriterien stattfindet, die von der Sachlage bestimmt sind" [Schönwandt 1986, S. 23]. Wie bereits im vorigen Abschnitt erläutert, spielen bei der Informationsauswahl motivationale Aspekte eine Rolle, wie z.B. die Erwünschtheit der Information; daneben gibt es aber auch kognitive Einflüsse auf die Informationsauswahl. Dazu gehören unter anderem:

- die Anschaulichkeit der Information [vgl. Schönwandt 1986, S. 34],

- die Frage, wo die Information in einer Reihe präsentierter Informationen steht [vgl. Schönwandt 1986, S. 24, Zimbardo/Ruch 1978, S. 185 und Anderson 1989, S. 79 und S. 97], und

- inwieweit sie erwartet oder eher überraschend ist [vgl. Schönwandt 1986, S. 30].

Die Folgen der (unbewußten) Informationsauswahl liegen in drei Bereichen. Zum einen ist es möglich, daß aufkommende Probleme keine oder eine zu geringe Aufmerksamkeit bewirken, somit nicht oder nicht ausreichend wahrgenommen werden, und demzufolge auch ein unter Umständen notwendiger Entscheidungsprozeß gar nicht erst in Gang kommt. Gegen diese Problemstellung kann computerunterstütztes Entscheiden -  gleich in welcher Form   nichts bewirken. Zum zweiten werden Informationen, die

- besonders spektakulär sind,

- besonders anschaulich sind,

- in einem persönlichen Gespräch vorgetragen werden oder

- mehreren "Informationskanälen" (Augen, Ohren) präsentiert werden,

in aller Regel auch höher bewertet; solche Informationen, die

- wenig oder keine Aufmerksamkeit erzeugen,

- wenig einprägsam oder

- abstrakt

sind, werden entsprechend unterbewertet oder sogar ganz weggelassen [vgl. Schönwandt 1986, S. 31 und S. 34]. Die möglichen Folgen im Gebiet "computerunterstütztes Entschei­den" sind Fehler bei der Modellierung einer Entscheidung, wie z.B.

- vollständiges Weglassen wesentlicher Elemente eines Entscheidungsmodells (Übersehen möglicher Umweltzustände; Vernachlässigung von Ergebnissen, die nur bei langfristiger Betrachtung als relevant anzusehen sind; usw.),

- Fehleinschätzung von Größen oder Größenverhältnissen allgemein (physikalische, geo­graphische, wirtschaftliche usw. Ein anekdotisch, aber nicht wissenschaftlich belegtes Beispiel hierfür ist die allgemeine Unterschätzung der wirtschaftlichen Bedeutung -  und damit Macht -  von Versicherungen gegenüber Banken, weil Versicherungen seltener "Schlagzeilen machen" als Banken)

- Fehleinschätzung von Wahrscheinlichkeiten bzw. relativen Häufigkeiten (beispielsweise zu geringe Wahrscheinlichkeit für einen wenig anschaulichen Umweltzustand) und

- unangemessene Gewichtungen von Zielkriterien bei Multi-Criteria-Entscheidungen.

Der dritte Problembereich sind (ungewollt) manipulierende Datendarstellungen durch ent­scheidungsunterstützende Systeme, seien es dedizierte DSS, seien es andere, wie z.B. Busi­neßgraphik-Programme. So werden in aller Regel Informationen, die zu Beginn oder am Ende einer Darstellung gegeben werden, eher über- als unterbewertet; werden Daten dage­gen erst gar nicht seriell, sondern statt dessen simultan dargeboten, so werden sie im allge­meinen wesentlich besser ausgewertet - [vgl. Schönwandt 1986, S. 24]. Systeme, die Ent­scheidungen unterstützen sollen, sollten also dann, wenn dem Anwender Daten zu präsentie­ren sind, diese nach Möglichkeit nicht schrittweise, sondern auf einmal anzeigen. Dabei ent­steht allerdings der Konflikt, daß die begrenzte Kapazität des KZG auch nicht überfordert werden sollte. Der sich für diese Problematik anbietende Ausweg, Daten graphisch aufzube­reiten, ist zwar einer­seits sehr wünschenswert, weil Entscheidungen auf der Grundlage gra­phisch präsentierter Daten meist schneller getroffen werden und es zudem Hinweise gibt, daß sie besser ausfallen als bei anderen Formen der Datenpräsentation [vgl. Schönwandt 1986, S. 25]. Andererseits können aber bei der Wahrnehmung graphischer Darstellungen eine Vielzahl unerwünschter Verzerrungseffekte auftreten, so daß graphische Darstellungen von Daten im Kontext "computerunterstütztes Entscheiden" auch nicht ohne Einschränkung positiv gesehen werden können.

Ein weiterer Effekt im Bereich "Selektivität der Wahrnehmung" ist die Reaktion des Men­schen auf Informationen, die seiner Erwartung widersprechen. Hierbei geht es nicht um den (motivational bedingten) Verzerrungseffekt durch Erwünschtheit einer Information, sondern um die Wahrnehmung überraschender oder ungewohnter Informationen. Da der Mensch automatisch versucht, neue Wahrnehmungen in einen vertrauten Kontext oder Bezugsrahmen einzupassen [vgl. Zimbardo/Ruch 1978, S. 211], kommt es zu eigenartigen Reaktionen, wenn dies nicht möglich ist. "Unerwartete Informationen werden anders verarbeitet als erwartete. Typische Reaktionen auf unerwartete Informationen: Sie werden übersehen, die Beschäfti­gung mit ihnen wird vorzeitig abgebrochen, oder die Differenz zwischen erwarteten und unerwarteten Informationen wird mit Hilfe eines Kompromisses weginterpretiert. Eindeutig­keit wird gewissermaßen erzwungen" [Schönwandt 1986, S. 30]. Entscheidend ist hier, daß auch die "Unerwartetheit" einer Information dazu führen kann, daß sie bei der Wahrnehmung ausgefiltert wird, und somit gegebenenfalls -  trotz prinzipieller Verfügbarkeit -  nicht in ein Entscheidungsmodell aufgenommen wird.

Während dem völligen Ausfiltern einer Information durch Aufmerksamkeitseffekte kaum begegnet werden kann, gibt es die Möglichkeit, Über- oder Unterbewertungen in einem Ent­scheidungsmodell gegebenenfalls zu korrigieren. Hierzu ist es bei der Schätzung von Wahr­scheinlichkeiten, bei der Festlegung von Zielgewichtungen usw. allerdings erforderlich, zu überprüfen, worauf die betreffenden Einschätzungen beruhen, um mögliche Verzerrungen durch die Selektivität der Wahrnehmung aufdecken und korrigieren zu können. Das wie­derum kann allerdings nur geschehen, wenn die Schätzenden willens und in der Lage sind, die Basis für ihre Schätzungen zu erläutern. Auch wenn von dieser Prämisse nicht immer aus­gegangen werden kann, erscheint es dennoch sinnvoll, Systeme zur Modellierung von Ent­scheidungen zu entwickeln, die die Möglichkeit bieten, die Grundlagen für Wahrscheinlich­keitsschätzungen usw. in einer für eine spätere Überprüfung brauchbaren Form zu speichern. Dazu könnte man z.B. elektronische Formulare entwickeln, die genau jene Informationen abfragen, die zur Aufdeckung von Art und Ausmaß möglicher Verzerrungen benötigt wer­den.


4.2.2.1.2 Wahrnehmungsverzerrungen durch vorhandenes Wissen

Die menschliche Wahrnehmung ist immer mit sofortigen, zumindest teilweise unbewußten Schlußfolgerungen verbunden, die der Interpretation der aufzunehmen­den Signale dienen [vgl. Anderson 1989, S. 69 und Bender/Nack 1995 Bd. I, S. 5]. Diese Schlußfolgerungen werden von dem bereits vorhandenen Wissen der betreffenden Person beeinflußt [vgl. Meyer/Booker 1991, S. 34 und Bender/Nack 1995 Bd. I, S. 6]. Mögliche Folgen sind z.B. [vgl. Meyer/Booker 1991, S. 41 sowie Bender/Nack 1995 Bd. I, S. 20ff. und S. 29]

- die falsche Interpretation von Begriffen bei der Befragung von Experten durch einen Interviewer,

- die -  unter Umständen fehlerhafte -  Vervollständigung bruchstückhafter Sinneseindrücke oder

- die Interpretation von Sinneseindrücken, die einer früheren Erfahrung ähnlich, aber nicht gleich sind, als gleiche Wahrnehmung.

Dazu kommen grundlegende Probleme wie die (Fehl-) Interpretation einer gesamten Pro­blemstellung auf Basis der jeweiligen Ausbildung (engl. "training bias") oder aus der Blick­richtung einer (unpassenden) Problemlösungsmethode (engl. "tool bias") [vgl. Meyer/Booker 1991, S. 27].

Das letztgenannte Phänomen findet sich im Bereich "Entscheidungen fällen" insbesondere in der Form, daß Methoden, die eine kardinale Skalierung von Meßwerten voraussetzen, bei Problemstellungen mit nur ordinal skalierten Daten eingesetzt werden. Findet dieser Miß­brauch von Methoden bewußt statt, so ist er eher als eine Form von Wunschdenken zu sehen, da in diesem Fall hinter dem Mißbrauch die Hoffnung steht, daß die aus dem Mißbrauch resultierenden Fehler vernachlässigbar seien. Unbewußte Fehlinterpretationen, die aus der falschen Annahme resultieren, eine Methode sei geeignet, sind dagegen eher als kognitiv verursachtes Problem zu sehen. Dagegen ist das unterschiedliche Interpretieren einer Problemstellung in Abhängig­keit vom Ausbildungsstand des Interpretierenden eindeutig ein kognitives Problem, das allerdings in engem Zusammenhang mit der Selektivität der mensch­lichen Wahrnehmung steht, da hierbei das Auswählen und Gewichten der gegebenen Infor­mationen mit herein­spielt.

Unabhängig davon, wo ihre Ursachen im einzelnen zu suchen sind, können Fehlinterpretatio­nen vorgegebener Informationen zu Fehlern in allen Teilen eines Entscheidungsmodells füh­ren. Welche praktische Bedeutung diese Art Fehler für die Qualität von Entscheidungen hat, kann hier -  mangels entsprechender Forschungsergebnisse -  nicht beantwortet werden. Allerdings ist davon auszugehen, daß Fehlinterpretationen und Mißverständnisse in der Praxis häufig Korrekturen notwendig machen und damit zu erhöhten Aufwänden und Verzö­gerungen bei der Lösung von Entscheidungsproblemen führen. Aus diesem Grunde bietet es sich an, beim Modellieren von Entscheidungen auf Methoden wie z.B. "Structured Model­ling" zurückzugreifen, um zu widerspruchsfrei und eindeutig definierten Begriffen zu kom­men. Eine Übersicht über "Structured Modelling" bietet [Geoffrion 1987]. Des weiteren ist anzunehmen, daß Fehlinterpretationen um so unwahrscheinlicher sind, je breiter das Wissens­spektrum derjenigen ist, die an der jeweiligen Entscheidung beteiligt sind. Von daher sollte die Ausbildung in vielen Bereichen von Staat und Wirtschaft weitaus stärker als bisher inter­disziplinär ausgerichtet werden. Daß Ingenieure in Deutschland ihre Abschlüsse machen kön­nen, ohne wirtschaftliche und juristische Kenntnisse erworben zu haben, daß Juristen und Wirtschaftswissenschaftler nicht einmal Grundkenntnisse in Psychologie vermittelt bekom­men, und dergleichen mehr, ist im Hinblick auf die volkswirtschaftliche Bedeutung guter Ent­scheidungen als schwerwiegender bildungspolitischer Fehler anzusehen. Dies gilt unabhängig davon, inwieweit Entscheidungen mit oder ohne Computerunterstützung gefällt werden.


4.2.2.1.3 Wahrnehmung von Zusammenhängen und Korrelationen

Für das Modellieren von Entscheidungen sind Annahmen über die Zusammenhänge von Aktionen, Umweltzuständen und Ergebnissen bzw. Zielen von elementarer Bedeutung. Fehler, die in diesem Bereich gemacht werden, können zu einer falschen Bewertung und damit zur Auswahl einer schlechten Alternative führen. Gerade bei der Wahrnehmung von Zusammenhängen sind jedoch die Fähigkeiten des Menschen sehr begrenzt. Fehler in diesem Bereich betreffen

- das Erkennen und Einschätzen der Stärke von Korrelationen bei möglicherweise zu­sam­menhängenden Größen,

- das Interpretieren von Korrelationen als Kausalitäten und

- das Erkennen von Abhängigkeiten in stark vernetzten Systemen.

Die Fähigkeit des Menschen zum rein datenbasierten Schätzen von Korrelationen wurde von Jennings u.a. untersucht, indem Versuchspersonen Mengen von Datenpaaren präsentiert wurden [vgl. Jennings u.a. 1982, S. 217ff.]. "Rein datenbasiert" heißt dabei, daß die Größen so gewählt waren, daß eine theoretische Erklärung für einen Zusammenhang zwischen den Größen von den Versuchspersonen nicht angenommen werden konnte. Die Versuchsperso­nen wurden gebeten, sowohl die Richtung des möglichen Zusammenhangs also auch seine Stärke auf einer Skala von 0 - 100 anzugeben. Die Ergebnisse dieser Untersuchung lassen sich folgendermaßen zusammenfassen [vgl. Jennings u.a. 1982, S. 220f. und Schönwandt 1986, S. 51]:

- Menschen haben erhebliche Schwierigkeiten beim Beurteilen von Zusammenhängen, wenn zwei Größen nur relativ schwach korreliert sind. Selbst bei einer errechneten Korre­lation von 0,8 werden Größen von einem Teil der Versuchspersonen noch als unkorreliert angesehen; die Streuung der Schätzwerte ist außerdem sehr groß und ihre Mittelwerte liegen zu niedrig.

- Erst bei einer errechneten Korrelation > 0,8 werden die Größen von den Versuchsperso­nen durchgängig als stark positiv korreliert erkannt.

"Schwache Korrelationen werden im Mittel also schlicht übersehen, objektiv schon relativ starke Korrelationen werden subjektiv als nur unerheblich von Null verschieden einge­schätzt" [Schönwandt 1986, S. 51]. In Fachgebieten wie Psychologie und Soziologie liegt deswegen die Mehrzahl der feststellbaren Zusammenhänge unterhalb der Schwelle, die es dem kogni­tiven Apparat des Menschen ermöglicht, einen Zusammenhang wahrzunehmen, bezüglich dessen er nicht schon im vorhinein über Hypothesen verfügt [vgl. Schönwandt 1986, S. 52]. Es ist anzunehmen, daß entsprechendes auch für volks- und betriebswirtschaft­liche Zusam­menhänge und vielleicht auch eine Reihe weiterer Wissenschaften, wie Medizin, Ökologie usw., gilt. Das heißt, daß in vielen potentiellen Anwendungsgebieten von DSS mit dem Problem zu rechnen ist, daß unter Umständen wesentliche Zusammenhänge in Entschei­dungsmodellen nicht berücksichtigt werden können, da sie erst gar nicht wahrgenommen werden. Soll für ein Entscheidungsmodell die Stärke eines Zusammenhangs ausschließlich auf der Basis von Daten geschätzt werden, so sollten wegen der starken Streuung in jedem Falle Schätzungen von mehreren Personen vorgenommen werden. Liegt der Mittelwert die­ser Schätzungen im Bereich bis ca. 0,8, so sollte ein Wert oberhalb dieses Mittelwertes als Basis für weitere Berechnungen angenommen werden. Abschließend sei hier noch ange­merkt, daß die Art der Datenpräsentation (numerisch, graphisch, usw.) in der Untersuchung von Jennings u.a. überraschenderweise nahezu keinen Einfluß auf die Ergebnisse hatte [vgl. Jennings u.a. 1982, S. 222].

In einem weiteren Experiment von Jennings u.a. wurde festgestellt, daß sich das Bild grund­legend ändert, wenn den Versuchspersonen eine theoretische Erklärung für einen Zusam­menhang der betrachteten Größen vorliegt [vgl. Jennings u.a. 1982, S. 222ff.]. In diesem Fall kommt es gegebenenfalls sogar zu einem erheblichen Überschätzen von Korrelationen. Das Überschätzen von Korrelationen bzw. die fälschliche Annahme von Zusammenhängen kann außerdem durch rein verbale Assoziationen verursacht werden [vgl. Schönwandt 1986, S. 48ff. und Chapman/Chapman 1982]. Dieser Effekt wurde auch bei Fachleuten nachgewie­sen und erwies sich zudem als schwer auszuschalten. Die mögliche Folge beim (computerunterstützten) Entscheiden ist, daß von nicht-existierenden Zusammenhängen aus­gegangen wird. Dieses Risiko besteht insbesondere dort, wo keine Daten vorliegen (oder vorliegende Daten nicht verwendet oder nicht statistisch korrekt ausgewertet werden), son­dern Zusammenhänge nur auf der Basis theoretischer Überlegungen postuliert werden. Besonderes Mißtrauen ist dabei theoretischen Überlegungen gegenüber angebracht, bei denen gedankliche Assoziationen eine Rolle spielen, die keinen sachlichen Hintergrund haben, sondern auf ähnlich klingenden Wörtern, auf verbreiteten Klischees und dergleichen basieren. Beim Aufstellen von Entscheidungsmodellen sollten dementsprechend die Annah­men über Zusammenhänge zwischen Variablen grundsätzlich auf diese Art Fehler hin kon­trolliert werden. Wenn Daten vorliegen oder mit vertretbarem Aufwand beschafft werden können, sollten sie statistisch ausgewertet werden, um theoretische Annahmen zu überprüfen, bevor sie in einem Entscheidungsmodell verwendet werden.

Eine weitere Schwierigkeit liegt in der Interpretation von Korrelationen als Kausalbeziehun­gen. Korrelationen zwischen zwei Größen können ausschließlich durch Zufall oder z.B. durch eine dritte Größe verursacht sein. Folgende Fehler können bei der Interpretation von Korrelationen auftreten [vgl. Krämer 1991, S. 128f. und Zimbardo/Ruch 1978, S. 10]:

- die Annahme eines Zusammenhangs, obwohl keiner besteht

- die Annahme, es gäbe keinen Zusammenhang, obwohl einer besteht

- die Annahme einer Kausalbeziehung zwischen den korrelierten Größen, obwohl die Kor­relation durch eine weitere Größe verursacht ist

- die Annahme einer Kausalbeziehung in der falschen Richtung, d.h. Verwechslung von Ursache und Wirkung.

Daß diese Fehler in der Praxis auftreten können, ist zwar belegt; die denk- und wahrneh­mungspsychologischen Hintergründe dieser Fehlerkategorie sind jedoch bisher nicht explizit untersucht worden. Die oben genannten Fehler könnten sowohl durch motivationale Ein­flüsse (Wunschdenken, Illusion of Control) als auch durch kognitive Einflüsse (Training Bias) verursacht werden. Unabhängig davon ist es beim Entscheiden wichtig, diese Fehler einzukalkulieren und entsprechende Überprüfungen durchzuführen.

Besondere Schwierigkeiten bereitet vielen Menschen auch das Erkennen von Abhängigkeiten in stark vernetzten Systemen. Dieser Problemkreis wurde von Dörner u.a. in Experimenten untersucht, bei denen das Verhalten und die Leistung von Versuchspersonen bei Planspielen an einem Computer beobachtet wurden [vgl. Dörner u.a. 1981 und Dörner 1992]. Bei einem dieser Planspiele ging es um das Leiten eines Entwicklungshilfe-Projektes, in einem anderen darum, eine Gemeinde politisch zu führen. Häufige Fehler der Versuchspersonen waren dabei unter anderem [vgl. Dörner 1992, S. 8, S. 27, S. 32, S. 52ff., S. 109ff. und S. 124ff.]:

- das Übersehen von Rückkoppelungen,

- die Nichtbeachtung von begrenzenden Größen,

- die Nichtbeachtung von Voraussetzungen und insbesondere

- das Übersehen von Neben- und Fernwirkungen.

Alle diese Fehler können bei Entscheidungen, bei denen es um Eingriffe in komplexe Systeme geht, zu unvollständiger und damit falscher Modellierung und damit auch zur Wahl einer schlechten Aktion führen. Grundsätzlich können diese Fehler durch eine entsprechend sorg­fältige Systemanalyse vermieden werden. Unabhängig davon könnten DSS durch entspre­chende Unterstützung bei der Modellierung von Entscheidungen helfen, beispielsweise indem für Ergebnisse und Ziele Kategorien -  wie "Hauptziel/Hauptwirkung", "Nebenziel/Neben­wir­kung", "Fernwirkung", "Erhaltungsziel" usw. -  vordefiniert werden. Eine leere Kategorie könnte dann als Hinweis auf eine unvollständige Modellierung interpre­tiert und entsprechend überprüft werden.

Insgesamt gesehen sind die Fähigkeiten des Menschen zur Wahrnehmung von Zusammen­hängen sowohl als sehr begrenzt als auch als sehr fehleranfällig anzusehen. "Begrenzt" bezieht sich dabei auf die Tatsache, daß Zusammenhänge -  wenn keine Theorie vorliegt -  sehr stark sein müssen, wenn sie von der Mehrheit der Beobachter wahrgenommen werden sollen, und daß zudem Zusammenhänge in komplexen, stark vernetzten Systemen oft über­sehen werden. "Fehleranfällig" soll heißen, daß erstens häufig Zusammenhänge "gesehen" werden, wo keine sind, und zweitens bei der Einschätzung von Stärke und Richtung von Zusammenhängen die Abweichungen vom wahren Wert in aller Regel außerhalb eines für Zwecke des Entscheidens tolerablen Bereiches liegen. Konsequenz muß es deshalb sein, Zusammenhänge soweit wie möglich mit systematischen (wie z.B. statistischen) Methoden zu ermitteln. Annahmen über Zusammenhänge sollten in Entscheidungsmodellen nicht verwen­det werden, wenn sie ausschließlich auf theoretischen Überlegungen basieren oder auf Beob­achtungen, die nicht von mehreren Personen einmütig als Hinweise auf eine hohe Korrelation zwischen den fraglichen Größen interpretiert wurden.


4.2.2.1.4 Wahrnehmung von graphischen Darstellungen

Graphische Darstellungen von zahlenmäßigen Zusammenhängen (Diagramme) ermöglichen es dem Betrachter, das Wesentliche einer großen Menge einzelner Werte auf einen Blick zu erfassen, sofern nur gewisse Mindestanforderungen an die Qualität der Darstellung erfüllt sind [vgl. Krämer 1994, S. 12]. Mit Hilfe von Diagrammen können mehr Informationen in kürzerer Zeit aufgenommen werden als bei tabellarischer Darstellung, und die Informationen bleiben nach neueren psychologischen Erkenntnissen auch besser im Kurzzeitgedächtnis haf­ten [vgl. Krämer 1994, S. 13 und Anderson 1989, S. 106f.], was für die Weiterverarbeitung der Informationen von großer Bedeutung ist. Außerdem bieten Diagramme die Möglichkeit, dem Entscheider Daten simultan anstatt seriell darzubieten. Simultane Darstellung von Daten verringert die Wahrscheinlichkeit von Fehlern bei der Datenauswertung [vgl. Schönwandt 1986, S. 24]. Lange Kolonnen von Zahlen überfordern zudem das menschliche Wahrneh­mungsvermögen.

Aus diesen Gründen werden bei der Vorbereitung von Entscheidungen allgemein und insbe­sondere beim computerunterstützten Entscheiden graphische Darstellungen unterschiedlich­ster Art eingesetzt. Wenn man einmal von der Tatsache absieht, daß in Spezialfällen Tabellen besser geeignet sind als Graphiken [vgl. Krämer 1994, S. 11], so ergibt sich dabei in erster Linie das Problem, daß die graphische Darstellung dem Entscheider ein leicht verständliches und vor allem ein realistisches und unverzerrtes Bild des Entscheidungsproblems (bzw. eines Teils davon) verschaffen soll. Das menschliche Gehirn ist jedoch nicht an die graphische Darstellung der abstrakten Zusammenhänge eines Entscheidungsmodells, sondern an die all­tägliche Wahrnehmung konkreter Gegenstände angepaßt, und auch dies nur in einer Form, die eine Vielfalt sogenannter "optischer Täuschungen" möglich macht. Beim computerunter­stützten Entscheiden allgemein und insbesondere bei der Gestaltung von dedizierten DSS sind deswegen im Bereich "graphische Darstellung" eine Reihe von möglichen Fehlerquellen zu berücksichtigen und -  wenn möglich -  zu eliminieren. Angemerkt sei noch, daß es auch andere Sinnestäuschungen gibt, wie z.B. akustische Täuschungen [vgl. Anderson 1989, S. 71f.] oder Täuschungen bei der Wahrnehmung von Temperaturen [vgl. Zimbardo/Ruch 1978, S. 209]; diese werden jedoch wegen der besonde­ren Bedeutung der optischen Wahr­nehmung beim computerunterstützten Entscheiden hier nicht weiter behandelt.

Mehrere Punkte sind bei der Diskussion graphischer Darstellungen im Hinblick auf compu­terunterstütztes Entscheiden wesentlich:

- Optische Täuschungen können die Wahrnehmung von graphischen Darstellungen in erheblichem Maß beeinflussen. So erscheinen z.B. senkrechte Strecken ca. 30% länger als gleich lange waagerecht Strecken [Krämer 1994, S. 20]. Bei zwei Kurven in einem Diagramm, die scheinbar überall den gleichen Abstand haben, kann es sein, daß dieser in Wirklichkeit um mehr als 100% variiert [vgl. Krämer 1994, S. 67ff.].

- Optische Täuschungen sind z.T. von interpersonellen und interkulturellen Faktoren abhängig [vgl. Krämer 1994, S. 19]. Die Wirkung von Farben hängt beispielsweise von beidem ab [vgl. Krämer 1994 S. 156ff.]. Dadurch entstehen Schwierigkeiten beim Elimi­nieren der betreffenden Effekte.

- Oft spielen Randbedingungen eine Rolle, wie z.B. bei der Auswahl des geeignetsten Gra­phiktyps [vgl. Krämer 1994 S. 13]. Außerdem fehlen vielfach allgemein anerkannte Regeln für die Gestaltung von Graphiken, wie z.B. für die Wahl von Skalen [vgl. Krämer 1994 S. 164] oder die Intervallbreite bei Histogrammen [vgl. Krämer 1992 S. 20]. Dies erschwert das Eliminieren unerwünschter Effekte, weil unter Umständen gar nicht gesagt werden kann, wie eine nicht-manipulierende Darstellung auszusehen hat.

- Bei der Gestaltung von Graphiken für Zwecke der Entscheidungsunterstützung können Zielkonflikte entstehen, da neben dem Ziel einer Darstellung, die vom Entscheider "möglichst unverzerrt" wahrgenommen werden kann, auch ergonomische Aspekte zu beachten sind. Piktogramme haben z.B. den Vorteil, daß sie das Behalten der übermittel­ten Informationen unterstützen [vgl. Krämer 1994 S. 18]; andererseits können sie -  auch ungewollt -  Emotionen und falsche Eindrücke übermitteln [vgl. Krämer 1994 S. 120ff]. Die simultane Darstellung vieler Kurven in einem Diagramm macht dieses unübersichtlich [vgl. Krämer 1994, S. 70ff.]; neutrale, aber zu grobe Grauraster können zu Flimmereffek­ten führen [vgl. Krämer 1994 S. 148].

Die bezüglich der Wahrnehmung von graphischen Darstellungen zu diskutierenden Effekte betreffen zwei Problemkreise:

(1) Welche Informationen werden durch eine Graphik überhaupt transportiert und wie stark (d.h., welche Informationen werden betont)?

(2) Wie werden Größenverhältnisse wahrgenommen?

Der erste Problemkreis hat Auswirkungen auf die Auswahl der Informationen. Eigen­schaften einer Graphik bestimmen also, welche Informationen der Betrachter aufnimmt und inwieweit er sich später an diese Informationen erinnern kann. Die darauf aufbauenden Konsequenzen, wie z.B. Über- oder Unter­bewertungen, wurden bereits diskutiert.

Der zweite Problemkreis betrifft insbesondere den Vergleich und die Auswahl von Alternati­ven anhand graphischer Darstellungen, z.B. bei MCDSS. Verzerrungen bei der Wahrneh­mung von Größenverhältnissen müssen hierbei berücksichtigt bzw. vermieden werden, wenn der Entscheider nicht ungewollt manipuliert werden soll.

Welche Informationen durch eine Graphik transportiert und inwieweit sie betont werden, hängt von der Art der Graphik (Torten-, Säulen-, Balken-, Kurvendiagramm usw.) und Details der Gestaltung (z.B. Skalierung) ab. Erkenntnisse aus diesem Bereich, die entweder direkt bei der Gestaltung der Ausgaben von entscheidungsunterstützenden Systemen oder indirekt bei der nicht computerunterstützten Entscheidungsvorbereitung berücksichtigt wer­den sollten, sind z.B.:

- Tortendiagramme werden von den meisten Menschen im Uhrzeigersinn bei 12.00 Uhr beginnend "gelesen"; "Tortenstücke", die bei ca. 1 Uhr liegen, werden dadurch betont [vgl. Krämer 1994, S. 33ff.] und dementsprechend gegebenenfalls überschätzt.

- Eine bewußte Betonung von "Tortenstücken" ist durch Einschwärzen, Herausrücken oder sogar Weglassen möglich [vgl. Krämer 1994, S. 35f.]. Unbewußte Betonungen können demzufolge durch zufällig gewählte Färbungen oder Grauraster entstehen, da z.B. eine sehr helle Farbe oder ein sehr helles Grauraster wie eine Auslassung wirken können.

- Tortendiagramme können durch die Anordnung der Tortenstücke zusätzliche Zusam­menhänge aufzeigen (Beispiel: Koalitionsmöglichkeiten bei Sitzverteilung in Parlamen­ten). Dies kann hilfreich sein, aber unter Umständen können auch nichtexistente Zusam­menhänge suggeriert werden. Außerdem kann die Anordnung der Tortenstücke das Behalten der Informationen verbessern, wenn ihr eine für den Betrachter sinnvolle Struktur zugrunde liegt [vgl. Krämer 1994, S. 35].

- Ähnliche Effekte, wie die für Tortendiagramme aufgeführten, sind auch bei anderen Arten von Diagrammen, wie z.B. bei Säulen- oder Balkendiagrammen, möglich. So kann z.B. auch hier eine Färbung oder ein Grauraster zu einer (ungewollten) Betonung führen und durch die gewählte Anordnung das Behalten der Informationen beeinflußt werden.

- Kurvendiagramme betonen (bei zeitlich geordneten Werten) den Trend, Säulen­dia­gramme betonen einzelne Werte [vgl. Krämer 1994, S. 14]. Da Menschen zum (linearen) Extrapolieren von Trends neigen, können Kurvendiagramme zukünftige Entwicklungen suggerieren, die aufgrund einer statistischen Analyse der Daten nicht zu erwarten wären.

- Kurvendiagramme lassen Wachstumsraten kleiner erscheinen als sie tatsächlich sind [vgl. Krämer 1994, S. 66]. Die Darstellung einer zeitabhängigen Größe in einem Kurven­diagramm kann demzufolge bewirken, daß die Wachstumsraten der betreffenden Größe unterschätzt und dementsprechend bei einer Entscheidung nicht ausreichend berücksichtigt werden. Logarithmische Skalen können dagegen die Änderung von Wachstumsraten deutlich machen [vgl. Krämer 1994, S. 75f.], diesem Effekt also entgegenwirken.

- Zeitreihen und andere zahlenmäßig Zusammenhänge können durch Änderungen an den Skalen (Abschneiden, Strecken, Stauchen, Verzerren) in ihrer Wirkung auf den Wahr­nehmenden erheblich manipuliert werden [vgl. Krämer 1991, S. 29ff. und Krämer 1994, S. 15, S. 81 und S. 163]. Ein Trend kann z.B. überzeichnet (also betont) oder auch in einer Darstellung nahezu völlig unterschlagen werden.

- Muster, z.B. bei Säulendiagrammen, beeinflussen das Erinnerungsvermögen [Krämer 1994, S. 7 und S. 48] und können dementsprechend zum Über- oder Unterschätzen von Werten führen.

Verzerrungen im Bereich der Wahrnehmung von Größenverhältnissen sind für nahezu alle geometrischen Größen (wie z.B. Strecken, Flächen, Winkel, Krümmungen) bekannt [vgl. Krämer 1994, S. 20ff.]. Wesentlich für das computerunterstützte Entscheiden ist,

- daß die Länge von Strecken je nach Lage (senkrecht oder waagerecht) unterschiedlich eingeschätzt wird [vgl. Krämer 1994, S. 20],

- daß beim Vergleich der Größe von Flächen eine Vielzahl von Faktoren zu Fehleinschät­zungen führen können [vgl. Krämer 1994, S. 23f., S. 42 und S. 156, außerdem Zimbardo/Ruch 1978, S. 224],

- daß Muster (wie z.B. einfache Längs- oder Querstreifen) bei Säulen- oder Balken­diagrammen eine manipulierende Wirkung haben können [vgl. Krämer 1994, S. 7 und S. 48],

- daß perspektivische Darstellungen eine realistische Einschätzung von Größenverhältnis­sen praktisch ausschließen [vgl. Krämer 1994, S. 37, S. 97 und S. 169].

Die Tatsache, daß die Länge von Strecken je nachdem, ob sie senkrecht oder waagerecht verlaufen, unterschiedlich eingeschätzt wird, bedeutet, daß bei der Darstellung des Zusam­menhangs zweier Variablen in einem Koordinatensystem, die Zuordnung der Variablen zu den Achsen bereits die Beurteilung des Zusammenhangs durch einen Entscheider beeinflus­sen kann. Als Korrekturmaßnahmen bieten sich an

- dem Entscheider einen Wechsel der Zuordnung der Variablen zu den Achsen zu ermög­lichen, so daß er durch zwei unterschiedliche Sichten insgesamt ein realistisches Bild erhält, oder

- die Skalierung der Achsen so zu verzerren, daß die Wahrnehmungsverzerrung ausgegli­chen wird. Da mit individuellen Unterschieden der Wahrnehmungsverzerrung gerechnet werden muß, sollte das notwendige Maß der Korrektur gegebenenfalls nicht konstant gehalten, sondern vom System ermittelt werden. Zudem bietet sich diese Lösung bei Gruppenentscheidungen nur dann an, wenn jeder Beteiligte über ein eigenes Display ver­fügt.

Daß bereits zweidimensionale Zusammenhänge in aller Regel nicht unverzerrt wahrgenom­men werden, wirft die Frage auf, ob zweidimensionale Projektionsdarstellungen vieldimen­sionaler Räume, wie sie z.B. zur Darstellung der Abhängigkeiten zwischen Zielkriterien bei dem MADSS "PROMETHEE" eingesetzt werden [vgl. Brans 1988, S. 37ff.], im Bereich "Entscheidungsunterstützung" überhaupt sinnvoll zu verwenden sind. Denn hier werden Fehlinterpretationen erstens durch die mit der Projektion verbundenen zusätzlichen Verzer­rungen noch wahrscheinlicher, und zweitens sprechen die Schwierigkeiten des Menschen, perspektivische Darstellungen zu interpretieren, gegen diese Vorgehensweise. Zumindest wäre es erforderlich, die Frage, wie Menschen solche Projektionsdarstellungen wahrnehmen bzw. interpretieren, wissenschaftlich zu untersuchen, bevor man diese Darstellungsmethode in der Praxis verwendet.

Flächenverhältnisse im Bereich "Entscheidungsunterstützung" zur Darstellung von Verhält­nissen irgendwelcher Größen zu verwenden, ist grundsätzlich fragwürdig, da gleich große Flächen unterschiedlich groß erscheinen, je nachdem [vgl. Krämer 1994, S. 23f. und S. 42]

- welche Form sie haben (z.B. ob Quadrat, Kreis oder Dreieck),

- wie sie gedreht sind (ein auf eine Ecke gestelltes Quadrat erscheint größer als ein gleich großes, dessen untere Kante aus Sicht des Betrachters horizontal verläuft),

- wie sie zueinander liegen,

- ob sie schwarz auf weiß oder weiß auf schwarz dargestellt sind,

- ob es sich um den Rand oder das Innere eines Quadrates handelt und

- welche Farbe sie haben (ansonsten identische Flächen wirken -  von individuellen Diffe­renzen abgesehen -  rot am größten, gelb und blau etwas kleiner, und grün am kleinsten).

Außerdem sind Menschen zumeist nicht fähig, die Größenverhältnisse von Flächen gleicher Form korrekt zu interpretieren. So wird z.B. ein Kreis, der einen doppelt so großen Radius hat wie ein Vergleichskreis, weder entsprechend dem Radius als doppelt so groß, noch ent­sprechend der Fläche als viermal so groß gesehen, sondern das Größenverhältnis wird -  indi­viduell unterschiedlich -  auf einen Wert irgendwo zwischen drei und vier geschätzt [vgl. Krämer 1994, S. 42 und S. 116f.].

Für die Entscheidungsunterstützung bietet sich aus den genannten Gründen hauptsächlich der Einsatz von Säulen- oder Balkendiagrammen an, da hier vom Betrachter Vergleiche nicht anhand von Flächen, sondern anhand von Längen gleicher Ausrichtung durchzuführen sind. Eine Alternative hierzu besteht darin, zur Darstellung von zahlenmäßigen Zusammenhängen nicht geometrische Größen wie Längen oder Flächen zu verwenden, sondern Zahlen durch eine Anzahl von Symbolen zu versinnbildlichen [vgl. Krämer 1991, S. 88ff. und Krämer 1994, S. 16 und S. 109ff.]. Es fehlt jedoch an Wissen in Bezug auf Farben, Grauraster, Muster und Symbole, die bei graphischen Darstellungen zur Unterscheidung von Aktionen, Kriterien oder sonstigen Kategorien verwendet werden können und

- bezüglich der Größeneinschätzung möglichst neutral sind,

- keine Rangfolgen suggerieren (wie dies z.B. bei Graustufen sein kann [vgl. Krämer 1994 S. 157]),

- bezüglich emotionaler Assoziationen möglichst neutral sind und außerdem

- aus ergonomischer Sicht keine negativen Effekte verursachen (wie z.B. Flimmern).

In Frage kämen z.B. Mischfarben, gedeckte Farben, Kombinationen von Farben und Mustern sowie Symbole, die auf Kombinationen einfacher geometrischer Formen basieren.


4.2.2.2 Schwächen im Bereich der Informationswiedergabe

4.2.2.2.1 Selektivität des Gedächtnisses und Verfügbarkeit

Nicht nur bei der Aufnahme neuer Informationen über die Sinnesorgane, sondern auch beim Abruf von Informationen aus dem (Langzeit-) Gedächtnis werden bestimmte Informationen ausgefiltert. Andere Informationen können dagegen besonderes leicht aus dem LZG abgeru­fen werden. Dazu gehören solche, die

- mit besonders starken Emotionen behaftet sind,

- mit angenehmen Lebenserfahrungen verbunden sind,

- besonders vertraut sind,

- besonders anschaulich sind,

- in der Presse besonders oft oder in besonders spektakulärer Weise erwähnt werden,

- erst kurz zurückliegende Ereignisse oder

- noch nicht abgeschlossene Aufgaben betreffen

[vgl. Schönwandt 1986, S. 30ff., Meyer/Booker 1991, S. 42 und S. 138 und Zimbardo/Ruch 1978, S. 195]. Die Fähigkeit, sich zu einem gegebe­nen Zeitpunkt an eine Information zu erinnern, wird außerdem davon bestimmt, inwieweit der Kontext, in dem die Information abgerufen wird, dem bei der Speicherung der Informa­tion entspricht [vgl. Anderson 1989, S. 177f. und Meyer/Booker 1991, S. 34], und davon, ob das Konzentrieren auf bestimmte Aspekte einer Situation nicht eine Fixierung nach sich zieht, die den Zugang zu anderen Aspekten der Situation erschwert oder sogar verhindert [vgl. Schönwandt 1986, S. 31]. Ob eine Information aus dem LZG abgerufen werden kann (bzw. tatsächlich abgerufen wird), hängt also sowohl von Eigenschaften der gespeicherten Infor­mation (einschließlich des "Speicherungs-Kontextes") als auch von der "Abruf-Situation" ab. Dazu kommt wahrschein­lich ein systematischer, zeitabhängiger Zerfall von Gedächtnisinhal­ten, die über längere Zeit­räume hinweg nicht gebraucht werden [vgl. Anderson 1989, S. 153f.]. Außerdem können Drogen, die den Empfang oder den Abbau von Neurotransmit­tern beeinflussen, das Gedächtnis verbessern oder verschlechtern [vgl. Zimbardo/Ruch 1978, S. 189 und Schönwandt 1986, S. 14]; Alkohol und Marihuana beeinflussen die Gedächtnisleistung -  von Ausnahmen abgesehen -  negativ [vgl. Anderson 1989, S. 178].

Die möglichen Folgen im Gebiet "computerunterstütztes Entscheiden" sind letztendlich die­selben wie die der Selektion von Informationen bei der Wahrnehmung, wie z.B.

- vollständiges Weglassen wesentlicher Elemente eines Entscheidungsmodells,

- Fehleinschätzung von Größen oder Größenverhältnissen allgemein (physikalische, geo­graphische, wirtschaftliche usw.)

- Fehleinschätzung von Wahrscheinlichkeiten bzw. relativen Häufigkeiten und

- unangemessene Gewichtungen von Zielkriterien bei Multi-Criteria-Entscheidungen.

Den Effekt, den die "Verfügbarkeit" (engl. "availability") der Informationen im Gedächtnis haben kann, zeigt das folgende Ergebnis einer Studie über die politischen Kenntnisse der US-Amerikaner: "So gaben die Befragten beispielsweise im Schnitt an, der Anteil der Auslands­hilfen am Bundeshaushalt der USA liege bei 26 Prozent. Tatsächlich gibt die US-Regierung gerade einmal zwei Prozent ihres Etats für Auslandshilfen aus. Der Volksmund hält dagegen 13 Prozent für ´völlig ausreichend´" [o.V. 1996, o.S.]. Die Vermutung liegt nahe, daß die Überschätzung des Anteils der Auslandshilfen am Bundeshaushalt der USA um mehr als den Faktor 10 überwiegend auf die relativ häufige -  und wahrscheinlich auch sehr emotionale -  Berichterstattung zu diesem Thema und die damit verbundene gute Verfügbarkeit des The­mas "Auslandshilfen" im Gedächtnis der Befragten zurückzuführen ist.

Um Schätzfehlern durch den Verfügbarkeitseffekt entgegenzuwirken, kann man beispiels­weise Gruppen- oder Kreativitätstechniken einsetzen; außerdem bietet es sich gegebenenfalls an, die betrachtete Problemstellung zunächst hierarchisch zu strukturieren [vgl. Meyer/Booker 1991, S. 138 und S. 180]. Darüber hinaus sollte man Personen, die häufig an Entscheidungen beteiligt sind, zur generellen Verbesserung ihres Gedächtnisses in entspre­chenden psychologischen Techniken schulen. Die genannten Methoden zur Verringerung von Schätzfehlern bieten sich auch an, um vollständiges Weglassen wesentlicher Elemente eines Entscheidungsmodells zu vermeiden. Wenn aus Entscheidungssituationen längerfristig gelernt werden soll, müssen außerdem Entscheidungen und ihren Grundlagen systematisch dokumentiert werden, denn "what cannot be reviewed cannot be improved" [Meyer/Booker 1991, S. 119]. Hierbei könnten entsprechend gestaltete DSS eine wesentliche Hilfe sein. Möglicherweise läßt sich auch Kreativität durch Computerunterstützung fördern. Mitte der 80iger Jahre gab es beispielsweise unter dem Schlagwort "Idea-Processing-Software" Ansätze, die gedankliche Arbeit an Schriftstücken zu unterstützen. Die den Idea-Processing-Programmen zugrundeliegenden Konzepte könnten sowohl generell bei der Modellierung von Entscheidungsproblemen als auch speziell beim Schätzen erforderlicher Werte hilfreich sein. Einen Überblick über "Idea-Processing-Software" bieten z.B. [Lemmons 1984 und Kellerwessel 1986].


4.2.2.2.2 Rekonstruieren statt Erinnern

Ähnlich, wie die Wahrnehmung ein Prozeß ist, bei dem durch bereits vorhandenes Wissen Verfälschungen auftreten können, ist auch die Abfrage aus dem Gedächtnis ein Prozeß, bei dem häufig mehr (re-) konstruiert als erinnert wird. Lücken zwischen erinnerten Fakten und Daten werden durch neue, erfundene Zwischenstücke gefüllt, und zwar derart, daß insgesamt ein stimmiges, widerspruchsfreies Bild entsteht [vgl. Schönwandt 1986, S. 84ff. und Ander­son 1989, S. 127 und S. 165ff.]. "Reproduktion durch Inferenz führt häufig dazu, daß sich die Versuchspersonen auch an solche Dinge erinnern, die sie ursprünglich gar nicht gelernt haben" [Anderson 1989, S. 157, vgl. auch Bender/Nack 1995 Bd. I, S. 21f.]. Je länger Erinnerungen zurück liegen, desto mehr muß damit gerechnet werden, daß in die Erinnerun­gen Zusatzinformationen eindringen [vgl. Anderson 1989, S. 166]. Ähnliche Ereignisse wer­den unter Umständen nicht mehr unterschieden, sondern verschmelzen im Gedächtnis zu einem Ereignis, wobei die Eigenschaften der ursprünglichen Ereignisse durcheinandergewor­fen werden [vgl. Meyer/Booker 1991, S. 34]. Da das Gedächtnis teilweise hierarchisch strukturiert ist, können insbesondere Informationen "höherer Ordnung" zu Verfälschungen auf unteren Ebenen führen. So verführt z.B. die Tat­sache, daß der Atlantik östlich des Pazifik liegt, zu der falschen Annahme, daß ein Schiff, daß durch den Panamakanal vom Atlantik zum Pazifik fährt, sich von Ost nach West bewegt. Diese Annahme stimmt deswegen nicht, weil Mittelamerika nicht geradlinig in Nord-Süd-Richtung verläuft, sondern gerade im frag­lichen Gebiet einen Bogen Richtung Nordosten beschreibt [vgl. Anderson 1989, S. 94ff.].

Genauso wie Wahrnehmungsverzerrungen durch vorhandenes Wissen zu Fehlern an allen Stellen eines Entscheidungsmodells führen können, können dies auch (Re-) Konstruktions­vorgänge beim Erinnern. Darüber, wie häufig Menschen gutgläubig Informationen, die in Wirklichkeit (falsch) rekonstruiert sind, als "Erinnerungen" ausgeben, fehlen bisher empiri­sche Untersuchungen; wahrscheinlich ist es jedoch häufiger als allgemein angenommen wird [vgl. Bender/Nack 1995 Bd. I, S. 62]. Es muß damit gerechnet werden, daß fehlerhaftes Erinnern beim Fällen von Entscheidungen -  unabhängig davon, ob computerunterstützt oder nicht -  zumindest zu Verzögerungen und zusätzlichen Aufwänden führen kann, zumal moti­vationale Effekte (z.B. Wunschdenken, Gruppen- und Autoritätsdruck) fehlerhaftes Erinnern begünstigen können. Als Gegenmaßnahme empfiehlt sich -  neben dem Einsatz von Gruppen­techniken und genereller Überprüfung aller Informationen -  insbesondere die Aufklärung der Entscheidungsträger über diesen Effekt im Rahmen von Schulungen zur Denk- und Wahr­nehmungspsychologie.


4.2.2.2.3 Nichtbewußtsein von Vorgehensweisen und Vorstellungen

Neben der Problematik lückenhafter oder falscher Erinnerungen existiert das Problem der Verbalisierung von Wissen. Fachleute sind oft nicht in der Lage, ihr Wissen zu übermitteln, obwohl sie selbst in der Lage sind, es anzuwenden [vgl. Meyer/Booker 1991 S. 106 und Dörner 1992, S. 65]. Als Ursache dafür kommen verschiedene Effekte in Frage:

- Häufig ausgeführte Handlungen werden zunehmend automatisiert und laufen dann ohne bewußte Kontrolle ab [vgl. Anderson 1989, S. 54].

- Soeben vollzogene Denkprozesse können meist vom Betreffenden nicht vollständig und korrekt beschrieben werden. Mögliche Gründe hierfür sind, daß die Denkprozesse aus einer bildlichen in eine sprachliche Form umkodiert werden müssen, oder auch, daß die Aufmerksamkeit zwischen dem Denkprozeß selbst und der Selbstbeobachtung geteilt werden muß. Zudem können Auskünfte bezüglich eines Denkprozesses durch fehlerhaftes Rekonstruieren des Prozesses verfälscht sein [vgl. Meyer/Booker 1991 S. 106f.].

- Wissen kann durch Nachahmung erworben sein. In diesem Falle "weiß" derjenige zwar, wie er eine Tätigkeit auszuführen hat, ist aber unter Umständen nicht in der Lage, die Gründe für seine Vorgehensweise zu erklären.

Zu diesem Problem, überhaupt Wissen weitergeben zu können, kommt hinzu, daß Fachleute Ausdrücke häufig unbewußt mit eigenen Bedeutungen belegen [vgl. Meyer/Booker 1991, S. 8]. Dadurch können Mißverständnisse und damit Fehler entstehen, wenn Experten zum Zwecke des Erstellens eines Entscheidungsmodells interviewt werden. Besondere Vorsicht ist in diesem Zusammenhang geboten, wenn Werte rein verbal-qualitativ beschrieben werden [vgl. Meyer/Booker 1991, S. 113 und Eisenführ/Weber 1993, S. 152f.]. Der Begriff "small chance" kann z.B. Wahrscheinlich­keiten zwischen 1% und 40% bedeuten [vgl. Keeney/Von Winterfeldt 1989 nach Meyer/Booker 1991, S. 113]. Daß derart große Unterschiede bei der Interpretation von Begriffen durch unterschiedliche Personen möglich sind, dürften den meisten nicht bewußt sein.

Die Problematik "unbewußten Wissens" bedeutet für Entscheidungen, daß bestimmte Infor­mationen schwer oder gar nicht zu beschaffen sind, und daß erhebliche Fehler durch Miß­verständnisse möglich sind. Mit Hilfe spezieller Befragungs- und Beobachtungstechniken, wie z.B. der "ethnographischen Methode", können Probleme in diesem Bereich aber abge­mildert werden [vgl. Meyer/Booker 1991 S. 106f.]. Diejenigen, die Entscheidungsmodelle aufzustellen haben, sollten bezüglich des Einsatzes dieser Methoden geschult werden.


4.2.2.3 Schwächen im Bereich der Informationsverarbeitung

4.2.2.3.1 Vereinfachungsstrategien

Informationen, die verarbeitet werden sollen, müssen im KZG gehalten werden [vgl. Ander­son 1989, S. 131 und S. 202]. Die begrenzte Kapazität des KZG wird dadurch zu einem Kernproblem der menschlichen Informationsverarbeitung. Sie bewirkt, daß Menschen beim Denken Vereinfachungsstrategien einsetzen, die zwar einerseits das Lösen vieler Probleme erst ermöglichen, andererseits aber zu Fehlern bei prinzipiell allen Arten von Aufgaben führen können, wenn deren Schwierigkeitsgrad ein gewisses, unter Umständen sehr geringes Maß überschreitet. Die Tendenz zum Vereinfachen nimmt zu [vgl. Geißler 1986, S. 238ff., Wright 1974, Smart/Vertinsky 1977, Brander u.a. 1989, S. 211ff. und Schönwandt 1986, S. 65ff.],

- wenn Problemstellungen besonders schwierig sind, wie z.B. bei einer hohen Zahl von Alternativen, unsicheren Erwartungen, Unschärfe usw. bei Entscheidungsproblemen

- wenn Personen sich unter Streß oder Zeitdruck gesetzt fühlen oder dies tatsächlich sind, oder

- wenn sie gestört oder abgelenkt werden.

Beispiele für Strategien zur Vereinfachung von Entscheidungsproblemen sind [vgl. Geißler 1986, S. 238f., Dörner 1992, S. 118ff. sowie Schönwandt 1986, S. 65ff. und S. 96ff.]:

- Zurückgreifen auf altbewährte Lösungen

- Risikoscheu / Konzentration auf die Vermeidung negativer Effekte ("Sicherheitsdenken")

- Anwendung von Faustregeln, die meist aus der Ablehnung einer bestimmten Alternative bestehen und nicht die Vor- und Nachteile aller Alternativen insgesamt berücksichtigen

- unzulässiges Zerlegen von Problemen in Teilprobleme

- restriktives Informationsverhalten (zu geringe Informationsbeschaffung und -verarbei­tung)

- unzureichende Untersuchung von Problemursachen: Abbruch der Ursachenanalyse nach einer zufriedenstellenden Erklärung

- unzureichende Berücksichtigung mehrerer Problemursachen ("mono-kausales Handeln trotz multi-kausalen Denkens")

- unzureichende Alternativengenerierung

- Senken von Anspruchsniveaus.

Wie weit die hier aufgeführten Strategien zur Denkvereinfachung in der Praxis zu Fehlent­scheidungen führen, ist nur teilweise bekannt. Sicher ist, daß unzureichende Informations­nachfrage eine der Hauptursachen für Fehlentscheidungen ist [vgl. Geißler 1986, S. 218]. Bekannt sind auch der Effekt des Abblockens von Innovationen durch risikoscheue "Bedenkenträger" in deutschen Unternehmen [vgl. o.V. 1995, S. 81] und andere Formen von sogenanntem "Sicherheitsdenken". Das sogenannte "Sicherheitsdenken" sollte in diesem Zusammenhang nicht als sinnvoller Ausgleich zur allgemeinen Unterschätzung von Unsicher­heit verstanden werden, da beim "Sicherheitsdenken" immer nur diejenigen Risiken ausge­schlossen werden, die der Entscheider wahrnimmt und ausreichend hoch gewichtet. Daß Unsicherheiten bezüg­lich der angemessenen Gewichtung von Risiken und bezüglich des Wissens über momentan nicht sichtbare Risiken der letztlich gewählten Alternativen beste­hen, kann von denjenigen, die versuchen, "auf der sicheren Seite" zu sein, leicht übersehen werden.

Beim computerunterstützten Entscheiden ist prinzipiell zu hoffen, daß Vereinfachungsstrate­gien eine geringere Rolle spielen, da der Einsatz eines Computers vermuten läßt, daß eine sorgfältig vorbereitete Entscheidung erwünscht ist. Zudem bietet der Computer gerade die Möglichkeit, Probleme zu lösen, die die Verarbeitungsfähigkeiten des menschlichen Gehirns übersteigen. Andererseits können Computer weder fehlende Informationen ersetzen noch die übertriebene Risikoscheu eines Entscheiders ausgleichen. Die folgenden Fehler durch Verein­fachungsstrategien können deswegen auch beim computerunterstützten Entscheiden auftre­ten:

- Nichteinbeziehung der optimalen Alternative in das Entscheidungs- / Rechenmodell wegen unzureichender Alternativengenerierung

- Nichteinbeziehung relevanter Nebenbedingungen in das Entscheidungs- / Rechenmodell wegen unzureichender Informationsbeschaffung

- Ausschluß einer optimalen Alternative durch ein falsch gewähltes K.-o.-Kriterium

- unzulässige Modellvereinfachungen durch Anwendung von Faustregeln oder durch unzu­lässige Problemzerlegung.

Die Wahrscheinlichkeit für derartige Fehler könnte durch verschiedene Maßnahmen verrin­gert werden. Dazu gehören unter anderem:

- rechtzeitiger Beginn der Entscheidungsvorbereitung zur Vermeidung von Zeitdruck (anstatt die Aufnahme von Problemlöseaktivitäten vor sich herzuschieben [vgl. Geißler 1986, S. 238])

- Abschotten derjenigen Personen, die an einem Entscheidungsmodell arbeiten, gegenüber Lärm und sonstigen Störungen

- Überversorgung des Entscheiders mit Informationen vermeiden [vgl. Geißler 1986, S. 198]

- Präventivmaßnahmen für Krisenfälle, da in Krisenfällen die hier aufgeführten Probleme in besonders starkem Maß auftreten

- Schulungen bezüglich der Voraussetzungen von Entscheidungs- und Optimierungs­methoden, um das Risiko unzulässiger Modellvereinfachungen zu verringern

- Aufklärung über die hier aufgezeigten Probleme im Rahmen von Schulungen zur Denk- und Wahrnehmungspsychologie

- Entlastung des KZG durch Darstellung möglichst aller relevanter Informationen, z.B. an einer Tafel oder auf einem Bildschirm, wenn Informationsverarbeitungsprozesse von Menschen durchzuführen sind und nicht von einem Computer ausgeführt werden können.

Der ständige Blickkontakt mit allen relevanten Informationen wird z.B. bei der systemati­schen Suche nach Alternativen zur Lösung technischer Probleme eingesetzt [vgl. Spies 1995, S. 650]; außerdem wird die Darstellung komplexer Probleme als Graphik oder Gleichung zur Vereinfachung der Problemlösung empfohlen [vgl. Sell 1991, S. 35].

Die Entlastung des KZG durch Darstellung möglichst aller relevanter Informationen sollte insbesondere bei der Gestaltung der Benutzungsoberfläche von interaktiven DSS beachtet werden. Mit Hilfe von Fenstertechnik sollte es möglich sein, dem Anwender eines DSS jederzeit die für seine Überlegungen erforderlichen Informationen anzuzeigen.

Neben den Vereinfachungsstrategien, die direkt mit Entscheidungsproblemen zu tun haben, gibt es auch solche, die indirekt die Qualität einer Entscheidung (negativ) beeinflussen kön­nen. Dazu gehören insbesondere solche, die beim Abschätzen von Wahrscheinlichkeiten, Zusammenhängen usw. eine Rolle spielen. Beispiele hierfür sind:

- Beim Abschätzen der Stärke von Zusammenhängen zwischen zwei Variablen, die jeweils nur die Werte vorhanden / nicht vorhanden annehmen können, wird statt der Häufig­kei­ten aller vier möglichen Wertekombinationen von den meisten Versuchspersonen nur die der Kombination vorhanden / vorhanden berücksichtigt [vgl. Schönwandt 1986, S. 42f.].

- Bei Untersuchungen bezüglich der Fähigkeit des Menschen zur Unterscheidung zufälliger von nicht-zufälligen Ereignisfolgen stellte sich heraus, daß die Beurteilung auf eine viel zu geringe Anzahl Ereignisse gestützt wird [vgl. Schönwandt 1986, S. 46].

Auch derartige indirekte Einflüsse von Vereinfachungsstrategien auf Entscheidungsmodelle müssen einkalkuliert und nach Möglichkeit eliminiert werden. Hier empfiehlt sich, wo immer es geht, bei der Analyse von Daten nicht einfach zu schätzen, sondern statistische Methoden einzusetzen. Ist die Schätzung von Werten unumgänglich, sollte der Schätzende -  wenn möglich   die Grundlagen für seine Schätzung offenlegen, damit Fehler wie die hier aufge­führten festgestellt werden können.


4.2.2.3.2 Inkonsistenz

Menschen sind in ihrem Denken und Verhalten oft nicht konsistent. Beim Bilden von Mei­nungen, beim Schätzen von Werten oder z.B. beim Versuch, die beste Alternative für ein Entscheidungsproblem zu finden, kann es zu logischen Fehlern kommen, also zu Ergebnissen, die aus den zugrundeliegenden Annahmen nicht abgeleitet werden können oder diesen sogar widersprechen. Logische Fehler können zu falschen Ausgangsdaten für ein Entscheidungs­modell führen, und auch zum Ermitteln einer schlechten anstelle einer optimalen (oder zumindest einer "guten") Alternative bei gegebenen Daten. Ursachen hierfür können sein:

- Menschen greifen beim Lösen logischer Probleme -  so wie bei anderen auch -  auf Heuri­stiken zurück. Diese führen nicht immer zum richtigen Ergebnis. In Experimenten, bei denen die Versuchspersonen Aufgabenstellungen unter Anwendung logischer Regeln zu lösen hatten, kam es oft zu Fehlerquoten über 20%, insbesondere die Anwendung des Modus Tollens bereitet je nach Kontext erheblich Schwierigkeiten (Fehlerquoten je nach Aufgabenstellung zwischen 12,5% und 96%) [vgl. Anderson 1989, S. 246ff.].

- Menschen vergessen bedingt durch die geringe Kapazität des Kurzzeitgedächtnisses eine selbst gemachte Annahme und widersprechen sich dann selbst [vgl. Meyer/Booker 1991, S. 42].

- Menschen ändern beim Nachdenken unbeabsichtigt Annahmen und Definitionen, die eigentlich konstant gehalten werden sollten [vgl. Meyer/Booker 1991, S. 136f.].

- Menschen pendeln zwischen verschiedenen Ansichten, wenn sie neue Informationen zu verarbeiten haben [vgl. Meyer/Booker 1991, S. 137 und Schönwandt 1986, S. 40f.].

Inkonsistentes Denken und Verhalten wird durch verschiedene Faktoren begünstigt. Dazu gehört Müdigkeit der betreffenden Person(en) [vgl. Meyer/Booker 1991, S. 44] ebenso wie Eigenschaften der Aufgabenstellung, wie z.B. Unsicherheit, nicht-lineare Beziehungen oder eine hohe Zahl zu berücksichtigender Komponenten [vgl. Schönwandt 1986, S. 40]. Mögli­cherweise spielen auch bei der Problematik "Inkonsistenz" motivationale Faktoren mit eine Rolle. So könnte es z.B. sein, daß Zielkonflikte verleugnet werden, weil der Wunsch, die widersprechenden Ziele gleichzeitig zu erreichen, zu stark ist.

Im Bereich "knowledge engineering" gilt Inkonsistenz als eines der Hauptprobleme [vgl. Meyer/Booker 1991, S. 136]. Von daher ist anzunehmen, daß Widersprüche im Denken und Verhalten der Beteiligten auch bei Entscheidungsproblemen häufig eine Rolle spielen. Logi­sche Inkonsistenzen können beim Modellieren und Lösen von Entscheidungsproblemen in jedem beliebigen Bereich zu Fehlern führen. Inwieweit sich diese nur negativ auf den Ent­scheidungsprozeß (erhöhter Aufwand, Verzögerungen) auswirken und inwieweit auf die gewählte Alternative, ist schwer abzuschätzen.

Als Maßnahmen zur Vermeidung logischer Fehler bieten sich an:

- Bei allen Informationen, die in eine Entscheidung eingehen sollen, und die Schlußfolge­rungen enthalten bzw. darauf basieren, sind die Schlußfolgerungen genau zu überprüfen; hierzu ist eine detaillierte Dokumentation aller Entscheidungsgrundlagen erforderlich.

- Schlußfolgerungen sollten -  wenn möglich -  computerunterstützt vorgenommen werden. Hierzu bieten sich z.B. KI-Systeme und DSS an.

- Schulung und Ausbildung in Logik sollte unter gezielter Berücksichtigung der in psycho­logischen Experimenten festgestellten Denkschwächen erfolgen. Hierbei ist insbesondere zu beachten, daß die Tatsache, daß eine Person in ihrem Fachgebiet korrekt schlußfol­gern kann, nicht automatisch bedeutet, daß diese Person auch in anderen Gebieten keine logischen Fehler macht, denn die Heuristiken zum Lösen logischer Probleme sind bereichsspezifisch [vgl. Anderson 1989, S. 246].

- Bei allen Arbeiten im Gebiet "Entscheidungen" ist darauf zu achten, daß die Beteiligten ausgeruht sind und daß ausreichend Pausen gemacht werden.

- Visualisierungstechniken sollten eingesetzt werden, um das KZG zu entlasten.

- Personen, die neue Informationen zu verarbeiten haben, sollte hierzu Zeit gelassen wer­den.

Die meisten der hier aufgeführten Maßnahmen sind zeit- und kostenintensiv. Deshalb ist damit zu rechnen, daß ihre Realisierung in Unternehmen (oder sonstigen Organisationen) auf Widerstände stoßen wird. Diese könnten unter Umständen dadurch verringert werden, daß DSS entwickelt werden, die wirklich den gesamten Prozeß des Entscheidungsfällens unter­stützen, und somit Funktionalitäten wie Dokumentation der Entscheidungsgrundlagen, logi­sche Prüfungen, Visualisierungsmöglichkeiten usw. in sich vereinigen. Die Schulung für ein derartiges DSS könnte mit solchen in Logik, Wahrscheinlichkeitstheorie, Entscheidungs­theorie, Denk- und Wahrnehmungspsychologie usw. integriert werden, um durch weitere Synergien Zeit- und Kostenaufwand im Bereich "Entscheidungsunterstützung" so gering wie möglich zu halten.


4.2.2.3.3 Fixierung

Denkinhalte und Eigenschaften eines gegebenen Problems sind manchmal so fest miteinander verknüpft, daß die zum Lösen des Problems notwendigen Übertragungen der Denkinhalte in andere Darstellungsformen, auf andere Abstraktionsniveaus usw. nicht möglich sind. Dieses Phänomen bezeichnet man als "Fixierung" [vgl. Brander u.a. 1989, S. 133f. und Anderson 1989, S. 209]. Seine Auswirkungen sind z.T. identisch mit den Auswirkungen der Selektivi­tät der Wahrnehmung, da beide Phänomene zur Nichtberücksichtigung bestimmter Aspekte von Entscheidungsproblemen führen können. So läßt sich z.B. die Nichtbeachtung von Neben- und Fernwirkungen einer bestimmten Aktion gegebenenfalls auch dadurch erklären, daß im Denken des Entscheiders die betreffende Aktion ausschließlich und besonders stark mit der Erreichung seines Hauptzieles verbunden ist. Folgen von Fixierung können sein:

- Lücken im Entscheidungsmodell, insbesondere bei Alternativen, aber unter Umständen auch bei Umweltzuständen, Ergebnisdefinitionen und Zielkriterien

- Fehler beim Schätzen von Werten, z.B. durch ausschließliche Berücksichtigung des Haupteinflußfaktors -  und dementsprechende Vernachlässigung von Nebeneinfluß­fak­toren   auf den betreffenden Wert.

Die Betrachtung einer zu geringen Zahl von Alternativen wird als eine der Hauptursachen für Fehlentscheidungen angesehen [vgl. Geißler 1986, S. 161]. Allerdings ist schwer zu beurtei­len, inwieweit Fixierung und inwieweit die Bevorzugung bestätigender Informationen oder noch andere Ursachen dazu führen, daß eine zu geringe Zahl von Alternativen generiert bzw. in die endgültige Auswahl aufgenommen wird. Ähnlich schwer ist abzuschätzen, in welchem Maß Fixierung zu anderen Fehlern in Entscheidungsmodellen führt. Allerdings können durch Fixierung verursachte Probleme zumindest zu Verzögerungen in Denk- und damit in Ent­scheidungsprozessen führen. Aus diesem Grunde sollten Verfahren, um Fixierungen zu lösen, Entscheidungsträgern bekannt sein. Zu diesen Verfahren gehören insbesondere die Kreativi­tätstechniken, aber auch "Denktechniken" wie das Unterbrechen eines Denkablaufs durch Selbstreflexions- und Bewertungsphasen [vgl. Sell S. 36]. Wichtig für das Fällen von Ent­scheidungen ist, daß Kreativitätstechniken nicht nur für das Generieren von Alternativen sinnvoll eingesetzt werden können, sondern daß sie auch das Definieren von Ergebnissen und Zielen, die Vorstellung möglicher Umweltzustände, das Abschätzen von Werten aller Art, insbesondere auch von Wahrscheinlichkeiten, und dergleichen mehr unterstützen können.


4.2.2.3.4 Schwierigkeiten durch einen vorgegebenen Antwortmodus

Menschen denken in aller Regel nicht in mathematisch-numerischen Kategorien, d.h., sie verrechnen z.B. nicht zahlenmäßig gegebene Wahrscheinlichkeiten, sondern sie arbeiten oft nur mit verbal ausgedrückten Skalierungen, wie z.B. niedrige/mittlere/hohe Wahrscheinlich­keit. Für das computerunterstützte Entscheiden werden dagegen häufig Zahlenwerte benö­tigt, was bedeutet, daß derjenige, der Werte schätzen soll, seine Denkinhalte in eine andere Form umkodieren muß.

Gesetzt den Fall, der Betreffende sieht sich überhaupt in der Lage, seine Vorstellungen zah­lenmäßig zu äußern, so gibt es immer noch unterschiedliche Möglichkeiten ihrer Darstellung. So kann eine Wahrscheinlichkeit z.B. ebenso als 0,01 wie auch als 1 : 100 geschrieben wer­den, oder sie kann als Punkt auf einer Strecke markiert werden, deren Endpunkte mit 0 und 1 beschriftet sind. Diese Darstellungen sind zwar mathematisch äquivalent; wenn ein Mensch aber Schätzungen äußern soll, so kann es sein, daß ihm der Umgang mit einer dieser Darstel­lungsformen leichter fällt als mit den anderen. Dementsprechend wird er eine bessere Schät­zung abgeben, wenn sie von ihm in der für ihn günstigsten Darstellungsform verlangt wird. Diese günstigste Darstellungsform wird meist die ihm bei der betreffenden Problemstellung vertrauteste sein. Wird eine ungünstige Darstellungsform gewählt, so kann es sein, daß der Betreffende seine Schätzung zunächst im Kopf in einer anderen Form vor­nimmt und dann in einem zweiten -  fehleranfälligen -  Schritt seine Schätzung in die verlangte Darstellung umkodiert. Im Extremfall kann es vorkommen, daß   bedingt durch die Darstel­lungsform -  der Betreffende sich überhaupt nicht in der Lage sieht, eine Schätzung abzu­geben.

Die Form, in der ein Befragter seine Antwort geben soll ("Antwortmodus", engl. "response mode"), kann also erheblichen Einfluß auf den Inhalt der Antwort haben. "Form" bzw. "Antwortmodus" ist in diesem Zusammenhang sehr allgemein zu verste­hen. Soll z.B. eine Verteilungsfunktion geschätzt werden, so wäre ein möglicher Antwort­modus, den Schätzen­den nach Werten für Mittelwert und diverse Quantile zu befragen, ein anderer könnte darin bestehen, den Betreffenden zu bitten, den ungefähren Verlauf der Ver­teilungsfunktion zu skizzieren. Einen Überblick über die Thematik "Antwortmodus" bietet [Meyer/Booker 1991, S. 107ff., vgl. außerdem S. 135 und S. 310].

Überall dort, wo in eine Entscheidung Schätzwerte eingehen, kann ein schlecht gewählter Antwortmodus Fehler verursachen. Betrachtet man das allgemeine Ausmaß, das Schätzfehler häufig erreichen -  eine Zehnerpotenz neben der Realität ist leider keine Seltenheit - , so kann auch das Thema "Antwortmodus" beim computerunterstützten Entscheiden nicht vernach­lässigt werden, da es eine mögliche Ursache für derartige Schätzfehler ist. Diese Tatsache sollte man zum einen bei der Beschaffung von Daten für Entscheidungsmodelle berück­sichti­gen; zum anderen ist sie bei der Gestaltung der Benutzerschnittstellen von DSS zu beachten, weil die Form, in der eine Eingabe durch den Anwender verlangt wird, einem Ant­wortmodus bei einer Befragung entspricht.

Der Antwortmodus stellt außerdem ein Problem im Bereich der psycho­logischen Forschung dar. So ist beispielsweise schwer zu sagen, inwieweit Schwierigkei­ten des Menschen beim Schätzen von Wahrscheinlichkeiten im Schätzvorgang selbst liegen und inwieweit darin, die Einschätzung in der gewünschten Form auszudrücken. Zimmer führte z.B. ein Experiment durch, bei dem Versuchspersonen ihre Wahrscheinlichkeitsschät­zungen verbal äußern konn­ten, und diese Äußerungen wiederum mit Hilfe eines Fuzzy-ba­sierten Ansatzes in (unscharfe) Zahlen umgesetzt wurden [vgl. Zimmer 1983]. Die Ergeb­nisse der Versuchspersonen waren in diesem Experiment wesentlich besser als in einem ähn­lichen, bei dem die Versuchsperso­nen ihre Schätzungen direkt als Zahlen angeben mußten [vgl. Zimmer 1983, S. 177f.]. Inwieweit Fuzzy-basierte Ansätze Probleme im Bereich "Antwortmodus" lösen können, muß aber noch näher erforscht werden; außerdem kann bis heute nicht genau gesagt werden, in welchem Maß Schätzfehler -  und um die geht es letzt­endlich -  durch einen gut gewählten Antwortmodus reduziert werden können.


4.2.2.3.5 Verankerung

Mit Verankerung (engl. "anchoring") wird das unzureichende Anpassen von ersten Eindrüc­ken, Vorstellungen oder Schätzwerten bezeichnet [vgl. Meyer/Booker 1991, S. 137]. Bei­spiele für dieses Phänomen sind [vgl. Schönwandt 1986, S. 52ff. und S. 58ff., Tversky/Kahnemann 1974, S. 14ff., Kahnemann/Tversky 1982a, S. 503f., Edwards 1982, Anderson 1989, S. 272ff. und Meyer/Booker 1991, S. 34 und S. 137f.]:

- Beurteilungen und (Wahrscheinlichkeits-) Schätzungen werden angesichts neuer Infor­mationen häufig nicht oder nicht ausreichend geändert. (Dieser Effekt wird im Englischen auch als "conservatism" bezeichnet.)

- Schätzwerte, die von einem "ähnlichen Wert" als Ausgangsbasis aus kalkuliert werden, liegen meist zu nah bei eben dieser Ausgangsbasis. Werte können dabei auch dann zur Ausgangsbasis werden, wenn sie in keinerlei logischem Zusammenhang mit dem Schätz­wert stehen, sondern rein zufällig bei der Schätzung erwähnt wurden.

- Bei Prognosen werden in zu starkem Maß alte Muster extrapoliert; das Aufkommen neuer Bedingungen wird zu wenig berücksichtigt.

Verankerung kann motivational mit verursacht sein, wie z.B. durch die bevorzugte Wahr­nehmung bestätigender Informationen oder durch die Angst vor "Gesichtsverlust" [vgl. Meyer/Booker 1991, S. 138]. Hauptsächlich resultiert dieses Phänomen aber wohl aus der Anwendung feh­lerträchtiger Heuristiken, beispielsweise beim Abschätzen von a-posteriori-Wahrscheinlich­keiten. Möglicherweise wird Verankerung in bestimmten Fällen auch durch eine unnötig hohe mentale Belastung, wie z.B. einen schlecht gewählten Antwortmodus, gefördert [vgl. Zimmer 1983, S. 177f.].

Im Bereich "knowledge engineering" gilt Verankerung nach Inkonsistenz als eines der häu­figsten Probleme [vgl. Meyer/Booker 1991, S. 137]; dementsprechend sollte die Häufigkeit dieses Problems beim Modellieren von Entscheidungen ebenfalls als "hoch" angesehen wer­den. Die gleiche Einschätzung gilt aufgrund von psychologischen Experimenten für das mög­li­che Ausmaß eines durch Verankerung verursachten Fehlers. Beispielsweise schätzten Ver­suchspersonen das Produkt über alle Zahlen von eins bis acht -  je nachdem, ob ihnen die Zahlen in auf- oder absteigender Reihenfolge dargeboten wurden -  im Mittel auf die Werte 512 bzw. 2250, obwohl der wahre Wert 40320 beträgt [vgl. Tversky/Kahnemann 1974, S. 15]. Das Versuchsergebnis wird darauf zurückgeführt, daß die Versuchspersonen schnell einen Teil der Multiplikationen ausführten und dann -  ungenügend -  extrapolierten oder anpaßten. Bei anderen Experimenten fielen die Fehler zwar weitaus geringer aus, lagen aber immer noch in einem Bereich, der etwa mit den Fehlern beim Schätzen von Aufwänden ver­gleichbar ist.

Um Verankerung entgegenzuwirken, werden folgende Methoden empfohlen [vgl. Meyer/Booker 1991, S. 138 und S. 180]:

- Einsatz von Kreativitätstechniken, um ein Verankern an der erstbesten verfügbaren Information zu verhindern

- Disaggregation, also -  meist hierarchische -  Zerlegung des Problems in Teilprobleme, für die dann einzeln die entsprechenden Werte geschätzt werden (Beispiele: Zerlegung einer Aufgabe in Teilaufgabe zwecks Aufwandsschätzung; Zerlegung eines Ereignisses ent­sprechend möglicher Ursachen zwecks Schätzung der Eintrittswahrscheinlichkeit)

- sich vorstellen, welche Ansichten andere bei der betreffenden Fragestellung vertreten würden

- Informationen über Ereignisse, die die Fragestellung betreffen, aber nur kurze Zeit zurückliegen, vorübergehend gedanklich beiseite lassen

- Einsatz von Gruppentechniken, da Gruppendruck gerade das Abweichen von einer ursprünglichen Meinung bewirken kann

- bei Schätzungen zunächst nach maximal bzw. minimal zu erwartenden Werten fragen und dann erst nach dem wahrscheinlichsten Wert (um ein Verankern der Extremwerte am wahrscheinlichsten Wert und die daraus resultierende -  zusätzliche -  Unterschätzung der Unsicherheit des Schätzwertes zu verhindern).

Im Zusammenhang mit computerunterstütztem Entscheiden empfiehlt sich außerdem, zu nicht-trivialen Berechnungen grundsätzlich den Computer einzusetzen und nur die für die Berechnung erforderlichen Ausgangswerte zu schätzen bzw. schätzen zu lassen. Um gegebe­nenfalls feststellen zu können, ob ein Schätzwert durch Verankerung verzerrt ist, sollten zudem die Grundlagen und die Rahmenbedingungen der Schätzung so weit wie möglich dokumentiert werden [vgl. Meyer/Booker 1991, S. 12]. Wird jemand um einen Schätzwert gebeten, so muß dies selbstverständlich in einer Form geschehen, die Verankerung möglichst unwahrscheinlich macht. Die Formulierung einer entsprechenden Frage oder Bitte sollte nach Möglichkeit keinerlei Zahl enthalten, die -  wenn auch nur zufällig -  zu einem "Anker" werden könnte.


4.3 Probleme aus der Sicht des Modellierens von Entscheidungen

Während bisher die denk- und wahrnehmungspsychologischen Probleme vorwiegend aus der Perspektive ihrer Ursachen betrachtet wurden, soll in diesem Abschnitt der Blickwinkel des Modellierens von Entscheidungen verwendet werden. Ziel ist es dabei zum einen, zusätzliche Probleme aufzuzeigen, die sich bei einer Ursachen-orientierten Sichtweise nicht oder nur schlecht einordnen lassen. Zum anderen soll der zusätzliche Blickwinkel aufzeigen, bei wel­chen Tätigkeiten im Bereich der Modellierung -  bzw. der hierzu notwendigen Beschaffung von Daten -  welche Probleme einzukalkulieren sind; dieser Blickwinkel ist insofern stärker der des Praktikers.

Folgende Problembereiche sollen in diesem Abschnitt diskutiert werden:

- Aspekte des Schätzens und Interpretierens von Zahlen allgemein, d.h. unabhängig davon, welche Art von Größen sie repräsentieren

- Schätzen und Interpretieren von Wahrscheinlichkeiten

- Abschätzen nicht-linearer Beziehungen

- Festlegung von Zielen, Anspruchsniveaus und Gewichtungen.

Das Thema "Alternativengenerierung" wird hier nicht behandelt, da es sich aus denkpsycho­logischer Sicht weitgehend auf die Frage der "Kreativität" zurückführen läßt, und zum Thema "Kreativität" in ausreichendem Maße Literatur existiert [z.B. Sikora 1976].


4.3.1 Umgang mit Zahlen allgemein

Das Fällen von Entscheidungen erfordert -  unabhängig davon, ob es computerunterstützt stattfindet oder nicht -  fast immer den Umgang mit Zahlen, zumindest in der Form des Interpretierens, oft auch in der Form des Schätzens von Zahlenwerten. Die Zahlen können dabei monetäre oder physikalische Größen, Wahrscheinlichkeiten, Gewichtungen und der­gleichen mehr repräsentieren. Unabhängig davon sind aus denk- und wahrnehmungspsycho­logi­scher Sicht einige allgemeine Faktoren zu beachten.

Bereits durch die Schreibweise der Zahlen können (unerwünscht oder bewußt manipulierend) Emotionen transportiert werden:

- Zahlen wirken glaubwürdiger, wenn mehr Ziffern angegeben werden, als aufgrund der Genauigkeit der Zahl gerechtfertigt ist; "runde Zahlen" wirken dagegen unglaubwürdig [vgl. Krämer 1991, S. 13f.].

- Zahlen erscheinen um so größer, je kleiner die zu ihrer Darstellung gewählte Basis ist. So erscheint z.B. ein Haushaltsdefizit von 0,018 Billionen DM weitaus kleiner als eins von 18.000 Millionen DM. "Jeder Mensch und jede Zahl werden groß, so sagt man, wenn sie viele Nullen hinter sich haben" [Krämer 1991, S. 23].

Da insbesondere bei Multi-Criteria-Problemen oft völlig unterschiedliche Größen miteinander verglichen werden müssen, kann hier die Wahl der Basis -  bei der Darstellung nicht-normier­ter Zielerreichungsgrade verschiedener Zielkriterien -  den Entscheider in unerwünschter Weise beeinflussen. Vermeiden ließe sich dieses Problem durch Normierung der Werte für das Ausmaß der Zielerreichung oder durch die technisch-wissenschaftliche Zahlenschreib­weise mit einer Mantisse im Intervall [0,1] und einem Exponenten zur Basis 10. Beide Vor­gehensweisen könnten jedoch auch dazu führen, daß der Entscheider Unterschiede zwischen Alternativen nunmehr zu schwach -  oder in anderer Weise verzerrt -  wahrnimmt und dement­sprechend auch nicht seinen Bedürfnissen entsprechend behandelt. Normierung hat aus denk­psychologischer Sicht zudem den potentiellen Nachteil, daß der Anwender eines MCDSS Alternativen nicht mehr anhand von Größen, die seinem Denken und seiner Wahrnehmung vertraut sind, vergleicht und dementsprechend nicht mehr intuitiv -  und damit auch nicht mehr seinen Bedürfnissen gerecht -  vorgeht. Für interaktive MCDSS empfiehlt sich aus den genannten Gründen, die Stabilität der Eingaben eines Entscheiders bei unterschiedlichen Arten der Zahlendarstellung zu testen.

Für die Interpretation von Zahlen ist neben ihrer Schreibweise häufig eine Vergleichsbasis von großer Bedeutung. Ein Beispiel hierfür ist die Betrachtung von Zeitreihen, deren Ent­wicklung oft abhängig vom zugrundegelegten Anfangszeitpunkt sehr unterschiedlich inter­pretiert werden kann. Eine falsche oder fehlende Vergleichsbasis kann grundsätzlich zur Fehlinterpretation von Zahlen führen [vgl. Krämer 1991, S. 23ff. und S. 44]. Für das compu­terunterstützte Entscheiden sind insbesondere jene Untersuchungen relevant, die die Bedeu­tung von Vergleichsbasen zur Interpretation von Zahlen im Zusammenhang mit Multi-Crite­ria-Entscheidungen und Entscheidungen unter Risiko aufgezeigt haben. Die Untersuchungen ergaben, daß Zielerreichungsgrade von Entscheidern in der Regel relativ zu sogenannten "Referenzpunkten" gesehen werden, die vom Status quo des Entscheiders oder anderen Faktoren -  wie z.B. "Phantom-Alternativen" -  abhängen können [vgl. Weber/Borcherding 1993, S. 8f., Brander u.a., S. 162 und Eisenführ/Weber 1993, S. 343ff.]. Die aus diesen Untersuchungen resultierenden Fragen werden im letzten Abschnitt dieses Kapitels diskutiert.

Die Problematik der Vergleichsbasen für Zahlen kann aus denk- und wahrnehmungspsycho­logischer Sicht als Spezialfall der Beeinflussung der Wahrnehmung durch vorhandenes Wis­sen aufgefaßt werden. Beim Modellieren von Entscheidungen sollte dieser Problematik in der Weise Rechnung getragen werden, daß für alle Zahlen, die ohne angemessene Vergleichs­basis nicht oder falsch interpretiert werden können, -  unter Umständen jeweils mehrere -  Werte beschafft werden sollten, die als sinnvolle Vergleichsbasis dienen können. Bei den betreffenden Zahlen muß es sich nicht ausschließlich um Ergebnisse oder Zielerreichungs­grade handeln; möglich ist auch, daß Wahrscheinlichkeiten von Umweltzuständen oder Werte von Parametern, die Aktionen oder funktio­nale Zusammenhänge charakterisieren, zu ihrem Verständnis einer Vergleichsbasis bedürfen. DSS sollten so gestaltet sein, daß die Ablage und das Anzeigen von Vergleichswerten unterstützt wird.

An dieser Stelle sei angemerkt, daß nicht nur denk- und wahrnehmungspsychologische Effekte zu Fehlern bei der Interpretation von Zahlen führen können, sondern daß selbst in hochindustrialisierten Ländern "mathematisches Analphabetentum" hierfür die Ursache sein kann: "Das englische ´Office of Fair Trading´ etwa hat dieser Tage Bankkunden zu deren Zinsbelastung ausgefragt und dabei festgestellt, daß einer von zwei Kreditnehmern überhaupt nicht weiß, was ein Prozentsatz ist. [...] Selbst für 11 Prozent der Leser der Financial Times bleibt die genaue Bedeutung von ´40 Prozent´ ein Mysterium" [Krämer 1991 S. 42f.]. Ange­sichts solcher Zahlen stellt sich die Frage, welche mathematischen Fähigkeiten bei Anwen­dern von DSS -  sowohl in der Praxis, als auch bei Laborexperimenten zum Thema "Entscheidungsunterstützung" -  vorausgesetzt werden können bzw. sollten, und ob nicht eventuell auch Ergebnisse denkpsychologischer Untersuchungen teilweise dadurch verfälscht sein könnten, daß den Versuchspersonen eigentlich selbstverständliche Mathematikkenntnisse fehlten.

Neben dem Interpretieren von Zahlen ist im Zusammenhang mit computerunterstütztem Ent­scheiden häufig auch das Schätzen von Zahlenwerten erforderlich, die -  aus welchen Gründen auch immer -  nicht exakt ermittelt werden können. Die Ergebnisse von Schätzungen können durch eine Reihe von Einflüssen, die z.T. bereits erwähnt wurden, verfälscht werden. Hierzu gehören insbesondere [vgl. Meyer/Booker 1991, S. 11, S. 41f. und S. 171, Schönwandt 1986, S. 85f. und S. 58ff. sowie Slovic u.a. 1982, S. 478ff.]:

- Einflüsse durch die Fragestellung

- Einflüsse durch den Antwortmodus

- Einflüsse durch die vom Schätzenden verwendeten Daten und Heuristiken

- Verankerung

- Unterschätzung von Unsicherheit

- sonstige Einflüsse, wie z.B. Müdigkeit des Schätzenden.

Wird von einer Person die Schätzung eines Wertes erbeten, so geschieht dies in aller Regel in Form einer Frage oder Aufforderung. Deren Formulierung -  gegebenenfalls ergänzt durch Informationen, die in ihrem Kontext übermittelt werden ("Hintergrund der Frage") -  kann bereits erheblichen Einfluß auf die geäußerten Schätzwerte haben. Extrembeispiele für den Einfluß von Frageformulierungen auf die zugehörigen Antworten liefern bewußt manipulie­rende Fragestellungen bei "Umfragen", wie sie z.B. zum Thema "Samstagsarbeit" von Arbeitgebern und Gewerkschaften durchgeführt wurden [vgl. Krämer 1991, S. 103ff.], sowie Skurrilitäten, wie etwa eine Volkszählung in der Türkei, bei der nach "Alter" und nicht nach "Geburtsdatum" gefragt wurde, was zu einer "Sägezahnstruktur" der Bevölkerungspyramide führte, weil viele ihr Alter nur auf fünf Jahre gerundet angaben [vgl. Krämer 1992, S. 18]. Aber auch in einer Reihe psychologischer Experimente wurde der Einfluß -  z.T. nur gering­fügiger Änderungen -  von Frageformulierungen nachgewiesen [vgl. Schönwandt 1986, S. 85f. und Tversky/Kahnemann 1982b, S. 171ff.]. So schwankten beispielsweise in einer Untersuchung von Fischhoff und MacGregor die durchschnittlichen Schätzungen der Ver­suchspersonen für die Häufigkeit von Todesursachen -  bei inhaltlich gleicher Fragestellung, die aber auf vier verschiedene Arten formuliert war -  bei jeder der dreizehn vorgegebenen Todesursachen um zweistellige Faktoren, in zwei Fällen sogar um einen Faktor > 200 [vgl. Slovic u.a. 1982, S. 481f.].

Aus denkpsychologischer Sicht können Frageformulierungen sowohl motivational als auch kognitiv bedingte Schätzfehler verursachen. Beispiele hierfür sind das Verstärken von Wunschdenken durch eine bestimmte Wortwahl (z.B. Frage nach dem erwarteten "Erfolg" statt nach dem erwarteten "Ergebnis") und das Verankern der Schätzung an einer in der Frage genannten Zahl. Auch die Fehlinterpretation einer Frage kann unter Umständen denk- bzw. wahrnehmungspsychologisch erklärt werden, weil Wahrnehmungsverzerrungen durch das Wissen des Befragten hierfür als Ursache in Frage kommen. Für das computerunter­stützte Entscheiden ergeben sich zwei Problemkreise:

- Wie können Schätzfehler durch ungünstige Frageformulierungen bei der Informations­beschaffung vermieden werden?

- Wie kann vermieden werden, daß DSS bei Eingabeaufforderungen Effekte auslösen, die denen einer schlechten Frageformulierung entsprechen?

Allgemein ist zu sagen, daß Fragen und Eingabeaufforderungen möglichst "neutral" gehalten werden sollten, d.h. sie sollten weder Emotionen transportieren noch irgendwelche nicht unbedingt notwendigen Informationen enthalten, da letztere insbesondere zu Verankerung führen können. Zudem müssen Fragen (bzw. Eingabeaufforderungen) aus der Sicht des Befragten möglichst klar und unmißverständlich sein, wobei die Besonderheiten des Hinter­grundwissens des Befragten -  soweit dies möglich ist -  zu berücksichtigen sind. Anzumerken ist, daß die Frageformulierung auch dann einen Einfluß haben kann, wenn der Schätzende und der­jenige, der den Schätzwert benötigt, dieselbe Person sind. Je nachdem, wie derjenige selbst gedanklich an die Schätzung herangeht, setzt er möglicherweise sich selbst denk- und wahr­nehmungspsychologischen Verzerrungseffekten aus. Aus diesem Grund sollte sicher­gestellt werden, daß alle Personen, die Schätzungen durchzuführen haben, über denk- und wahrnehmungspsycho­logische Einflüsse auf Schätzungen -  und Möglichkeiten zu ihrer Vermeidung -  informiert sind.

Eine spezielle, im Bereich "computerunterstütztes Entscheiden" häufig eingesetzte Art der Frageformulierung ist die Formulierung als Paarvergleichsfrage. Hierbei werden zwei zu vergleichende Objekte (z.B. die Ergebnisvektoren zweier Alternativen, zwei Zielkriterien oder zwei mögliche Umweltzustände) vorgegeben und die Frage gestellt, welches der beiden Objekte in Bezug auf ein bestimmtes Kriterium (Nutzen, Wichtigkeit, Wahrscheinlichkeit usw.) den Vorrang hat. Soll nicht nur eine Rangfolge, sondern eine kardinale Skala ermittelt werden, kann man Paarvergleichsfragen auch so stellen, daß sie das Ausmaß der jeweiligen Relation in Betracht ziehen, z.B. "Welches von beiden Ereignissen ist wahrscheinlicher und um welchen Faktor / um wieviel Prozent?" [vgl. Meyer/Booker 1991, S. 112]. Paar­ver­gleichsfragen sind aus denkpsychologischer Sicht meist gut geeignet: "Most people are reliable estimators using pairwise comparisons, in part because they only have to consider two things at a time" [Meyer/Booker 1991, S. 112]. Es ist anzunehmen, daß Paarvergleichs­fragen -  weil immer zwei Objekte vorgegeben werden -  nicht nur einer Überlastung des KZG, sondern auch einer möglichen Verankerung an einem einzelnen Wert entgegenwirken. Ein­schränkend ist allerdings zu sagen, daß auch Paarvergleichsfragen zu unbrauchbaren Antwor­ten führen können, und zwar insbesondere, wenn Wahrscheinlichkeiten (bzw. relative Häu­figkeiten) von Ereignissen gegeneinander abgeschätzt werden sollen. Grund hierfür ist, daß auch Paarvergleichsfragen eine Reihe -  teils motivational teils kognitiv bedingter -  Denk­schwächen des Menschen nicht ausgleichen können. Zudem steht den Vorteilen von Paar­vergleichsfragen als Nachteil ein hoher Zeitaufwand gegenüber, wenn eine relativ hohe Zahl von Objekten paarweise verglichen werden soll, da der Aufwand zum Vergleich aller Paare quadratisch mit Anzahl der Objekte zunimmt.

Ein interessanter psychologischer Effekt im Zusammenhang mit Paarvergleichsfragen ist, daß sowohl beim Vergleich konkreter als auch beim Vergleich abstrakter Objekte die Antwort­zeiten mit zunehmender Differenz der zu vergleichenden Objekte abnimmt [vgl. Anderson 1989, S. 89ff.]. Je ähnlicher sich zwei zu vergleichende Objekte in Bezug auf das Ver­gleichskriterium sind, desto länger brauchen Versuchspersonen, um die betreffende Paar­ver­gleichsfrage zu beantworten. Ist das Vergleichskriterium kardinal skalierbar, so läßt sich der Zusammenhang zwischen der Differenz der Objekte in Bezug auf das Vergleichskriterium und der Antwortzeit näherungsweise als eine Exponentialfunktion beschreiben. Dieser Effekt könnte bei DSS ausgenutzt werden, um bei Paarvergleichsfragen präzisere kardinale -  oder sogar kardinale anstatt nur ordinale -  Informationen zu erhalten, als wenn der Anwender direkt um eine Schätzung für das Ausmaß der Differenz zwischen den vorgegebenen Objek­ten gebeten wird. - Voraussetzung ist allerdings, daß die Antwortzeiten des Entscheiders bei den Paarvergleichsfragen hinreichend störungsfrei gemessen werden können.

Eng verbunden mit der Problematik der Fragestellung ist die des Antwortmodus. Da Grund­legendes zum Thema "Antwortmodus" bereits diskutiert wurde, sei hier lediglich erwähnt, daß sich für das Schätzen von Zahlen die Vorgabe von kontinuierlichen linearen Skalen als ähnlich gut wie der Einsatz der Paarvergleichsmethode herausgestellt hat [vgl. Meyer/Booker 1991, S. 111ff.]. Während der Umgang mit einer vorgegebenen Skala für den Schätzenden in aller Regel unproblematisch ist, kann aber das Entwickeln einer Skala zeitaufwendig und schwierig sein, weil die Skala -  einschließlich ihrer Beschriftung -  den Schätzenden ebenso­wenig beeinflussen soll wie die Frageformulie­rung. Um Fehlinterpretationen einer vorgege­benen Skala vorzubeugen, sollten zudem rein verbal-qualitative Beschreibungen von Werten vermieden und durch numerische Charakteri­sierungen ergänzt werden [vgl. Meyer/Booker 1991, S. 113]. Insgesamt gesehen erscheinen lineare Skalen auch für die Verwendung an der Benutzerschnittstelle von DSS geeignet. Wenn DSS das Modellieren von Entscheidungs­problemen unterstützen sollen, ergibt sich aber die Schwierigkeit, daß die Definition der Skalen für zu schätzende Variablenwerte gege­benenfalls vom Schätzenden selbst vorgenom­men werden muß. Hierdurch könnten ohnehin vorhandene Tendenzen zu Schätzfehlern verstärkt werden.

Schätzergebnisse hängen von den zur Verfügung stehenden Ausgangsdaten und den verwen­deten Verfahren, also den Schätzheuristiken, ab [vgl. Meyer/Booker 1991, S. 8f., S. 11 und S. 108f.]. Ausgangsdaten können "harte Daten" sein, also beispielsweise durch Simulation oder mit Hilfe statistischer oder physikalischer Meßmethoden ermittelte Zahlen für eine ähn­lich gelagerte Problemstellung; sie können aber auch auf Erinnerungen des Schätzenden -  z.B. bezüglich der Häufigkeit bestimmter Ereig­nisse -  beruhen. Im zuletzt genannten Fall können kognitive Techniken zum Auffinden geeig­neter Erinnerungen im Gedächtnis Einfluß auf das Schätzergebnis haben. Welche Ausgangs­daten und welche Schätzheuristiken verwen­det werden, hängt vom Wissen des Schätzenden, von der Frageformulierung, vom Antwort­modus und eventuell von Rahmenbedingungen der Schätzung ab. Studien haben ergeben, daß, wenn mehrere Personen denselben Wert schätzen sollen, die Antworten häufig multi-modal (und nicht etwa normalverteilt) verteilt sind [vgl. Meyer/Booker 1991, S. 246f. und S. 260]. Offensichtlich kommen in der Verteilung der Schätzwerte die Annahmen und Vor­gehensweisen der Schätzenden zum Ausdruck, wobei nah beieinander liegende Schätzwerte ähnliche Annahmen und Vorgehensweisen repräsentie­ren. Aus diesem Grunde ist es frag­würdig, ohne nähere Analyse (Clusteranalyse, Diskri­minanzanalyse usw.) in einem Entschei­dungsmodell einen Wert zu verwenden, der aus meh­reren Schätzungen durch einfache Mit­telwertbildung entstanden ist.

Eine häufig verwendete Schätzheuristik besteht darin, einen bekannten Wert für ein ähnlich gelagertes wie das Schätzproblem als Ausgangswert zu verwenden, und diesen nach oben oder unten anzupassen [vgl. Meyer/Booker 1991, S. 8f.]. In diesem Fall muß mit Veranke­rung gerechnet werden, d.h. die Schätzwerte liegen in aller Regel zu nah bei dem gewählten Ausgangswert [vgl. Meyer/Booker 1991, S. 34 und Tversky/Kahnemann 1974, S. 14ff.]. Die häufig verwendete und meist sinnvolle Problemzerlegung (Disaggregation) führt in aller Regel zu genaueren Schätzungen (nicht nur bei Aufwandsschätzungen), ist aber auf­wendiger. Außerdem besteht das Risiko, bei der Problemzerlegung Teilprobleme zu überse­hen oder -  mangels weiterer Zerlegung -  zu unterschätzen; dementsprechende Sicher­heitsfaktoren soll­ten bei Schätzwerten, die mit Hilfe von Problemzerlegungen ermittelt wur­den, grundsätzlich einkalkuliert werden. Gibt es hinreichend ähnliche Problemstellungen als Basis für eine Schätzung, so ist der Verankerungseffekt unter Umständen vernachlässigbar und das Schät­zen auf dem Umweg über die Problemzerlegung weniger empfehlenswert [vgl. Kahne­mann/Tversky 1982b, S. 517]. Für die Praxis empfiehlt sich, bei Schätzungen -  sofern dies mit vertretbarem Aufwand möglich ist -  mehrere Heuristiken und/oder verschiedene Ausgangswerte zu verwenden, um auf diese Weise den gesuchten Wert nach oben und unten abschätzen zu können. Jede einzelne Schätzung sollte dabei bereits auf mögliche Verzerrun­gen -  nicht nur auf die soeben genannten, wie Verankerung und Auslassung von Teilproble­men, sondern auch auf andere motivational und kognitiv bedingte -  hin überprüft und gege­benenfalls korrigiert werden. Außerdem sollte auf angemessene Rahmenbedingungen beim Schätzen geachtet werden. Müdigkeit der Schätzenden kann bereits dazu führen, daß Schät­zungen mehr in Richtung auf einen der Extremwerte einer vorgegebenen Skala tendieren [vgl. Meyer/Booker 1991, S. 167 und S. 171].

Ein besonders hervorzuhebendes Problem bei der Schätzung von Zahlen besteht in einem Spezialfall der Unterschätzung von Unsicherheit. Häufig werden vom Schätzenden nämlich Angaben darüber verlangt, welchen Wert er maximal bzw. minimal für möglich hält. In einer Reihe von Untersuchungen hat sich herausgestellt, daß die wahren (dem Untersucher bekann­ten) Werte mit einer Häufigkeit von etwa 20%   40% nicht zwischen den angege­be­nen Extremwerten lagen [vgl. Fischhoff 1982b, S. 432, Lichtenstein u.a. 1982, S. 324ff. und Meyer/Booker 1991, S. 42, S. 115ff. und S. 138]. Details der Fragestellung -  ob beispiels­weise nach einem Intervall gefragt wird, in dem der gesuchte Wert mit 99%-iger Sicherheit liegt, oder ob die Versuchsperson um die Angabe der Werte gebeten wird, die sie minimal bzw. maximal für möglich hält   spielen in diesem Zusammenhang offensichtlich keine Rolle. Wenn bei Schätzungen also nach einem solchen "Sicherheitsintervall" gefragt wird, sollten entsprechende Korrekturen der geäußerten Werte vorgenommen werden, oder aber das angegebene Intervall sollte lediglich als der Bereich angesehen (und entsprechend verwendet) werden, in dem mit ca. 60%-iger Sicherheit der gesuchte Wert liegt.


4.3.2 Umgang mit Wahrscheinlichkeiten

Computerunterstützung bietet sich gerade bei solchen Entscheidungen an, die einen relativ hohen Schwierigkeitsgrad haben. Dazu gehören insbesondere Entscheidungen unter Unsi­cherheit und Risiko. Bei Entscheidungen unter Risiko muß damit gerechnet werden, daß Wahrscheinlichkeiten in vielen Fällen geschätzt werden müssen, weil die Beschaffung "harter", statistischer Daten nicht möglich oder zu aufwendig ist. Beim Schätzen von Wahr­scheinlichkeiten (bzw. von relativen Häufigkeiten) sind aber -  mehr noch als beim Schätzen anderer Größen   schwerwiegende und systemati­sche Fehler möglich [vgl. Tversky/Kahnemann 1974, S. 3, Anderson 1989, S. 244 und Brander u.a., S. 157ff.]. Selbst elementare Sätze und Axiome der Wahrscheinlichkeitstheorie sind bei geschätzten Wahr­scheinlichkeiten in der Regel nicht erfüllt: "The human brain does not follow the axioms (rules) of probability, such as all probabilities lie in the [0,1] interval and the sum of mutually exclusive event probabilities must be 1. The probabilities elicited from a human do not represent a true, mathematical, probability measure" [Meyer/Booker 1991, S. 23, vgl. auch Kahnemann/Tversky 1982d, S. 32 und Brander u.a., S. 159f.].

Zudem gibt es beim Einsatz wahrscheinlichkeitstheoretischer Verfahren eine nicht unerheb­liche Akzeptanz- und Ausbildungsproblematik [vgl. Geißler 1986, S. 170ff., Meyer/Booker 1991 S. 109, Kahnemann/Tversky 1982a, S. 497 und Eddy 1982]:

- Experten lehnen häufig das Schätzen von Wahrscheinlichkeiten ab oder

- sie fühlen sich nicht dazu in der Lage, Wahrscheinlichkeiten zu schätzen;

- Entscheider sehen überwiegend keinen Nutzen in einer Quantifizierung von Wahrschein­lichkeiten, außerdem

- sind viele im Umgang mit Wahrscheinlichkeiten nicht vertraut und zu einer korrekten Interpretation wahrscheinlichkeitstheoretischer Phänomene (Zufälligkeit, Streuung, sta­tistische Unabhängigkeit usw.) nicht in der Lage.

Verwendet man dennoch Verfahren, die Wahrscheinlichkeitsangaben erfordern, so müssen beim Schätzen der Wahrscheinlichkeiten eine Vielzahl möglicher motivationaler und kogniti­ver Einflüsse berücksichtigt werden. Besonders betont seien in diesem Zusammenhang die bereits erwähnten Wunschdenken, Unterschätzung von Unsicherheit und Verfügbarkeit. Außerdem spielen möglicherweise Einflüsse von Persönlichkeitsmerkmalen, wie beispiels­weise Risikofreudigkeit, eine Rolle [vgl. Brander u.a., S. 160]. Ähnliches gilt für die momen­tane Stimmung einer Person: eine depressive Verstimmung -  ausgelöst beispielsweise durch den Abbau von Alkohol -  kann zu pessimistischeren Schätzungen führen; eine euphorische Stimmung -  z.B. durch Sauerstoffmangel verursacht -  kann dagegen zur Unterschätzung von Gefahren verleiten [vgl. Schönwandt 1986, S. 14].

Folgende Effekte sind ausschließlich oder in besonderem Maße im Zusammenhang mit dem Schätzen von Wahrscheinlichkeiten bekannt:

- Fehler durch "Verfügbarkeit"

- Fehler durch Anwendung einer Ähnlichkeitsheuristik

- Unterschätzen der Streuung in kleinen Stichproben

- Vernachlässigung von Hintergrundinformationen und Verwendung wertloser Informatio­nen beim Umgang mit bedingten Wahrscheinlichkeiten

- Vernachlässigung von Regressionseffekten

- Fehler beim Abschätzen von Wahrscheinlichkeiten für konjunktiv (d.h. mit "und") oder disjunktiv (d.h. mit "oder") verknüpfte Ereignisse

- Nichtberücksichtigung der jeweils unwahrscheinlicheren Ereignisse bei Wahrscheinlich­keitsschätzungen, bei denen mehrstufige Abhängigkeiten zwischen Ereignissen zu beach­ten sind

- Unterschätzung von Restwahrscheinlichkeiten in Fehlerbäumen

- Überschätzen der Eintrittswahrscheinlichkeit sehr seltener Ereignisse.

"Wenn Menschen die Wahrscheinlichkeit für eine bestimmte Art von Ereignissen nicht direkt beobachten können, versuchen sie, dessen Wahrscheinlichkeit mit Hilfe verschiedener Heu­ristiken zu schätzen. Diese Heuristiken sind mehrdeutig und können zu schwerwiegenden Verzerrungen in Wahrscheinlichkeitsschätzungen führen" [Anderson 1989, S. 244, vgl. auch Kahnemann/Tversky 1982d, S. 32]. Eine dieser Heuristiken basiert auf der Leichtigkeit, mit der Informationen im Gedächtnis verfügbar gemacht werden können ("availability"). "Life-long experience has taught us that instances of large classes are recalled better and faster than instances of less frequent classes, that likely occurrences are easier to imagine than unlikely ones, and that associative connections are strengthened when two events frequently co-occur. Thus, a person could estimate the numerosity of a class, the likelihood of an event, or the frequency of co-occurrences by assessing the ease with which the relevant mental opera­tion of retrieval, construction, or association can be carried out. [...] A person is said to employ the availability heuristic whenever he estimates frequency or probability by the ease with which instances or associations could be brought to mind" [Tversky/Kahnemann 1982b, S. 163f.]. Die Verfügbarkeits-Heuristik ist mit entsprechenden Verzerrungen verbun­den, weil die Leichtigkeit, mit der eine Information im Gedächtnis verfügbar gemacht werden kann, von zahlreichen, in diesem Kontext unerwünschten Effekten beeinflußt wird. So werden beispielsweise Schätzungen für die Häufigkeit von Todesursachen wesentlich davon beein­flußt, wie "spektakulär" sie sind und wie oft über sie in den Zeitungen berichtet wird; ein Beispiel ist die grobe Überschätzung der Häufigkeit von Todesfällen durch Tornados [vgl. Slovic u.a. 1982, S. 465ff.]. Über- oder Unter­schätzungen um einen Faktor der Größen­ordnung 10 sind bei Aufgabenstellungen wie der Schätzung der Häufigkeit von Todesur­sachen keine Seltenheit; auch von einer richtigen Rangfolge der Häufigkeiten sind die Ergebnisse weit entfernt. Somit sind diese Ergebnisse ein Zeichen dafür, daß Menschen je nach Problemstellung nicht einmal dazu in der Lage sind, Werte in korrekter Weise ordinal zu skalieren. Viele Verfahren im Bereich "Entscheidungsunterstützung" setzen aber zumin­dest ordinal skalierte Werte voraus. Ob eine nur geschätzte Rangfolge von Werten in allen -  oder zumindest den meisten -  praktischen Fällen als (hinreichend) korrekt angesehen werden kann, muß aufgrund der Forschungs­ergebnisse zum Thema "Verfügbarkeit" (und zu anderen Teilbereichen der Denk- und Wahr­nehmungspsychologie) angezweifelt werden. Zu beachten ist außerdem, "daß sich die Genau­igkeit der Schätzung nicht dadurch verbessern läßt, daß die Versuchspersonen explizit auf den möglichen (Verfügbarkeits-) Fehler hingewiesen werden, auch dann nicht, wenn ihnen anhand von Beispielen demonstriert wird, was ihre Vorgänger im Rahmen der Untersuchung falsch gemacht haben" [Schönwandt 1986, S. 31]. Ob die von Meyer/Booker vorgeschlage­nen Methoden, Schätzfehlern durch den Verfügbarkeitseffekt entgegenzuwirken -  wie bei­spielsweise Stimulieren des Gedächtnisses durch Gruppen- oder Kreativitätstechniken -  erfolgreicher sind, bedarf noch der wissenschaftlichen Erforschung.

Die zweite wichtige Heuristik, die Menschen beim Schätzen von Wahrscheinlichkeiten anwenden, ist die Ähnlichkeitsheuristik (auch als "Repräsentativheuristik" bezeichnet, engl. "representativeness"). "A person who follows this heuristic evaluates the probability of an uncertain event, or a sample, by the degree to which it is: (i) similar in essential properties to its parent population; and (ii) reflects the salient features of the process by which it is genera­ted" [Kahnemann/Tversky 1982d, S. 33]. Die Ähnlichkeitsheuristik wirkt sich in zwei Pro­blemkreisen aus:

(1) bei der Unterscheidung zufälliger von nicht-zufälligen Ereignissen bzw. Ereigniskombi­nationen und

(2) bei der Frage, welches von zwei Ereignissen für wahrscheinlicher gehalten wird.

Menschen haben offensichtlich eine gewisse Vorstellung davon, wie zufällige Ereignisse bzw. Ereignisfolgen auszusehen haben. Dieses Stereotyp von "Zufälligkeit" schließt eine gewisse Unregelmäßigkeit ein. Die Folge davon ist, daß Ereignisfolgen, denen dieses Merkmal der Unregelmäßigkeit fehlt, bei Zufallsprozessen für weitaus unwahrscheinlicher gehalten werden als solche, die eine gewisse Unregelmäßigkeit zeigen. So wird beispielsweise die Geburten­folge B B B G G G (B = "boy"/Junge, G = "girl"/Mädchen) von einer signifikanten Mehrheit von Versuchspersonen für unwahrscheinlicher gehalten als die Geburtenfolge G B B G B G, und daß, auch wenn die Versuchspersonen ausdrücklich darauf hingewiesen werden, daß exakt die angegebene Reihenfolge zu beachten ist [vgl. Kahnemann/Tversky 1982d, S. 34]. Eine Reihe weiterer Studien brachte ähnliche Ergebnisse [vgl. Kahnemann/Tversky 1982d, S. 34ff.]. Insbesondere erwarten Menschen bei Zufalls­prozessen auch Unregelmäßigkeiten in Teilfolgen. Dies wird als eine der Ursachen dafür angesehen, daß Spieler beim Roulette, wenn mehrfach hintereinander "Rot" gefallen ist, ver­stärkt auf "Schwarz" setzen, obwohl sich an den Wahrscheinlichkeiten für "Rot" und "Schwarz" durch die vorherigen Ergebnisse nichts ändert. Die Spieler erwarten aber offen­sichtlich, daß sich nach eine längeren Serie von "Rot" die für Zufallsprozesse -  ihrer Meinung nach -  charakteristische Unregelmäßigkeit wieder einstellen und deswegen (bald) "Schwarz" fallen müßte [vgl. Kahnemann/Tversky 1982d, S. 37]. Dieses Phänomen ist als "gambler´s fallacy" oder "Monte-Carlo-Effekt" bekannt.

Bei der Schätzung oder beim Vergleich von Wahrscheinlichkeiten wirkt sich die Ähnlich­keitsheuristik vor allem dahingehend aus, daß man Wahrscheinlichkeit ausschließlich oder fast ausschließlich anhand von Ähnlichkeit mißt und gemäß der Wahrscheinlichkeitstheorie eigentlich zu beachtende Einflüsse nicht einbezieht. Zu diesen Einflüssen gehört beispiels­weise die Stichprobengröße. Die Wahrscheinlichkeit dafür, daß von 1000 Babys (die nach einem Zufallsverfahren ausgewählt wurden) 600 Jungen sind, ist weitaus geringer, als daß von 100 Babys 60 Jungen sind, weil die Streuung -  und damit die Wahrscheinlichkeit derarti­ger "Ausreißerergebnisse" -  in einer großen Stichprobe kleiner ist. Versuche ergaben jedoch, daß der Einfluß der Stichprobengröße nahezu vollständig unbeachtet bleibt -  offensichtlich zählt allein, in welchem Maß die Stichprobe der Vorstellung von der Grundmenge ähnelt [vgl. Kahnemann/Tversky 1982d, S. 38ff.]. Daß die Bedeutung der Stichprobengröße oft falsch eingeschätzt wird, ergibt sich auch aus einer Reihe weiterer Untersuchungen [vgl. Tversky/Kahnemann 1971 und Bar-Hillel 1982, S. 79ff.]. Offensichtlich werden Hypothesen häufig auf zu kleine Stichproben gegründet, frühe Trends überbewertet und die Erwartungen an Wiederholungsstudien, was die Wiederholung signifikanter Resultate angeht, zu hoch gesteckt [vgl. Schönwandt 1986, S. 65]. Die Ähnlichkeitsheuristik kann man aufgrund ihrer Auswirkungen im Bereich "Stichprobengröße" als eine kognitive (Mit-) Ursache für die Unterschätzung von Unsicherheit betrachten; sie sollte beim Modellie­ren von Entscheidungen entsprechend berücksichtigt werden.

Auch Hintergrundinformationen -  wahrscheinlichkeitstheoretisch ausgedrückt: a-priori-Wahrscheinlichkeiten -  werden nicht oder nicht angemessen berücksichtigt, wenn Schätzun­gen anhand der Ähnlichkeitsheuristik vorgenommen werden. In einem Versuch von Kahne­mann und Tversky sollte beispielsweise anhand der Beschreibung der persönlichen Eigen­schaften eines Studenten -  wie Intelligenz, Kreativität und Ordnungsliebe -  die Wahrschein­lichkeit dafür geschätzt werden, daß er ein bestimmtes von neun vorgegebenen Fächern stu­diert. Außerdem sollte geschätzt werden, wie hoch allgemein der Anteil aller Studenten an den vorgegebenen Fächern ist. Wahrscheinlichkeitstheoretisch ausgedrückt bedeutet letzte­res, daß a-priori-Wahrscheinlichkeiten (engl. "base-rates") geschätzt werden sollten. Eine Kontrollgruppe mußte angeben, wie sehr ihrer Meinung nach der Student gemäß der Beschreibung dem typischen Studenten eines der vorgegebenen Fächer ähnelt. Die Rang­folgen bezüglich der zu schätzenden (a-posteriori-) Wahrscheinlichkeit dafür, daß der beschriebene Student eines der vorgegebenen Fächer studiert, und die Rangfolgen bezüglich der Ähnlichkeit korrelierten nahezu perfekt (r = 0,97); die Korrelation zwischen den Rang­folgen der zu schätzenden a-priori- und a-posteriori-Wahrscheinlichkeiten war dagegen sogar hoch negativ. Angesichts der Tatsache, daß die diagnostischen Qualitäten solcher Persön­lichkeitsbeschreibungen wie der vorgegebenen von den Versuchspersonen selbst eher gering eingeschätzt wurden, hätte die letztgenannte Korrelation hoch positiv ausfallen, die zuerst genannte aber weitaus näher an 0 liegen müssen - [vgl. Kahnemann/Tversky 1973, S. 49ff.]. In einem ähnlichen Versuch wurde eine Beschreibung vorgelegt, die absichtlich so gestaltet war, daß sie als völlig uninformativ aufgefaßt werden mußte. Die dementsprechende Wahr­scheinlichkeitsschätzungen hätte mit der vorgegebenen a-priori-Wahrscheinlichkeit von 30% (bzw. 70% bei einer zweiten Gruppe von Versuchspersonen) übereinstimmen müssen, statt dessen wurden im Mittel 50% genannt; die wertlose Information führte also dazu, daß die a-priori-Wahrscheinlichkeit ignoriert wurde. Wird jedoch ausdrücklich gesagt, daß keine Beschreibung -  also keine Informationen außer der a-priori-Wahrscheinlichkeit -  vorhanden ist, wird die a-priori-Wahrscheinlichkeit korrekt als Schätzwert verwendet [vgl. Kahne­mann/Tversky 1973, S. 54ff. und Tversky/Kahnemann 1974, S. 5]. Wenn die Ähnlichkeits­heuristik nicht angewendet werden kann, wird also offensichtlich die Bedeutung der a-priori-Wahrscheinlichkeit erkannt.

Die Nichtberücksichtigung von a-priori-Wahrscheinlichkeiten kann beispielsweise bei Dia­gnoseproblemen in der Medizin zur Über- oder Unterschätzung der a-posteriori-Wahrschein­lichkeiten um zweistellige Faktoren führen [vgl. Eddy 1982, S. 257ff. und Schönwandt, S. 113f.]. Fehler in dieser Größenordnung dürften bei Eingabedaten für DSS in der Regel nicht tolerabel sein. Es ist deswegen erforderlich, bei jeder Wahrscheinlichkeitsschätzung zu überprüfen, ob a-priori-Wahrscheinlichkeiten einbezogen werden müssen. Wenn ja, sollten diese getrennt ermittelt und die sich ergebenden a-posteriori-Wahrscheinlichkeiten errechnet werden.

Die Ähnlichkeitsheuristik wird auch als Ursache für die Vernachlässigung von Regressions­effekten angesehen. Mit Regressionseffekten "wird die bei empirischen Untersuchungen bzw. Tests zu beobachtende Tendenz bezeichnet, daß sich extreme Meßwerte bei einer zweiten Messung in Richtung auf den Mittelwert verändern" [Schönwandt 1986, S. 64]. Wird der Regressionseffekt beachtet, müssen aktuelle Bewertungen und die darauf basierenden Pro­gnosen voneinander abweichen, wobei die Prognosen stärker in Richtung auf den Mittelwert tendieren, also "regressiver" sein müssen. Wird ausschließlich die Ähnlichkeitsheuristik angewendet, müssen Bewertung und Prognose übereinstimmen. Studien ergaben nahezu keine Abweichungen zwischen Bewertung und Prognose, der Regressionseffekt wird also offensichtlich nicht beachtet. Anders ausgedrückt bedeutet dies, daß die Unsicherheit, die der aktuellen Bewertung aus der Sicht ihrer Verwendbarkeit für Prognosezwecke anhaftet, nicht berücksichtigt wird [vgl. Kahnemann/Tversky 1973, S. 57ff.].

Neben den heuristisch bedingten Fehlern beim Schätzen von Wahrscheinlichkeiten sind insbe­sondere solche Fehler von Bedeutung, die beim Kombinieren von Wahrscheinlichkeitsaus­sagen auftreten. Dazu gehören falsches Abschätzen von Wahrscheinlichkeiten für konjunktiv oder disjunktiv verknüpfte Ereignisse, falsches Abschätzen von a-posteriori-Wahrscheinlich­keiten auch bei Berücksichtigung der a-priori-Wahrscheinlichkeiten und das Nichtbeachten der unwahrscheinlicheren Ereignisse bei mehrstufigen Wahrscheinlichkeitsabschätzungen.

Im Zusammenhang mit der Unterschätzung von Unsicherheit wurde bereits erwähnt, daß die Eintrittswahrscheinlichkeit eines zusammengesetzten Ereignisses in der Regel überschätzt wird, wenn das Gesamtereignis durch eine konjunktive Verknüpfung der Einzelereignisse gebildet wird. Entsprechend werden die Eintrittswahrscheinlichkeiten für disjunktive Ver­knüpfungen von Einzelereignissen generell unterschätzt [vgl. Schönwandt, S. 57]. - Bei der Abschätzung der Eintrittswahrscheinlichkeiten von konjunktiv verknüpften Einzelereig­nissen wird zudem häufig eine Grundannahme jeden Wahrscheinlichkeitskalküls verletzt: die Wahr­scheinlichkeit des Gesamtereignisses darf maximal nur so groß sein wie die des unwahr­scheinlichsten Einzelereignisses. Selbst in Statistik ausgebildete Personen übersehen dies bei manchen Aufgabenstellungen und schätzen fälschlicherweise die Wahrscheinlichkeit des Gesamtereignisses anhand eines Zwischenwertes aus den Wahrscheinlichkeiten für die Ein­zelereignisse; dadurch werden die Wahrscheinlichkeiten für alle betrachteten Ereignisse ins­gesamt in eine Reihenfolge gebracht, die mit der Wahrscheinlichkeitstheorie unvereinbar ist [vgl. Tversky/Kahnemann 1982a, S. 90ff. und Kahnemann/Tversky 1982a, S. 496f.]. Dies ist ein weiteres Beispiel dafür, daß Menschen in bestimmten Fällen nicht in der Lage sind, Werte in eine korrekte Rangfolge zu bringen. Mögliche Ursache für den genannten Fehler ist, daß zusätzliche Details ein Ereignis realistischer und damit glaubwürdiger erscheinen lassen. Zusätzliche Details bedeuten aus wahrscheinlichkeitstheoretischer Sicht aber eine (zusätzliche) konjunktive Verknüpfung von Einzelereignissen und lassen somit die Wahr­scheinlichkeit für das Gesamtereignis sinken. Zu beachten ist allerdings, daß die wahrschein­lichkeitstheoretische Sicht bei der Beurteilung der Glaubwürdigkeit einer Schilderung (z.B. einer Zeugenaussage vor Gericht) zu Fehlschlüssen führen kann, weil Detailreichtum   wohl aufgrund der assoziativen Speicherung von Informationen im Gedächtnis -  ein Zeichen dafür ist, daß die Schilderung auf einem realen Erlebnis basiert [vgl. Bender/Nack 1995 Bd. I, S. 106ff.]. Soll also in eine Entscheidung eine Wahrscheinlichkeit dafür eingehen, daß eine Person ein von ihr geschildertes Ereignis tatsächlich erlebt hat, so kann diese Wahrschein­lichkeit nicht einfach als Produkt aus den einzelnen Wahrscheinlichkeiten für die Wahrheit der geschilderten Details berechnet werden.

Auf ein weiteres Problem bei der Verknüpfung von Wahrscheinlichkeitsaussagen wurde bereits beim Thema "Verankerung" hingewiesen, nämlich, daß Wahrscheinlichkeitsschätzun­gen angesichts neuer Informationen häufig nicht in dem Maße geändert werden, wie dies entsprechend der Wahrscheinlichkeitstheorie geschehen müßte. Einen Überblick diesen soge­nannten "conservatism"-Effekt bietet [Edwards 1982]. Ähnlich verhält es sich, wenn zu der Information über einen Einzelfall eine Hintergrundinformation, also eine a-priori-Wahr­scheinlichkeit, hinzukommt. Falls diese überhaupt berücksichtigt wird, wird ihr Einfluß auf die a-posteriori-Wahrscheinlichkeiten leicht unterschätzt [vgl. Bender/Nack 1995 Bd. I, S. 234]. Das menschliche Gehirn verfügt offensichtlich nicht über kognitive Strukturen zum Verrechnen überlagerter Wahrscheinlichkeiten; deswegen sollten Schätzungen in diesem Bereich möglichst vermieden und durch Berechnungen ersetzt werden [vgl. Schönwandt 1986, S. 45].

Letzteres gilt insbesondere, wenn Menschen die Wahrscheinlichkeit für stufenweise vonein­ander abhängige Ereignisse abschätzen. Diese Problemstellung ist eine Verallgemeinerung des Problems bedingter Wahrscheinlichkeiten und kann mit Hilfe eines modifizierten Bayes-Theorems gelöst werden [vgl. Gettys u.a. 1973, S. 370]. Offensichtlich wenden viele Men­schen beim Lösen derartiger Probleme eine Heuristik an, bei der jeweils nur eine Stufe betrachtet, für diese das wahrscheinlichste Ereignis ermittelt und mit diesem weitergerechnet wird -  wobei sie aber außer acht lassen, daß dieses wahrscheinlichste Ereignis nicht die Wahrscheinlichkeit 1, sondern unter Umständen eine viel geringere Wahrscheinlichkeit hat. Dies wirkt sich dahingehend aus, daß das auf der letzten Stufe für am wahrscheinlichsten gehaltene Ereignis zwar auch das wahrscheinlichste ist, seine Wahrscheinlichkeit -  verglichen mit der aller anderen, nicht näher betrachteten Möglichkeiten -  aber stark überschätzt wird [vgl. Schönwandt, S. 54 und Gettys u.a. 1973, S. 371].

Die aufgezeigten Schwächen des Menschen beim Verrechnen von Wahrscheinlichkeiten zei­gen, daß der Einsatz eines Computers mit entsprechender Software (DSS, Expertensystem oder ähnliches) immer dann zu empfehlen ist,

- wenn die Möglichkeit besteht, auch nur annähernd genaue (Wahrscheinlichkeits-) Daten als Eingabe für das System zu beschaffen, und

- wenn das Entscheidungsproblem nicht-triviale Abhängigkeiten zwischen (unsicheren) Ereignissen enthält.

Einige Effekte, die sich in die bisherigen Ausführungen zum Thema "Umgang mit Wahr­scheinlichkeiten" schlecht einordnen lassen, seien abschließend noch erwähnt. Dazu gehört zum einen, daß nicht weiter gesplittete Teile von Baumstrukturen in ihrer Bedeutung unter­schätzt werden, was unter anderem auch zu einer Unterschätzung der Wahrscheinlich­keiten von "Rest-" Kategorien in Fehlerbäumen führt; typisches Beispiel dafür ist die Unter­schät­zung der Möglichkeit, daß "menschliches Versagen" in einem technischen System einen Fehler verursachen kann [vgl. Brander u.a., S. 159 und Schönwandt 1986, S. 25]. Zum ande­ren ist erwähnenswert, daß Menschen grund­sätzlich Schwierigkeiten haben, sehr kleine Wahr­scheinlichkeiten korrekt zu schätzen; in aller Regel wird die Wahrscheinlichkeit seltener Ereignisse überschätzt. Dieser Effekt kann durch einen geeigneten Antwortmodus -  Verwen­dung einer logarithmischen Skala oder Angabe von Verhältnis- statt Dezimalzahlen (z.B. "1 : 1000" statt 0,001) -  abgeschwächt werden [vgl. Meyer/Booker 1991, S. 110]. Die für Entscheidungen im wirtschaftlichen Bereich interessante Frage, ob Nutzen- und Wahrschein­lichkeitsschätzungen interagieren oder ob eine getrennte Erfassung von Nutzen- und Wahr­scheinlichkeitsschät­zungen - möglich ist, kann hier nicht geklärt werden; die Meinungen hierzu in der Literatur gehen auseinander [vgl. Brander u.a., S. 158f. und Eisenführ/Weber 1993, S. 216].

Die denk- und wahrnehmungspsychologischen Probleme im Bereich "Schätzen und Inter­pretieren von Wahrscheinlichkeiten" müssen insgesamt für das menschliche Entscheiden als gravierend angesehen werden. Eddy kommt beispielsweise zu dem Ergebnis, "that many physicians make major errors in probabilistic reasoning, and that these errors threaten the quality of medical care" [Eddy 1982, S. 249]. Lichtenstein u.a. vertreten die Ansicht, daß -  unter anderem deswegen, weil Schätzfehler sich aufaddieren können -  durch schlechte Cali­bration enorme Verluste möglich sind [vgl. Lichtenstein u.a. 1982, S. 331]. Computerunter­stütztes Entscheiden kann zwar Fehler beim Verrechnen von Wahrscheinlichkeiten nahezu ausschließen, aber der Computereinsatz erfordert ausreichend genaue Eingabedaten, wenn das computerunterstützte Entscheiden brauchbare Ergebnisse liefern soll. Beim Schätzen von Wahrscheinlichkeiten muß aber mit Fehlern in einer Größenordnung gerechnet werden, die ausreichend genaue Eingabedaten in Frage stellen. Schätzungen, die um Faktoren zwischen 10 und 100 über oder unter dem "wahren" Wert liegen, müssen beim derzeitigen Stand der Forschung eher als die Regel denn als die Ausnahme angesehen werden [bzgl. Ausnahmen vgl. Anderson 1989, S. 275]. Ausbildung und vor allem Training im Schätzen von Wahr­scheinlichkeiten erscheinen als der beste Weg, die genannten Probleme zu mildern [vgl. Fischhoff 1982b, S. 439, Slovic u.a. 1982, S. 484, Alpert/Raiffa 1982, Meyer/Booker 1991 S. 109 und Geißler 1986, S. 176]. Der alleinige Ein­satz von DSS, die Entscheidungen bei Risiko unterstützen, wird ohne flankierende Maß­nahmen in den seltensten Fällen einen Nutzen bringen.


4.3.3 Abschätzen nicht-linearer Zusammenhänge

Es wurde bereits mehrfach angedeutet, daß Menschen häufig Schwierigkeiten haben, Zusammenhänge als nicht-linear zu erkennen und die Auswirkungen nicht-linearer Beziehun­gen richtig einzuschätzen. Dies kann bei Entscheidungsmodellen sowohl dazu führen, daß -  z.B. durch fehlerhaftes Extrapolieren -  falsche Zahlen verwendet werden, als auch daß fal­sche Annahmen über die Zusammenhänge zwischen Alternativen, Umweltzuständen und Ergebnissen in die Berechnungen eingehen.

Typische Fehler in diesem Bereich sind [vgl. Dörner 1992, S. 32, S. 49f., S. 54, S. 109ff. und S. 156ff. sowie Schönwandt 1986, S. 56ff.]:

- das Unterschätzen exponentieller Entwicklungen

- die Annahme eines (linearen) Trends anstelle einer exponentiellen, zyklischen oder son­stigen nicht-linearen Entwicklung

- die Nichtbeachtung von begrenzenden Größen

- die Unfähigkeit zum Denken in Kausalnetzen, also das Übersehen von positiven oder negativen Rückkopplungen

- die Nichtberücksichtigung des zeitlichen Ablaufs von Prozessen, wie z.B. der verzögerten Wirkung von Eingriffen in ein System.

Exponentielle Entwicklungen werden in der Regel stark unterschätzt, Fehler von über 50% werden von den meisten Versuchspersonen gemacht. Bildliche Darstellungen reduzieren den Fehler nicht; Fachleute, die täglich Entscheidungen zu fällen haben, unterliegen denselben Fehleinschätzungen wie sonstige Versuchspersonen [vgl. Dörner 1992, S. 168ff. und Schön­wandt 1986, S. 56ff.].

Schönwandt geht davon aus, daß der menschliche Denkapparat für das Verarbeiten nicht-linearer Beziehungen nicht eingerichtet ist und daß die Unfähigkeit zum Umgang mit nicht-linearen Beziehungen zu einer Tendenz führt, mehr lineare Zusammenhänge in der Außen­welt anzunehmen als tatsächlich vorhanden sind [vgl. Schönwandt 1986, S. 57]. "Wird also für irgendeinen Zusammenhang ohne besondere Begründung Linearität angenommen, sollte ein Planer vorsichtshalber skeptisch reagieren" [Schönwandt 1986, S. 58].

Fehleinschätzungen bezüglich funktionaler Zusammenhänge können einerseits die Computer­unterstützung beim Entscheiden sinnlos machen, andererseits kann Computerunterstützung -  beispielsweise durch Simulation -  zumindest dabei helfen, die Auswirkungen nicht-linearer Beziehungen richtig einzuschätzen. Somit gilt hier Ähnliches wie im Bereich "Wahrscheinlichkeiten": Vorausgesetzt, ein gewisses Minimum an korrekten Informationen steht zur Verfügung, kann Computerunterstützung einen Teil denkpsychologischer Fehler ausschließen. Dieses Minimum an korrekten Informationen muß aber durch fachspezifisches Wissen, eine hinreichend realistische Einschätzung der Sicherheit des vorhandenen Wissens, und ein gewisses Maß an Kreativität gesichert werden. Kreativität ist dabei notwendig, um Vorstellungen bezüglich noch unbekannter Einflußgrößen oder Kurvenver­läufe zu ent­wickeln, die nach ausreichender Verifikation in einem Entscheidungsmodell berücksichtigt werden können.


4.3.4 Festlegung von Zielen, Anspruchsniveaus und Gewichtungen

In der normativen Entscheidungstheorie werden Ziele als gegeben vorausgesetzt und können somit auch nicht "falsch" sein. Betrachtet man jedoch praktische Entscheidungsprobleme aus dem Blickwinkel der Denk- und Wahrnehmungspsychologie, so können durchaus Fehler bei der Festlegung von Zielen gemacht werden. Dafür sind neben den Eigenschaften des mensch­lichen Denk- und Wahrnehmungsapparates Eigenschaften von Entscheidungsproblemen die Hauptursachen: das zeitliche, personelle und eventuell räumliche Auseinanderfallen der Ent­scheidung und ihrer Wirkung, also beispielsweise die für viele wirtschaftliche und politische Entscheidungen typische Trennung von Entscheidungsträger und Betroffenen.

Das Auseinanderfallen von Entscheidung und Wirkung kann zusammen mit denkpsychologi­schen Effekten folgende Fehler verursachen:

- falsches Abschätzen der Entwicklung zukünftiger Bedürfnisse (z.B. Nichtberücksichti­gung steigender Anspruchsniveaus)

- zu geringe Gewichtung von Erhaltungszielen (fehlende oder nicht ausreichende Berück­sichtigung eines zum Entscheidungs- und zum Wirkungszeitpunkt gleichermaßen vorhan­denen Zieles) [vgl. Dörner 1992, S. 86]

- zu starke Gewichtung oder sogar ausschließliche Berücksichtigung aktueller Probleme [vgl. Dörner 1992, S. 11 und S. 99ff.]

- falsches Einschätzen der aktuellen und/oder zukünftigen Bedürfnisse derjenigen, die von den Wirkungen der Entscheidung betroffen sind [vgl. Dörner 1992, S. 89f. und S. 102].

Dazu kommen die kognitiven Probleme, die mit der Präzisierung zunächst unklarer Zielvor­stellungen und mit der Analyse der Beziehungen zwischen einzelnen Zielkriterien (insbesondere Zielkonflikte) in aller Regel verbunden sind. Geißler stellte in einer Untersu­chung zu den Ursachen von Fehlentscheidungen beispielsweise fest, daß die schriftliche Ziel­fixierung bei Entscheidungen, die sich im nachhinein als Fehlentscheidungen erwiesen hatten, meist mangelhaft war [vgl. Geißler 1986, S. 186]. Dörner sieht die mangelnde Dekomposi­tion "globaler" Ziele und die mangelnde Einsicht in Zielkonflikte als Ursache unter anderem dafür, daß Zukunftsprobleme nicht berücksichtigt werden und daß irrelevante Probleme sich verselbständigen können [vgl. Dörner 1992, S. 93f. und S. 105f.]. Die Untersuchungen von Geißler weisen allerdings nicht darauf hin, daß Zielkonflikte als Ursache für Fehlentschei­dungen eine wesentliche Rolle spielen. Zwar zeigte sich, daß bei der Mehrzahl der von ihm untersuchten Fehlentscheidungen mehrere Ziele gesetzt worden waren, aber nur in einem Ausnahmefall gab es einen Konflikt zwischen den gesetzten Zielen [vgl. Geißler 1986, S. 185]. Auch die Änderung von Zielen im Zeitablauf ist in der Praxis offensichtlich nur von untergeordneter Bedeutung. Bei der Mehrzahl der von Geißler untersuchten Fehlentschei­dungen (41 gegenüber 9) gab es keine Änderung des Zielsystems nach dem Entschlußzeit­punkt [vgl. Geißler 1986, S. 183]. "Für die Fehlentscheidungen müssen also andere Ursachen maßgeblich sein" [Geißler 1986, S. 184].

Insgesamt scheint den Problemen, die die Festlegung von Zielen betreffen, eine wesentlich geringere Bedeutung für das computerunterstützte Entscheiden zuzukommen als beispiels­weise denen beim Schätzen von Wahrscheinlichkeiten. Von daher erscheint das Ausmaß der Forschung und Diskussion auf Gebieten wie Nutzentheorie und Multi-Criteria-Decision-Making ungerechtfertigt. Da durch denkpsychologische Effekte verursachte Fehler im Bereich der Zielfestlegung -  und darauf basierende Fehlentscheidungen -  aber auch nicht ganz auszuschließen sind, sollen im folgenden einige für diesen Bereich wesentliche Forschungs­ergebnisse aufgeführt und diskutiert werden. Diese betreffen im einzelnen die Fragen,

- welche Ziele überhaupt gesetzt werden,

- wie das Ausmaß, in dem die Ziele zu erreichenden sind, festgelegt wird (Extremalziele oder Anspruchsniveaus) und

- wie Entscheider Zielkonflikte lösen, also z.B. Gewichtungen bestimmen.

In der betriebswirtschaftlichen Literatur zum Thema "Entscheiden" wird die Frage, welche Ziele gesetzt und welche außer acht gelassen werden (bzw. werden sollten), meist gar nicht oder nur am Rande diskutiert. Bei Saliger und bei Eisenführ/Weber finden sich zumindest Hinweise darauf, wie Informationen über Ziele beschafft oder Ziele "generiert" werden kön­nen [vgl. Eisenführ/Weber 1993, S. 53 und Saliger 1988, S. 4]. Denkpsychologische Effekte können aber bereits bei der Wahl der Ziele einen negativen Einfluß ausüben. So tendieren Menschen beispielsweise dazu, ihre eigenen Ansichten und Verhaltensweisen für die der Mehrheit zu halten [vgl. Ross/Anderson 1982, S. 140ff.]. Mögliche Folge hiervon ist, daß Entscheider ihre eigenen Zielvorstellungen für die der Betroffenen halten, und es dement­sprechend unterlassen, sich über die Ziele der Betroffenen zu informieren. Werden die Betroffenen nach ihren Zielen gefragt, sind immer noch alle jene Effekte einzukalkulieren, die bei Befragungen zu Verzerrungen führen können: Einflüsse der Fragestellung, Gruppen- und Autoritätsdruck usw. Außerdem kann die Bevorzugung bestätigender Informationen dazu führen, daß der Entscheider die Unterschiede zwischen seinen Zielvorstellungen und denen der Betroffenen nicht oder nicht ausreichend wahrnimmt. Auch der Einfluß des vorhandenen Wissens kann sich bei der Festlegung von Zielen bemerkbar machen. Welche Probleme von einer Person aufgrund ihrer Vorkenntnisse gesehen werden und welche nicht, kann sich auf die Zielvorgaben einer anstehenden Entscheidung auswirken. Im Extremfall kann es sogar dazu kommen, daß Ziele sich daran orientieren, zur Lösung welcher Probleme Methoden zur Verfügung stehen, anstatt daran, welche Probleme gelöst werden müßten [vgl. Dörner 1992, S. 90].

Es gibt zwei für die Praxis wesentliche Vorgehensweisen, um das Ausmaß, in dem Ziele zu erreichen sind, festzulegen: Entweder man definiert Anspruchsniveaus, also obere oder untere (selten auch beidseitige) Schranken für die Werte des Zielkriteriums, oder aber man gibt vor, daß die Werte des Zielkriteriums zu maximieren bzw. zu minimieren sind ("Extremalziele"). In der Untersuchung von Geißler stellte sich beispielsweise heraus, daß bei ca. 2/3 der Fehlentscheidungen Extremalziele verfolgt wurden und nur bei ca. 1/3 die Ziele in Form von Anspruchsniveaus vorgegeben waren [vgl. Geißler 1986, S. 188]. Andere Unter­suchungen weisen darauf hin, daß das Setzen von Anspruchsniveaus eine, aber oftmals nicht die einzige (Wahl-) Strategie ist, die von einer Person beim Lösen eines Entscheidungs­problems eingesetzt wird [vgl. Buchanan 1994, S. 1057]. Während die Definition eines Extremalzieles keinerlei freie Parameter mehr enthält, stellt sich bei Anspruchsniveaus aus denkpsychologischer Sicht die Frage, wie deren Höhe festgelegt wird. Offensichtlich spielen dabei die Beschreibung des Entscheidungsproblems und der Status quo des Entscheiders eine nicht unerhebliche Rolle. Selbst das Hinzufügen einer nicht realisierbaren Alternative zu einem Entscheidungsproblem kann die Beurteilungen des Entscheiders beeinflussen [vgl. Weber/Borcherding 1993, S. 8ff. und Eisenführ/Weber 1993, S. 327]. Daraus ergibt sich allgemein für die Gestaltung und den Einsatz von DSS die Frage, wie weit und gegebenen­falls auf welche Art der Anwender, bevor er Daten bezüg­lich seiner Zielfunktion eingibt, über bestimmte Eigenschaften des Entscheidungsproblems, wie z.B. die individuellen Optima bei einem Multi-Objective-Problem, informiert werden sollte. Der Wunsch der Anwender inter­aktiver DSS, zunächst eine Vorstellung vom Lösungsraum (bzw. der "vollständigen Lösung") zu erhalten, bevor sie Eigenschaften ihrer Zielfunktion in das System eingeben, kann zu einer erheb­lichen Manipulation eben dieser Zielfunktion führen.

Unter Umständen ist es sinnvoller, Zielvorstellungen eines Entscheiders nicht interaktiv, son­dern im vorhinein zu ermitteln, und Zielkonflikte -  soweit möglich -  über Gewichtungsverfah­ren zu lösen. "The research showed that, in general, weighting methods have the ability to predict the choice of the subjects at a very high level of accuracy, i.e. more then 70% irre­spective of the method used" [Bin Hussain/Wallace 1995, S. 156]. Allerdings machen sich bei der Bestimmung von Gewichten auch kognitive Verzerrungen bemerkbar. Gewichte sind beispielsweise nur in bezug auf definierte Ausprägungsintervalle der Zielvariablen sinnvoll interpretierbar. Untersuchungen zeigten jedoch, daß Entscheider ihre Aussagen bezüglich der Wichtigkeit von Zielen nicht oder nur unwesentlich an die Breite der Ausprägungsintervalle anpassen [vgl. Eisenführ/Weber 1993, S. 138].

Anstatt Gewichtungen vor dem Einsatz eines DSS zu ermitteln, könnten sie vielleicht aber auch mit Hilfe interaktiver DSS indirekt -  und damit viel­leicht zuverlässiger als mit anderen Methoden -  gemessen werden. In einer Untersuchung von Bin Hussain und Wallace zeigte sich nämlich eine hohe Korrelation zwischen der Priorität von Attributen und der Reihen­folge, in der diese vom Anwender (beim Vergleich von Alter­nativen) betrachtet wurden [vgl. Bin Hussain/Wallace 1995, S. 149]. Bei MADSS, die es ermöglichen festzustellen, in wel­cher Reihenfolge ein Anwender die verschiedenen Attribute beim Vergleich von Alternativen durchgeht, könnte die Häufigkeit, mit der ein bestimmtes Attribut als erstes, zweites usw. betrachtet wird, ein Maß für die Priorität des betreffenden Attributes und damit letztendlich ein Gewichtungsschema für die Attribute insgesamt erge­ben. Fraglich ist aber, ob die für Gewichtungs­verfahren vorauszusetzende Unabhängigkeit, also Additivität der Zielkriterien im allge­meinen gegeben ist. Eine Reihe von Autoren gehen jedoch davon aus, daß diese Voraussetzung durch geeignete Maßnahmen, wie beispielsweise Zusammenfassung vonein­ander abhängiger Kriterien zu einer übergeordneten Größe, in den meisten Fällen geschaffen werden kann [vgl. Zimmermann/Gutsche 1991, S. 112f.].

Zuverlässige Methoden, um die Ziele, Anspruchsniveaus, Gewichtungen usw. eines Ent­scheiders zu ermitteln, sind zwar wünschenswert, können aber die denk- und wahr­neh­mungspsychologische Problematik der Zielbildung nicht aufheben. Der Einsatz von DSS ver­liert an Sinn, wenn die Anspruchsniveaus eines Entscheiders oder seine Vorstellungen bezüg­lich der Gewichtung gegebener Zielkriterien zwar zuverlässig gemessen werden können, die Anspruchsniveaus des Entscheiders aber auf einer verzerrten Wahrnehmung seiner Umwelt beruhen oder wesentliche Zielkriterien vollständig unbeachtet bleiben. Auch aus Sicht der für computerunterstütztes Entscheiden notwendigen Zieldefinition erscheint es also erforderlich, Entscheider mit möglichen denk- und wahrnehmungspsychologischen Problemen vertraut zu machen.


5. Zusammenfassung, Kritik und Ausblick

In dieser Arbeit wurde Wissen aus unterschiedlichen Bereichen -  hauptsächlich aus der Psychologie, aber auch aus Wirtschaftswissenschaften, Operations Research und Neurologie -  zusam­mengetragen, um festzustellen, wie und in welchem Umfang die Besonderheiten des mensch­lichen Denk- und Wahrnehmungsapparates beim computerunterstützten Entscheiden zu Feh­lern führen können, und welche Möglichkeiten es gibt, diese Fehler zu vermeiden oder zumindest ihre Auswirkungen abzuschwächen.

Zunächst ist dabei festzuhalten, daß computerunterstütztes Entscheiden helfen kann, bestimmte Schwächen des menschlichen Denk- und Wahrnehmungsapparates auszugleichen. Bei diesen Schwächen handelt es sich um solche, die das Verrechnen von Werten und das Verknüpfen von Aussagen -  insbesondere im Umgang mit Wahrscheinlichkeiten und mit nicht-linearen Zusammenhängen -  betreffen. Computerunterstützung beim Entscheiden ist von daher aus der Sicht der Denk- und Wahrnehmungspsychologie grundsätzlich empfeh­lenswert.

Computer brauchen aber für Berechnungen Eingabedaten. Diese müs­sen letztendlich von den Anwendern der Systeme beschafft werden und unterliegen damit einer Vielzahl von denk- und wahrnehmungspsychologischen Einflüssen. Zwei Problemkrei­sen kommt dabei offen­sichtlich besondere Bedeutung zu: zum einen den zahlreichen Formen der Unterschätzung von Unsicherheit, zum anderen den ebenso zahlreichen und teilweise extrem schwerwiegen­den Fehlerquellen (Über- bzw. Unterschätzen von Werten z.T. um dreistellige Faktoren) beim Schätzen von Wahrscheinlichkeiten.

Um beim computerunterstützten Entscheiden die Auswirkungen der Fehlerquellen im menschlichen Denk- und Wahrnehmungsapparat zu verringern, ist es erforderlich, denk- und wahrnehmungspsychologisches Wissen in all jenen Bereichen, in denen Entscheidungen von einiger Tragweite gefällt werden, weitaus stärker als bisher zu verbreiten. Ein solcher Bereich ist beispielsweise die Justiz [vgl. Bender/Nack 1995 Bd. I, S. V], aber auch Wirtschaft, Politik und Medizin seien an dieser Stelle genannt. Insbe­sondere sollte die Einführung von DSS in Unternehmen und Behörden grundsätzlich damit verbunden werden, daß Wissen nicht nur aus dem Bereich der Entscheidungs- und Wahr­scheinlichkeitstheorie, sondern auch aus der Denk- und Wahrnehmungspsychologie vermittelt wird. Entscheidungsunterstützung erfordert also integrierte Konzepte, bei denen die Ausstat­tung einer Organisation mit Soft­ware und die Schulung in der Bedienung dieser Software allein nicht ausreichen, sondern durch die Vermitt­lung weitaus umfassenderer Kenntnisse und Fähigkeiten ergänzt werden müssen.

Auch die Gestaltung von DSS muß stärker als bisher die denk- und wahrnehmungspsycho­logischen Rahmenbedingungen des Entscheidens berücksichtigen. Entscheidungen fällen umfaßt sowohl das Ermitteln möglichst exakter, realistischer Informationen als auch die Erzeugung neuen Wissens durch kreative Denkprozesse. Kreativität ist insbesondere für die Erzeugung eines möglichst umfassenden Alternativenraumes von Bedeutung. Sie wird aber auch benötigt, um Wege zu finden, Zusammenhänge, Werte und Wahrscheinlichkeiten mög­lichst gut zu schätzen, und um Effekten wie "Verfügbarkeit" und "Verankerung" entgegen­zuwirken. Neben der Berücksichtigung dieses Aspektes sollten DSS auch stärker als bisher auf die Dokumentation aller zur Entscheidung herangezogenen Informationen ausgerichtet werden. Dies ist wesentlich, weil nur eine Dokumentation, die auch alle Hintergrundinforma­tionen einschließt, es ermöglicht, die Qualität der verwendeten Informationen -  insbesondere im Hinblick auf die zahlreichen in dieser Arbeit genannten Effekte -  zu überprüfen. Nur so kann ein Entscheider vom ersten Auftreten eines Problems bis zur Umsetzung der gefällten Entscheidung umfas­send unterstützt werden.

Weitere Forschung ist insbesondere auf den folgenden Gebieten notwendig:

- Qualität von Expertenschätzungen: Es fehlen hinreichend detaillierte und umfassende Untersuchungen, mit deren Hilfe sich abschätzen läßt, unter welchen Bedingungen Exper­tenmeinungen als verwendbar anzusehen sind, und wann auch bei Expertenurteilen mit groben Fehlern zu rechnen ist. Die bisherige Forschung ist zwar hilfreich, liefert aber nur punktuelles und kein systematisches, ausreichend abgesichertes Wissen.

- Fehlentscheidungen: Die Forschung auf diesem Gebiet steckt noch in den Kinderschuhen, und dies wohl nicht nur im Bereich Wirtschaftswissenschaften. Fehlentscheidungen und ihre Ursachen müßten systematisch und auf vielen Gebieten (Ingenieurwissenschaften, Politik, Recht, Medizin usw.) untersucht werden, um Entscheidungen bestmöglich unter­stützen zu können. Grobe Abschätzungen, wie z.B. anhand der Häufigkeit und des Scha­dens von Insolvenzen, lassen den Schluß zu, daß Fehlentscheidungen jährliche Schäden in Milliardenhöhe verursachen. Man kann aufgrund der derzeitigen Forschung davon ausge­hen, daß zumindest ein Teil dieser Fehlentscheidungen vermeidbar wäre. Es ist wohl nicht übertrieben, hier von der sträflichen Vernachlässigung eines Forschungsgebietes zu spre­chen.

- Methoden: Es fehlt an methodischen Werkzeugen, um die durch die Schwächen des menschlichen Denk- und Wahrnehmungsapparates ausgelösten Effekte zu vermeiden [vgl. Schönwandt 1986, S. 99]. Auch wenn in diversen Untersuchungen Vortraining, Warnungen, Schulungen usw. nicht immer oder nicht im erwünschten Maße erfolgreich waren, so spricht doch vieles dafür, daß durch Training und Ausbildung zumindest Ver­besserungen in Teilbereichen möglich sind. Wie Training und Ausbildung für den Umgang mit Unsicherheit optimal gestaltet werden könnte, ist aber noch weitgehend unerforscht [vgl. Nisbett u.a. 1982b, S. 459]. Auch zu der Frage, welche anderen Metho­den es geben könnte, um die in dieser Arbeit aufgeführten Probleme zu verringern, gibt es bisher nur ansatzweise Antworten. Einen Überblick über mathematische Methoden, um in gegebenen Daten Hinweise auf bestimmte Verzerrungseffekte zu finden, bietet [Meyer/Booker 1991, S. 263ff.].

Wenn Entscheidungen in den wirklich realitätsnahen und somit schwierigen Bereichen, also unter den Voraussetzungen "Mehrfachzielsetzung", "Unsicherheit" und "Unschärfe", unter­stützt werden sollen, müssen integrierte Konzepte aus entsprechender Software sowie mathematischen, psychologischen und didaktischen Methoden entwickelt werden. Die bishe­rige Forschung im Bereich "Entscheidungsunterstützung" wird dieser Tatsache nicht gerecht; sie ist geprägt vom "Lösen der Probleme, die man lösen kann, anstelle der Probleme, die gelöst werden müßten": Detailprobleme und "mathematisch interessante" Ansätze prä­gen das Bild. Eine Neuorientierung erfordert sowohl eine stärkere Zielorientierung   die Probleme des Entscheidens in der Praxis müssen stärker als bisher erforscht werden -  als auch weit mehr fachübergreifende Zusammenarbeit zur Lösung der Probleme.



Literatur


[Alpert/Raiffa 1982]

Alpert, M. und Raiffa, H.: A progress report on the training of probability assessors. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 294 305


[Anderson 1989]

Anderson, J. R.: Kognitive Psychologie: Eine Einführung. 2. Aufl. Heidelberg 1989


[Bar-Hillel 1973]

Bar-Hillel, M.: On the subjective probability of compound events. In: Organizational Behavior and Human Performance, 9. Jg., 1973, S. 396 406


[Bar-Hillel 1982]

Bar-Hillel, M.: Studies of representativeness. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 69 83


[Basadur u.a. 1994]

Basadur, M., Ellspermann, S. J. und Evans, G. W.: A New Methodology for Formulating Illstructured Problems. In: Omega, International Journal of Management Science, 22. Jg., Nr. 6, 1994, S. 627 645


[Bellman/Zadeh 1970]

Bellman, R. E. und Zadeh, L. A.: Decision Making in a Fuzzy Environment. In: Management Science, 17. Jg. Nr. 4, 1970, S. B141 B163


[Bender/Nack 1995 Bd. I]

Bender, R. und Nack, A.: Tatsachenfeststellung von Gericht: Band I: Glaubwürdigkeits- und Beweislehre. 2. Aufl. München 1995


[Bender/Nack 1995 Bd. II]

Bender, R. und Nack, A.: Tatsachenfeststellung von Gericht: Band II: Vernehmungslehre. 2. Aufl. München 1995


[Bin Hussain/Wallace 1995]

Bin Hussain, H. und Wallace, W. A.: An Experimental Investigation of the Interaction between Displays and Models in Multicriteria Decision Support. In: Journal of Multi-Criteria Decision Analysis, 4. Jg. 1995, S. 133 159


[Bodily 1985]

Bodily, S. E.: Modern Decision Making: A Guide to Modeling with Decision Support Systems. New York, St. Louis, San Francisco, Auckland, Bogota, Hamburg, Johannesburg, London, Madrid, Mexico, Montreal, New Delhi, Panama, Paris, São Paulo, Singapor, Sidney, Tokyo, Toronto 1985


[Brander u.a. 1989]

Brander, S., Kompa, A. und Peltzer, U.: Denken und Problemlösen: Eine Einführung in die kognitive Psychologie. Opladen 1985


[Brans 1988]

Brans, J. P.: The Promethee Methods for MCDM - The Promcalc, Gaia and Bankadviser Software: Paper zu: Third International Summer School "Multiple Criteria Decision Aid, Methods, Applications and Software". Monte Estoril, Portugal 1988


[Brauchlin 1978]

Brauchlin, E.: Problemlösungs- und Entscheidungsmethodik. Bern, Stuttgart 1978


[Buchanan 1994]

Buchanan, J. T.: An Experimental Evaluation of Interactive MCDM Methods and the Decision Making Process. In: Journal of the Operational Research Society, 45. Jg. Nr. 9, 1994, S. 1050 1059


[Bumbarov/Mitterstöger 1991]

Bumbarov, B. und Mitterstöger, P.: Computergestützte Entscheidungsprozesse. Wien, New York 1991


[Chapman/Chapman 1982]

Chapman, L. J. und Chapman, J.: Test results are what you think they are. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 239 248


[Cohen u.a. 1971]

Cohen, J., Chesnick, E. I. und Haran, D.: Evaluation of compound probabilites in sequential choice. In: Nature, Nr. 32 1971, S. 414 416. Nachgedruckt in: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 355 358


[Dannenberg 1990]

Dannenberg, J.: Mikrocomputergestützte Instrumente der strategischen Unternehmens­planung. Wiesbaden 1990


[Dawes 1979]

Dawes, R. M.: The robust beauty of improper linear models in decision making. In: American Psychologist, 34. Jg., 1979, S. 571 582. Nachgedruckt in: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 391 407


[Diakoulaki u.a. 1995]

Diakoulaki, D., Mavrotas, G. und Papayannakis, L.: Determining objective weights in multiple criteria problems: The Critic Method. In: Computers and Operations Research, 22. Jg. Nr. 7, 1995, S. 763 770


[Dörner 1992]

Dörner, D.: Die Logik des Mißlingens: Strategisches Denken in komplexen Situationen. Reinbek bei Hamburg 1992


[Dörner u.a. 1981]

Dörner, D., Kreuzig, H. W., Reither, F. und Stäudel, T.: Lohhausen: Vom Umgang mit Unbestimmtheit und Komplexität. Bamberg 1981


[Eddy 1982]

Eddy, D. M.: Probabilistic reasoning in clinical medicine: Problems and opportunities. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 249 267


[Edwards 1982]

Edwards, W.: Conservatism in human information processing. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 359 369


[Ehlers 1986]

Ehlers, J.: Stichwort „Tabellenkalkulation, Software für“. In: Schneider, H.-J. (Hrsg.): Lexikon der Informatik und Datenverarbeitung. 2. Aufl. München, Wien 1986, S. 586


[Einhorn 1982]

Einhorn, H. J.: Learning from experience and suboptimal rules in decision making. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 268 283


[Eisenführ/Weber 1993]

Eisenführ, F. und Weber, M.: Rationales Entscheiden. Berlin, Heidelberg, New York, London, Paris, Tokyo, Hong Kong, Barcelona, Budapest 1993


[Festinger 1957]

Festinger, L.: A theory of cognitive dissonance. Stanford, Calif. 1957


[Fischhoff 1982a]

Fischhoff, B.: For those condemned to study the past: Heuristics and biases in hindsight. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 335 351


[Fischhoff 1982b]

Fischhoff, B.: Debiasing. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 422 444


[Frey 1983]

Frey, D.: Informationssuche und Informationsbewertung bei Entscheidungen. Bern 1983


[Geißler 1986]

Geißler, H.: Fehlentscheidungen: Eine empirisch-explorative Ursachenanalyse. Frankfurt am Main, Bern, New York 1986


[Geoffrion 1987]

Geoffrion, A.: An introduction of structured modelling. In: Management Science, 33. Jg., 1987, S. 547 588


[Gettys u.a. 1973]

Gettys, C. F., Kelly, C. W. III und Peterson, C. R.: The best guess hypothesis in multistage inference. In: Organizational Behavior and Human Performance, 10. Jg., 1973, S. 364 373. Nachgedruckt in: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts , S. 370 377


[Graf 1990]

Graf, J.: Murphys Computergesetze. München 1990


[Gzuk 1975]

Gzuk, R.: Messung der Effizienz von Entscheidungen: Beitrag zu einer Methodologie der Erfolgsfeststellung betriebswirtschaftlicher Entscheidungen. Tübingen 1975


[Hauschildt u.a. 1983]

Hauschildt, J., Gemünden, H. G., Grotz-Martin, F., Haidle, U.: Entscheidungen der Geschäftsführung. Tübingen 1983


[Hayes-Roth 1980]

Hayes-Roth, B.: Estimation of time requirements during planning: interaction between motivation and cognition. Rand Corporation Report N-1581-ONR. Santa Monica, California 1980


[Hogarth 1980]

Hogarth, R.: Judgement and choice: The psychology of decision. New York 1980


[Janis 1972]

Janis, I. L.: Victims of groupthink. Boston 1972


[Jennings u.a. 1982]

Jennings, D. L., Amabile, T. A. und Ross, L.: Informal covariation assessment: Data-based versus theory-based judgments. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 211 230


[Kahnemann u.a. 1982]

Kahnemann, D., Slovic, P. und Tversky, A. (Hrsg.): Judgement under uncertainty: Heuristics and biases. Cambridge, Massachusetts 1982


[Kahnemann/Tversky 1972]

Kahnemann, D. und Tversky, A.: Subjective probability: A judgement of representativeness. In: Cognitive Psychology, 3. Jg., 1972, S. 430 454


[Kahnemann/Tversky 1973]

Kahnemann, D. und Tversky, A.: On the psychology of prediction. In: Psychological Review, 80. Jg., 1973, S. 237 251. Nachgedruckt in: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 48 68


[Kahnemann/Tversky 1979]

Kahnemann, D. und Tversky, A.: Prospect Theory: An analysis of decisions under risk. In: Econometrica, 47. Jg., 1979, S. 262 291


[Kahnemann/Tversky 1982a]

Kahnemann, D. und Tversky, A.: On the study of statistical intuitions. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 493 508


[Kahnemann/Tversky 1982b]

Kahnemann, D. und Tversky, A.: Variants of uncertainty. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 509 520


[Kahnemann/Tversky 1982c]

Kahnemann, D. und Tversky, A.: Risiko nach Maß -  Psychologie der Entscheidungspräferen­zen. In: Spektrum der Wissenschaft, März 1982, S. 89 98


[Kahnemann/Tversky 1982d]

Kahnemann, D. und Tversky, A.: Subjective probability: A judgement of representativeness. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 32 47


[Keeney/Von Winterfeldt 1989]

Keeney, R.L. und Von Winterfeldt, D.: On the uses of expert judgement on complex technical problems. In: IEEE Transactions On Engineering Management, 36. Jg., 1989, S. 83 86


[Kellerwessel 1986]

Harald Kellerwessel: Möglichkeiten und Grenzen des Einsatzes von Idea-Processing-Software auf PC´s im Bürobereich. (Unveröffentlichte) Diplomarbeit an der Universität zu Köln, 1986.


[Kirsch 1977]

Kirsch, W.: Einführung in die Theorie der Entscheidungsprozesse. 2. Aufl. Wiesbaden 1977


[Korhonen u.a. 1991]

Korhonen, P., Lewandowski, A. und Wallenius, J. (Hrsg.): Multiple Criteria Decision Support: Proceedings of the International Workshop, held in Helsinki, Finland, August 7 11, 1989. Berlin 1991


[Korhonen u.a. 1992a]

Korhonen, P., Moskowitz, H. und Wallenius, J.: Multiple Criteria Decision Support: A review. In: European Journal of Operational Research, 63. Jg., 1992, S. 361 375


[Krämer 1991]

Krämer, W.: So lügt man mit Statistik. 2. Aufl. Frankfurt/Main, New York 1991


[Krämer 1992]

Krämer, W.: Statistik verstehen: Eine Gebrauchsanweisung. Frankfurt/Main, New York 1992


[Krämer 1994]

Krämer, W.: So überzeugt man mit Statistik. Frankfurt/Main, New York 1994


[Langer 1982]

Langer, E. J.: The illusion of control. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 231 238


[Lemmons 1984]

Lemmons, P.: Beyond the Word Processor: The time has come for text-editing software to surpass the paper operations it mimics. In: BYTE, Jan. 1984, S. 53-56


[Levine/Murphy 1943]

Levine, J.M. und Murphy, G.: The learning and forgetting of controversial material. In: Journal of abnormal social Psychology, 38. Jg., 1943, S. 507 517


[Lexikonredaktion 1983]

Lexikonredaktion des Bibliographischen Instituts (Hrsg.): Meyers Taschenlexikon in 24 Bänden. Mannheim, Wien, Zürich 1983


[Lichtenstein u.a. 1978]

Lichtenstein, S., Slovic, P., Fischhoff, B., Laymann, M. und Combs, B.: Judged frequency of lethal events. In: Journal of Experimental Psychology: Human Learning and Memory, 4. Jg., 1978, S. 551 578


[Lichtenstein u.a. 1982]

Lichtenstein, S., Fischhoff, B. und Phillips, L. D.: Calibration of probabilities: The state of the art to 1980. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 306 334


[Mertens 1986]

Mertens, P.: Stichwort „Simulation“. In: Schneider, H.-J. (Hrsg.): Lexikon der Informatik und Datenverarbeitung. 2. Aufl. München, Wien 1986, S. 534


[Messinger 1993]

Messinger, H., Türck, G. und Willmann, H.: Langenscheidts Taschenwörterbuch Englisch: Englisch Deutsch Deutsch Englisch. 17. Aufl. Berlin, München, Wien, Zürich, New York 1993


[Meyer/Booker 1991]

Meyer, M. A. und Booker, J. M.: Eliciting and analyzing expert judgement: A practical guide. London, San Diego, New York, Boston, Sydney, Tokyo, Toronto 1991


[Miller 1956]

Miller, G. A.: The magical number seven, plus or minus two: some limits on our capacity of information processing. In: Psychological Review, 63. Jg., 1956, S. 81 97


[Nisbett u.a. 1982a]

Nisbett, R. E., Borgida, E., Crandall, R. und Reed, H.: Popular induction: Information is not necessarily informative. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 101 116


[Nisbett u.a. 1982b]

Nisbett, R. E., Krantz, D. H., Jepson, Ch. und Fong, G. T.: Improving inductive inference. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 445 459


[o.V. 1981]

o.V.: Das alte Gehirn und die neuen Probleme: Überfordern Umwelt- und Wirtschaftspolitik das Denkvermögen von Wählern und Politikern? In: Der Spiegel, Nr. 50 1981, S. 66 75


[o.V. 1995]

o.V.: Knacken Sie ihr Ideenpotential! In: Managerseminare, Nr. 21, Oktober 1995, S. 72 81


[o.V. 1996]

o.V.: Volk der Dummköpfe? In: Super Sonntag, 4.2.1996, o.S.


[o.V. 1994]

o.V.: Webster´s New Encyclopedic Dictionary: Englisch Deutsch Deutsch Englisch. 3. Aufl. New York 1994


[Oskamp 1982]

Oskamp, S.: Overconfidence in case-study judgments. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 287 293


[Rickards/De Cock 1994]

Rickards, T. und De Cock, Ch.: Creativity in MS/OR: Training for Creativity - Findings in a European Context. In: INTERFACES, 24. Jg., 1994, S. 59 65


[Robichaux 1994]

Robichaux, B.P.: Sex and Beliefs About Computer-based Information Systems: An Examination of Group Support Systems. In: Omega, International Journal of Management Science, 22, Nr. 4. Jg., 1994, S. 381 389


[Rollinger 1986]

Rollinger, C.-R.: Stichwort „Expertensystem“. In: Schneider, H.-J. (Hrsg.): Lexikon der Informatik und Datenverarbeitung. 2. Aufl. München, Wien 1986, S. 219


[Ross/Anderson 1982]

Ross, L. und Anderson, C. A.: Shortcomings in the attribution process: On the origins and maintenance of erroneous social assessments. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 129 152


[Sikora 1976]

Sikora, J.: Handbuch der Kreativ-Methoden. Darmstadt 1976


[Saaty 1980]

Saaty, T. L.: The Analytic Hierarchy Process. New York; London; Toronto 1980


[Saliger 1988]

Saliger, E.: Betriebswirtschaftliche Entscheidungstheorie. 2. Aufl. München, Wien 1988


[Savory 1988]

Savory, S. E.: Grundlagen von Expertensystemen: Ein Lehrbuch der Nixdorf Computer AG. München, Wien 1988


[Schneider 1986]

Schneider, H.-J. (Hrsg.): Lexikon der Informatik und Datenverarbeitung. 2. Aufl. München, Wien 1986


[Schönwandt 1986]

Schönwandt, W.: Denkfallen beim Planen. Braunschweig, Wiesbaden 1986


[Sell 1991]

Sell, R.: Angewandtes Problemlösungsverhalten: Denken und Handeln in komplexen Zusammenhängen. 3. Aufl. Berlin, Heidelberg, New York 1991


[Shenoy 1994]

Shenoy, P. P.: A comparison of graphical techniques for decision analysis. In: European Journal of Operational Research, 78. Jg., 1994, S. 1 21


[Sieben/Schildbach 1980]

Sieben, G. und Schildbach, T.: Betriebswirtschaftliche Entscheidungstheorie. 2. Aufl. Düsseldorf 1980


[Simon 1969]

Simon: Perspektiven der Automation für Entscheider, Quickborn 1969


[Slovic u.a. 1982]

Slovic, P., Fischhoff, B. und Lichtenstein, S.: Facts versus fears: Understanding perceived risk. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 463 492


[Spies 1995]

Spies, K.: Gezieltes Entwickeln und technisches Gestalten mit der marktorientierten Innovationsstrategie. In: Glückauf 131 Nr. 12., 1995, S. 648 652


[Sprague 1980]

Sprague, H.R. Jr.: A framework for the development of DSS. In: MIS Quarterly, 12. Jg., 1980


[Tilli 1991]

Tilli, T.: Fuzzy-Logik: Grundlagen, Anwendungen, Hard- und Software. München 1991


[Tversky/Kahnemann 1971]

Tversky, A. und Kahnemann, D.: Belief in the law of small numbers. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A.In: Psychological Bulletin, 76. Jg., 1971, S. 105 110


[Tversky/Kahnemann 1974]

Tversky, A. und Kahnemann, D.: Judgement under uncertainty: Heuristics and biases. In: Science, 185. Jg., 1974, S. 1124 1131. Nachgedruckt in: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 3 20


[Tversky/Kahnemann 1982a]

Tversky, A. und Kahnemann, D.: Judgments of and by representativeness. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 84 98


[Tversky/Kahnemann 1982b]

Tversky, A. und Kahnemann, D.: Availability: A heuristic for judging frequency and probability. In: Judgement under uncertainty: Heuristics and biases, hrsg. von Kahnemann, D., Slovic, P. und Tversky, A., Cambridge, Massachusetts 1982, S. 163 178


[Vetschera 1994]

Vetschera, R.: Visualisierungstechniken in Entscheidungsproblemen bei mehrfacher Zielsetzung. In: OR Spektrum, 16. Jg., 1994, S. 227 241


[Weber/Borcherding 1993]

Weber, M. und Borcherding, K.: Behavioral influences on weight judgements in multiattribute decision making. In: European Journal of Operational Research, 67. Jg., 1993, S. 1 12


[Wright 1974]

Wright, P.: The harassed decisions maker: Time pressure, distractions and the use of evidence. In: Journal of Applied Psychology, 59. Jg., 1974, S. 555 561


[Zacharias 1991]

Zacharias, C.: Die Kunst, Probleme zu lösen. 1. Aufl. München 1991


[Zimbardo/Ruch 1978]

Zimbardo, P. G. und Ruch, F. L.: Lehrbuch der Psychologie: Eine Einführung für Studenten der Psychologie, Medizin und Pädagogik. 3. Aufl. Berlin, Heidelberg, New York 1978


[Zimmer 1983]

Zimmer, A. C.: Verbal vs. numerical processing of subjective probabilities. In: Decision Making Under Uncertainty, hrsg. von Scholz, R. W., Amsterdam, New York, Oxford 1983, S. 159 182


[Zimmermann o.J.]

Zimmermann, H.-J.: Entscheidungstheorie Skriptum, 2. Aufl. Aachen, o.J.


[Zimmermann 1971]

Zimmermann, H.-J.: Netzplantechnik. Berlin, New York 1971


[Zimmermann 1991]

Zimmermann, H.-J.: Fuzzy Sets: Its Theorie and its Applications. Boston, Dordrecht, London 1991


[Zimmermann 1992]

Zimmermann, H.-J.: Methoden und Modelle des Operations Research. 2. Aufl. Braunschweig, Wiesbaden 1992


[Zimmermann/Gutsche 1991]

Zimmermann, H.-J., Gutsche, L.: Multi-Criteria Analyse: Einführung in die Theorie der Entscheidungen bei Mehrfachzielsetzungen. Berlin, Heidelberg, New York, London, Paris, Tokyo, Hong Kong, Barcelona, Budapest 1991


Versicherung


Ich versichere hiermit, daß ich die vorliegende Arbeit selbständig und ohne Benutzung anderer als der angegebenen Hilfsmittel angefertigt habe. Alle Stellen, die wörtlich oder sinn­gemäß aus veröffentlichten und nicht veröffentlichten Schriften entnommen sind, sind als solche kenntlich gemacht. Die Arbeit ist in gleicher oder ähnlicher Form noch nicht als Prüfungsarbeit eingereicht worden.


Aachen, den


Lebenslauf


Persönliche Daten

Name: Harald Kellerwessel

Adresse: Borngasse 35, 52064 Aachen

Geburtsdatum: 27.12.1960

Geburtsort: Kamen

Familienstand: ledig


Schulbildung

1966 bis 1970 Grundschule in Köln-Porz

1970 bis 1971 Stadtgymnasium Porz

1971 bis 1979 Couven-Gymnasium Aachen


Studium und Zivildienst

06. 1979 bis 08. 1979 Praktikum für Maschinenbau bei der Klöckner-Humboldt-Deutz AG

10. 1979 bis 02. 1980 Studium des Maschinenbau an der RWTH Aachen

03. 1980 bis 06. 1981 Zivildienst - in Stuttgart

10. 1981 bis 03. 1984 Studium der Betriebswirtschaft an der RWTH Aachen

04. 1984 bis 11. 1987 Studium der Betriebswirtschaft an der Universität Köln

Schwerpunkte: Organisation, Unternehmensrechnung, Informatik

10. 1987 bis 09. 1988 Studium der Physik und Mathematik an der Universität Köln

10. 1988 bis 09. 1989 Studium der Physik und Mathematik an der RWTH Aachen

03. 1993 bis heute Operations-Research-Zusatzstudium an der RWTH Aachen


Berufspraxis

10. 1986 bis 12. 1992 Zunächst Praktikant, dann freier Mitarbeiter im Bereich

Software-Entwicklung für die Organisationsabteilung der

Philips Kommunikations Industrie AG in Köln

09. 1993 bis 07.1996 Projektleiter bei der WORKS EDV-Service GmbH, Aachen





Counter

Harald K., E-Mail: eumel100@web.de

Impressum