Die Umsetzungsberatung

Rezensionen

Systeme so anlegen, dass das Lernen aus Misserfolgen begünstigt wird

Harford, Tim (2012):

Trial and Error

Warum nur Niederlagen zum Erfolg führen (Orig.: Adapt – Why Success Always Starts With Failure)

Rowohlt Verlag (Reinbek); 427 Seiten; 19,95 Euro


Nutzen / Lesbarkeit: 5 / 8

Rezensent: Winfried Berner, 27.12.2013

Jetzt bei Amazon.de bestellen

Zentrale These: Genau wie die biologische Evolution benötigen auch Wirtschaft und Gesellschaft Variation und Selektion (sprich: Experimente und Fehlschläge), um voranzukommen. Flüssig geschrieben, aber sehr wortreich mit magerem Erkenntnisgewinn.

Der Begeisterung des SZ-Rezensenten, die mich zum Kauf dieses Buches veranlasst hat, kann ich mich leider nicht anschließen. Ja, das Buch ist gut geschrieben; es liest sich schnell und mühelos, streckenweise sogar spannend – aber was nützt das, wenn an Erkenntnissen wenig hängenbleibt? Und wenn man, je weiter man vorankommt, umso häufiger verwirrt über die vielen genannten Personen ist, weil, wie in einem überladenen Theaterstück, viel zu viele Nebenrollen an Stellen wieder auftauchen, wo man sich kaum noch an sie erinnern kann?

Die Übersetzung ist als "kongenial" zu bezeichnen. Sie ist flüssig, lässt aber vor allem im hinteren Teil des Buches die letzte Genauigkeit vermissen. Manche Argumente und Schlussfolgerungen erschließen sich erst, wenn man ihre englische Fassung gedanklich rekonstruiert oder im Original nachschlägt. Das ist umso bedauerlicher, als überraschende Einsichten ohnehin dünn gesät sind: Schon lange nicht mehr habe ich mir in einem Buch so wenig angestrichen wie in diesem. Was auch daran liegt, dass der Autor seine Gedanken oft nicht zu Ende führt: Während man noch über das Fazit der letzten Geschichte nachdenkt, wartet er schon mit der nächsten Anekdote auf.

Auf diese Weise wirkt das Buch etwas oberflächlich, streckenweise sogar geschwätzig: Wieder 30 Seiten gelesen, ohne Mühe, aber auch ohne nennenswerten Ertrag. Harford erzählt gern, und er erzählt gut, sodass man ihm zunächst gerne folgt. Doch die anfängliche Begeisterung verfliegt im Laufe des Lesens. Von Zeit zu Zeit würde man sich wünschen, dass er einmal zusammenfasst, was er erzählt hat und warum er es eigentlich erzählt hat. Sonst sind seine Geschichten nur Smalltalk, nur ein eloquenter Pausenfüller, belanglose Verhinderung von Langeweile. Deswegen plaudert man, aber deswegen liest man kein Buch. Schade: Vermutlich hätten 10 Prozent mehr Arbeit aus diesem wortreich-unstrukturierten Werk ein wirklich gutes gemacht.

Zur Konfusion trägt schon der Titel bei. "Trial and Error" klingt, als hätte der Verlag für die Übersetzung einfach den englischen Titel beibehalten. Doch das ist nicht der Fall: Der englische Titel heißt "Adapt". Was hat den Verlag geritten, für die deutsche Übersetzung einen anderen – und deutlich weniger treffenden – englischen Titel zu wählen? Mit dem Originaltitel "Adapt" schließt sich ein Kreis, wenn die beiden letzten Kapitel "Adaptive Organisationen" und "Der Mensch – ein anpassungsfähiges (adaptive) Wesen" lauten. Mit "Trial and Error" erschließt sich gar nichts.

Und was habe ich aus dem Buch gelernt? Dass der Unterschied zwischen Markt- und Planwirtschaft nicht darin besteht, dass in der Marktwirtschaft alles klappt, sondern dass sie Fehler und Irrtümer schneller und kostengünstiger korrigieren kann, wusste ich schon vorher. Dass sich nicht alles vorhersehen lässt, sondern dass man irgendwann einfach ein Experiment wagen muss, um der Realität eine faire Chance gegen die eigenen Annahmen zu geben, habe ich selber schon oft geschrieben.

Richtig wertvoll sind aber die drei Prinzipien des russischen Ingenieurs Peter (Pjotr?) Palchinsky (auch wenn sie ihm die Ungnade Stalins eingebracht und so sein Leben außerplanmäßig beendet haben):

"1. Entwickle Ideen und verfolge neue Ansätze.
2. Wenn du etwas Neues probierst, dann tu es in einer Größenordnung, in der ein Scheitern zu verschmerzen ist.

3. Fordere Rückmeldungen ein und lerne aus deinen Fehlern." (S. 44)

Die Fähigkeit, aus Fehlern zu lernen, beginnt mit der Bereitschaft, sie sich einzugestehen. Das fällt uns Menschen teuflisch schwer, und daraus können verheerende Folgeschäden entstehen, wie die renommierten Entscheidungsforscher Daniel Kahneman und Amos Tversky festgestellt haben: "Ein Mensch, der mit seinen Verlusten keinen Frieden geschlossen hat, tendiert dazu, Risiken einzugehen, die für ihn anderenfalls nie akzeptabel wären." (S. 53)

Nicht überraschend, aber von großer praktischer Bedeutung ist, dass die Schwierigkeit, sich und anderen Fehler eingestehen, auch für Menschen auf hohen und höchsten Hierarchieebenen gilt. Wenn sie diese Abneigung mit der auf diesen Ebenen häufig anzutreffenden Dominanz zum Ausdruck bringen, erhalten sie bald kein ehrliches Feedback mehr, weil nur wenige Untergebene riskieren wollen, das Schicksal von Pjotr Palchinsky zu teilen. Das wiederum kann sowohl für die betreffenden Chefs als auch für ihre Unternehmen oder Organisationen existenzbedrohende Folgen haben. Neu ist diese Erkenntnis sicherlich nicht, aber so wichtig, dass es gerechtfertigt ist, sie – in einladender erzählerischer Abwandlung – immer wieder zu erzählen.

Dann plätschert das Buch dahin, mit immer neuen Geschichten, Forschungsbefunden, Anekdoten. Nach rund 200 Seiten habe ich ernsthaft erwogen, die Lektüre abzubrechen. Was wäre mir dabei entgangen? Zumindest ein wirklich wichtiger Gedanke aus dem sechsten Kapitel "Finanzielle Kernschmelzen verhindern – Entkoppelung". Darin stellt Harford nicht nur fest, dass das Lernen aus Fehlschlägen dann nicht mehr funktionieren kann, wenn die Folgen von Fehlern katastrophal wären.

Das gilt für viele Großtechnologien, aber es gilt auch für das Finanzwesen, das nach Feststellung des Risikoforschers Charles Perrow "komplexer als jedes Kernkraftwerk" ist (S. 265). Nach dessen Erkenntnissen steigt die Gefahr großer Katastrophen extrem an, wenn Systeme erstens sehr komplex sind und zweitens eng gekoppelt, was soviel heißt wie, dass Probleme in einem Teilsystem schnell und ungedämpft auf das Gesamtsystem durchschlagen. Solche Systeme können bei einer lokalen Störung sehr rasch völlig außer Kontrolle geraten, wie Harford an zahlreichen Beispielen – an denen mangelt es ihm nie – zeigt.

Weil Sicherungssysteme entgegen all ihren Intentionen immer auch selbst zur Gefahr werden können, sieht Harford die einzige Chance in einer bewussten Entkoppelung der Systeme, um so die Ansteckungs- und vor allem die Epidemiegefahr, so gut es eben geht, zu unterbinden. Er plädiert deshalb überzeugend für ein Trennbankensystem, um den "Casino- und den Versorgungsbereich von Banken strikt voneinander zu trennen" (S. 296) Denn sonst besteht die ständige Gefahr einer "Kernschmelze" des gesamten Finanzsystems, wenn auch nur eine einzige Bank sich entweder verspekuliert hat oder durch Betrügereien in Zahlungsschwierigkeiten kommt. Das könnte zur Folge haben, dass dann systemweit (also in diesem Fall weltweit) der Zahlungsverkehr, die Kreditvergabe und die Spareinlagen kollabiert – was zu einer unaufhaltsamen Kettenreaktion der Insolvenz von Banken, Wirtschaftsunternehmen und Privathaushalten führen würde. Ähnliche Entkoppelungen empfiehlt er auch für andere komplexe Systeme.

Ganz umsonst war es also doch nicht, dieses Buch zu lesen. Aber so ergiebig, wie es sein könnte und sollte, war es auch nicht.

Schlagworte:
Evolution, Lernen, Fehler, Irrtümer, Misserfolge, Fehlschläge

Plagiate dieser Website werden automatisiert erfasst und verfolgt.