Weltverstand (http://felixstockinger.de)
                       
Begriffsdefinition
Weltverstand kann auf drei Arten interpretiert werden: 
a)  eine Art Verstand, der allen Gegebenheiten der Welt innewohnt 
b) das potentielle Wissen aller lebenden menschlichen Individuen, das bisher weitgehend ungenutzt blieb 
c) anerkanntes Wissen über diese Welt (Weltverständnis) 

Die Interpretation unter a) kommt den Begriffen "Information" und "Selbstorganisation" nahe. 
Auf b) bezieht sich der Abschnitt "Erschließung ungenutzter Wissensresourcen
Das unter c) genannte Weltverständnis, soll dem Leser durch die übrigen der nachgenannten Themen nähergebracht werden.           

  Inhaltsverzeichnis          Stichwortregister

Inhalt:
Benutzungshinweise, Einführung, Glauben und wissen, Naturwissenschaft und Wahrheit, Kosmos und Universum, Urknall,
Entwicklung des Kosmos, Was war vorher? Die erste Sterngeneration, Die Entstehung unserer Sonne und ihrer Planeten,
Der Einfluss des Lebens auf die ErdgeschichteDie vierte Dimension, Raumkrümmung und Kugelraum,
Das Zeitalter der Information, Ordnung und Unordnung, Selbstorganisation, Die Entstehung und Entwicklung lebendiger WesenLeib und Seele,
Technik als Teil menschlicher WeiterentwicklungGrenzen der Erkenntnis, Erschließung ungenutzten Wissenspotentials,
Problemlösungen in Internet- und Intranet-Foren,   Demokratie und Parteien im Internet-Zeitalter
Nachwort und Literaturhinweis, Kochrezept für Sewerettich, Begriffserklärungen, Stichwortregister,
Der Weg zum Atommodell in Kürze, Radioaktivität und Kernphysik, Begabung, Arteriosklerose ist vermeidbar

Benutzungshinweise
Hochgestellte blaue Ziffern, z.B. 3 sind Fußnoten zur Erklärung der Begriffe (einfach anklicken!)
Sehr große oder sehr kleine Zahlen werden mit Hilfe von Zehnerpotenzen dargestellt Z.B. bedeutet:
10                   10 Millionen, also eine 1 mit 7 Nullen
3,15*109            3 150 000 000  oder 3,15 Milliarden
10-5 = 0,00001  also eine 1 an der 5. Stelle hinter dem Komma
4,17*10-7         0,000000417
                                                                                                                                                 zurück zum Seitenanfang                   zurück zu Inhalt!

Einführung
Die letzten Jahrzehnte des zwanzigsten Jahrhunderts haben Antworten auf eine Fülle von Fragen gegeben, die mit der Herkunft (Urknall, Entstehung von Sonnensystem und Leben), den Risiken und dem Schicksal unserer Welt zusammenhängen. Parallel zu diesem grandiosen Wissenszuwachs, der der breiten Öffentlichkeit bisher nahezu völlig verborgen blieb, geht eine Orientierung menschlicher Interessen hin zum Mystizismus1, die einem Rückfall in die mittelalterliche Geisteswelt gleichkommt. Man beachte nur das Angebot an esotherischer2 und pseudoreligiöser3 Literatur moderner Buchhandlungen und vergleiche es mit dem der naturwissenschaftlichen.

Ursache dieser Entwicklung ist der nach wie vor vorhandene Wunsch nach einem plausiblen Verständnis unserer Welt und dem Wunsch diese zu verbessern oder zumindest selbst ihren zahlreichen Mängeln zu entfliehen und sei es durch Flucht in eine Scheinwelt4. Fragt man, warum nicht der aussichtsreichere Weg nach gesicherter Erkenntnis und Nutzung derselben zum allgemeinen und damit auch zum eigenem Wohl gewählt wird, dann ist die einfache Antwort: "Das ist zu kompliziert!" Die billigen Antworten der Heilsapostel erscheinen bequemerer.

Tatsächlich stellen selbst populärwissenschaftliche Werke durch ihren Umfang und eine Fülle oft nicht näher definierter Fachausdrücke hohe Anforderungen, oft selbst an den fachlich vorgebildeten Leser und bleiben damit der breiten Öffentlichkeit verborgen. Dies liegt an dem verständlichen Wunsch der Autoren, dem Leser einen möglichst tiefen und vollständigen Einblick in das komplexe Zusammenspiel der beschriebenen Vorgänge zu geben. Der Laie resigniert jedoch vor dicken Büchern, deren Studium viel Zeit kostet und die meist doch kaum verstanden werden.

Die Kapitulation vor der Schwierigkeit, das einer kleinen Elite verfügbare Wissen der Allgemeinheit zumindest in den Grundzügen zugänglich zu machen, führt zu vernichtenden Auswirkungen durch Unwissen oder Halbwissen. Denn mit den Werkzeugen, Theorien, Methoden und Apparaten, deren sich der Mensch bedient, die Produkte seines Denkens sind und die ihm fortschreitend die äußere Welt enthüllen, wächst er gleicherweise an Erkenntnis und schafft sich so ein geistiges Bild des Universums, einen inneren Kosmos, in dessen Licht sich sein Denken und seine Individualität5entfalten.

Das aus der Unwissenheit über den Kosmos und seinen Werdegang resultierende engstirnige Denken ist wohl der Hauptgrund für das katastrophale Fehlverhalten der Menschen, das Millionen in Not und Elend treibt und der Menschheit den Lebensraum mit atemberaubender Geschwindigkeit entzieht. Das Studium moderner naturwissenschaftlicher Erkenntnisse zeigt immer mehr, wie sensibel das Zusammenspiel der Naturvorgänge selbst auf winzige Eingriffe reagiert und wie unwahrscheinlich und labil das Gleichgewicht ist, das uns Überlebensmöglichkeit bietet.

Diese Webseite will versuchen, einfache Antworten auf verschiedene Fragen nach unserem Woher und Wohin zu geben, die erfahrungsgemäß auch den einfachen Mann auf der Straße interessieren (diese Floskel ist nicht geschlechtsspezifisch zu verstehen, denn Frauen haben diesbezüglich nahezu die gleichen Interessen).

Einfache Antworten können nicht gleichzeitig vollständig sein. In vielen Fällen ist Vollständigkeit auch gar nicht erwünscht. Unvollständige Antworten sind besser als unverständliche oder gar keine. Ist das Interesse an einer Sache erst geweckt, dann wird der Leser sicher Wege finden, anhand der neu gelernten Begriffe, Stichworte und Hinweise sein Wissen nach und nach zu ergänzen, statt vor dicken Wälzern zu kapitulieren.

Dieses Wissen einer breiten Leserschaft zugänglich zu machen, ist mir ein besonderes Anliegen. Nur wer sich für die Entwicklungsgeschichte von Sternen, Planeten und Lebewesen interessiert, in die wir auch heute noch voll verstrickt sind, kann ermessen, wie unwahrscheinlich und labil das Gleichgewicht ist, das den Bestand höheren Lebens ermöglicht. Durch die großartigen Erfolge der einschlägigen Forschung in den letzten Jahrzehnten wird auch erst der Sinn der von uns allen getragenen, kostspieligen Investitionen für Raumfahrt, Astronomie und moderne Grundlagenforschung erkennbar, die uns ein Verständnis bisher ungeahnter Tiefe für den Aufbau und die Entwicklung des Kosmos, unseres Sonnensystems und für die Entwicklung des Lebens auf der Erde vermittelt haben. Dieses kostbare Wissen sollte auch allen zugute kommen, die dafür bezahlt haben.

Ebenso werden durch den Einblick in das komplizierte Zusammenspiel der Naturvorgänge die Voraussetzungen für das Nachdenken über unseren gedankenlosen Umgang mit den vielen unersetzbaren Schätzen unserer Welt und über die verhängnisvollen Auswirkungen der vielen unumkehrbaren Veränderungen geschaffen, die wir Menschen bewirken. Ein Umkippen6 unserer Welt in einen nur geringfügig anderen Zustand, wie das auf der Erde schon mehrfach geschah, würde die Menschheit kaum überleben.

Die Beschäftigung mit den grundlegenden Fragen nach unserem Woher und Wohin mag auch etwas ablenken von der unheilvollen Beschäftigung mit rücksichtsloser Gewinnmaximierung, die drauf und dran ist, die Gesellschaft in den Ruin zu führen. Ganz zu schweigen von dem Wahnsinn moderner Kriege, in denen neben all dem Elend für die Betroffenen die knappen Resourcen der Menschheit drastisch reduziert werden. Man denke nur an den Energiebedarf für das Baumaterial ganzer Städte, die oft in wenigen Tagen nahezu völlig zerstört werden. Nur allzu oft geschieht solches lediglich, um einzelnen weltlichen oder kirchlichen Führungspersonen und deren Clique eine Zeit lang den Fortbestand ihrer Macht und ihres Überflusses zu erhalten.

Um solchen Fehlentwicklungen, sowie den ständigen politischen Skandalen, die oft wochenlang die dringend notwendigen Arbeiten von Politikern lähmen, die Grundlage zu entziehen, wird man sich künftig fragen müssen, ob die weltweite Vernetzung aller Bürger die Arbeit von hochbezahlten Volksvertretern überhaupt noch erforderlich macht. Das ungeheure Wissens- und Erfahrungspotential aller unterstützungswilliger Bürger sollte vielmehr unmittelbar angezapft, bewertet und gegebenenfalls in sinnvoller Weise durch entsprechend geschulte Fachleute umgesetzt werden.

Einzelpersonen oder Personengruppen Macht zu verleihen, die sie zum Schaden von Millionen missbräuchlich verwenden können, erscheint in einem solchen System überflüssig und vermeidbar.

zurück zu Inhalt!
Glauben und wissen
Glauben und wissen standen oft in einem gewissen Gegensatz. Während vor allem religiöse Menschen geneigt sind, bestimmte Dinge bedingungslos zu glauben, lehnen viele wissenschaftlich gebildete Menschen solches ab und sind nur geneigt, die ihrer Meinung nach hinreichend gesicherten und jederzeit überprüfbaren Erkenntnisse anzuerkennen. Dabei wird oft übersehen, dass wir auch die Erkenntnisse unserer Wissenschaft fast nie überprüfen. Wir glauben einfach, dass die Menschen, die diese Erkenntnisse gewonnen haben, genügend sorgfältig vorgegangen sind und dass die Ergebnisse grundsätzlich überprüfbar sind. Versuchen wir selbst neue Erkenntnisse zu veröffentlichen, dann erhalten wir eine Flut kritischer Zuschriften, die uns zeigen, wo eventuelle Schwächen unserer Erkenntnis liegen. Es existiert also offensichtlich eine recht gut funktionierende Kontrollinstanz, die sorgfältig filtert und nur hinreichend gesicherte Erkenntnisse durchgehen lässt.

Das und die Richtigkeit all der von uns tatsächlich überprüften Aussagen macht uns so sicher, auch den Erkenntnissen Glauben zu schenken, die wir aus Zeit- und Aufwandsgründen nicht selbst überprüfen können. Hierin unterscheidet sich der Glaube in der Wissenschaft von dem in der Religion, die sich nur auf Aussagen von Menschen beruft, die längst gestorben und deren Aussagen und Wirken daher nicht mehr mit letzter Klarheit überprüfbar sind.

Im Bereich der Astronomie war der Konflikt zwischen Glauben und Wissen lange Zeit besonders deutlich. Inzwischen gibt es Erkenntnisse, die selbst hartgesottene Atheisten unter den Naturwissenschaftlern nachdenklich stimmen. In ihren Weltmodellen spielen die Naturkonstanten (Gravitationskonstante, Lichtgeschwindigkeit, Elektrisches Elementarquantum, Plancksches Wirkungsquantum, Feinstrukturkonstante) eine grundlegende Rolle für den Verlauf der Entwicklung des Kosmos. Man kann diese Konstanten sehr genau bestimmen, aber es gibt keinen Anhaltspunkt, weshalb sie genau diese Werte haben.  Versuche, sie in Weltmodellen nur geringfügig zu verändern, führen auf Kosmen, in denen sich Leben nie hätte entwickeln können. Gestandene Astrophysiker sagen heute:
"sie haben genau diese Werte, weil es uns gibt!".

Beschäftigung mit der Astronomie hat es zu allen Zeiten gegeben und sie hat die kulturelle und zivilisatorische Entwicklung stets beeinflusst. Sie bestimmte die Zeitmessung, das Kalenderwesen, die Navigation7 und die Landwirtschaft (die alljährlichen Nilüberschwemmungen begannen z.B. immer, wenn Sirius am Morgenhimmel wiedererschien).

Himmelserscheinungen wurden zunächst mit Mythologie8 und Theologie9 verbunden. Erst die seefahrenden Griechen gaben sich mit der mythologischen Welterklärung nicht zufrieden und suchten nach einem wirklichen Verständnis der Naturvorgänge. Ihre Erfolge waren beachtlich. Nachdem Euklid um 325 v.Chr. die nach ihm benannte Geometrie schuf, wurde diese schon damals benutzt, um die Erde und die ihr benachbarten Himmelskörper zu vermessen.

So wusste schon Thales von Milet im 6. Jahrhundert v. Chr., dass die Mondphasen durch Sonnenbeleuchtung verursacht werden, lehrten die Pythagoreer, dass Erde, Mond und Sonne Kugelgestalt besitzen und dass die Erde sich dreht und Merkur und Venus um die Sonne laufen. Eratosthenes berechnete um 250 v.Chr. den Erdumfang mit einem Fehler von weniger als 2%, und Aristarch von Samos, der bereits ein Weltsystem mit der Sonne im Zentrum - also ein heliozentrisches System - lehrte, versuchte etwa zur gleichen Zeit die Entfernungen Sonne-Erde und Erde-Mond in ein Zahlenverhältnis zu bringen; er folgerte, dass die Fixsterne10 ungeheuer viel weiter entfernt sein müssen als die Planeten.

Im 2. Jahrhundert v. Chr. trug Hipparch alle Daten zu einem Sternkatalog zusammen, der bis ins 16. Jahrhundert an Genauigkeit unübertroffen blieb. Als ebenso fruchtbar erwies sich die griechische Idee des Elementaren, darunter die Lehre von Grundbausteinen, aus denen alle materiellen Körper zusammengesetzt sind. Dies waren bei den vorsokratischen Naturphilosophen die vier Grundelemente Feuer, Wasser, Erde, Luft und später Demokrits Atome. In der Geometrie waren es die Elemente Gerade und Kreis.

Das astronomische Wissen geriet jedoch durch allerlei philosophische und theologische Lehren und durch politische Vorgänge in Vergessenheit und wurde erst durch Kopernikus, Kepler, Galilei, Newton usw. neu entdeckt, die erkannten, dass Gedankenmodelle über die Welt nicht allein durch bloßes Nachdenken gefunden werden können. Vielmehr muss das Denken mit systematischen Untersuchungen der Naturvorgänge kombiniert werden um wirklichkeitsnahe Denkmodelle (Theorien) zu finden. Beobachtung und Experiment, gepaart mit mathematischen Überlegungen wurden bis heute zur leistungsfähigsten naturwissenschaftlichen Arbeitsmethode.

zurück zu Inhalt!


Naturwissenschaft und Wahrheit

Wissenschaftliche Theorien können nicht falsch sein! Sie gelten allerdings nur für jenem beschränkten Anwendungsbereich, für den sie erarbeitet und überprüft wurden und sind deshalb keine endgültigen Wahrheiten. Sie sind Modelle, die das Verhalten innerhalb dieses Anwendungsbereiches sicher vorhersagbar machen. Theorien entstehen aus Hypothesen. Diese sind Gedankenmodelle, die richtig oder falsch sein können. Man macht deshalb Beobachtungen und Experimente, um solche Hypothesen an der Wirklichkeit zu prüfen.

Nur wenn eine Hypothese alle bekannten Phänomene11 ihres Anwendungsbereiches richtig beschreibt, kann sie zur Theorie werden. Dazu muss allerdings noch die Forderung erfüllt werden, mindestens ein unbekanntes Phänomen vorherzusagen, das experimentell bestätigt wird. Durch eine Theorie wird also das Wissen der Menschheit nicht nur geordnet, sondern auch erweitert.

Wird ein neues Phänomen entdeckt, das durch die geltende Theorie nicht erklärt werden kann, dann versucht man eine umfassendere Hypothese zu finden und sie in mühevoller Kleinarbeit zur Theorie zu machen. Die ursprüngliche Theorie behält jedoch für ihren Anwendungsbereich ihre Bedeutung, da sie meist ein einfacheres Modell für diesen darstellt. Sie ist als Spezialfall in der neuen Theorie mit enthalten. Die Aussage "diese Theorie ist falsch" beweist nur, dass die Begriffe Theorie und Hypothese verwechselt wurden oder dass ein Pseudowissenschaftler12 seine Hypothesen als Theorie ausgegeben hat.

Die ständige Anpassung naturwissenschaftlicher Theorien an neu gewonnene Erkenntnisse kommt einer sukkzessiven Annäherung an die "Wahrheit" gleich. Ob diese je erreicht werden kann, bleibt offen. Dennoch ist jeder Annäherungsschritt wertvoll, da vermehrtes Wissen auch neue Möglichkeiten erschließt, die die Überlebensmöglichkeiten verbessern und das Leben bereichern können.

zurück zu Inhalt!
Kosmos und Universum
Als Kosmos bezeichnen wir das uns durch Beobachtungen grundsätzlich zugängliche Weltall aus Raum und Zeit. Da es offenbar von endlicher Größe aber dennoch grenzenlos, d.h. durch Raumkrümmung in sich geschlossen ist ( vergleichbar mit einer endlichen, aber infolge ihrer Krümmung in sich geschlossenen und daher grenzenlosen Kugeloberfläche), kann man es als Teil eines übergeordneten "Universums" sehen, das auch andere Kosmen enthalten könnte.
zurück zu Inhalt!
Urknall
Der amerikanische Astronom Edwin Powell Hubble entdeckte 1929 durch Aufspaltung des Lichtes weit entfernter  Galaxien13 (Ansammlungen von vielen Milliarden Einzelsternen) in die dem Regenbogen ähnlichen Spektralfarben14, eine Farbverschiebung in Richtung zum Rot, was einer Verlängerung der Wellenlänge dieses Lichtes mit zunehmender Entfernung vom Beobachter entspricht. Rotverschiebungen von Lichtspektren15 wachsen monoton mit der Geschwindigkeit, mit der sich die Lichtquelle vom Beobachter entfernt.

Aus der Größe dieser Rotverschiebung kann man nach der bekannten Formel für den optischen Dopplereffekt16 die Geschwindigkeit ermitteln, mit der sich der Abstand vergrößert. Es zeigte sich, dass die Geschwindigkeiten, mit denen sich die Galaxien von uns entfernen, dem Abstand proportional sind, also bei doppelter Entfernung doppelt so groß. Es ist, als ob sich der gesamte Raum ausdehnt, wie beim Aufblasen eines Luftballons.

Denkt man sich den Vorgang umgekehrt, dann kann man aus den beobachteten bzw. errechneten  Geschwindigkeiten ausrechnen, wann das Weltall auf einen Punkt zusammengeschrumpft ist. Die Zeitdauer bis dahin muß offensichtlich mit dem Alter des Weltalls17 übereinstimmen, das offenbar zu diesem Zeitpunkt nahezu von der Größe eines Punktes war.

Bei diesem gedachten Zusammenstürzen des Weltalls wird die gesamte, in diesem enthaltene Energie auf immer kleinere Räume konzentriert. Das führt zu einem Anwachsen der Geschwindigkeiten und Temperaturen aller darin enthaltenen  Materie18 (Körper, Gase und Flüssigkeiten bzw. der Teilchen, aus denen sie bestehen) und Strahlen19 (elektromagnetische Wellen wie Radiowellen, Licht einschließlich UV und Infrarot, Röntgen- und Gammastrahlen). Der Photoeffekt zeigt, dass Strahlen auch Stöße ausüben, sich also auch wie bewegte Teilchen verhalten. Diese Teilchen nennt man Lichtquanten oder Photonen20.

Aus zahlreichen Experimenten mit riesigen Teilchenbeschleunigern21 und aus der Erforschung der Vorgänge in den Sternen weiß man, wie Materieteilchen und Photonen sich beim Zusammenprall unter verschiedenen Energiebedingungen verhalten und kann damit Rückschlüsse auf den Zustand des Kosmos in seiner frühesten Entwicklungsstufe ziehen. Dieser Zustand ist durch die, der jeweiligen Größe des Kosmos bei der Expansion22 gegebene Energiedichte bestimmt. Sie lässt sich einigermaßen sicher zurückverfolgen bis zur sogenannten Planckzeit = 10-43 Sekunden nach dem Urknall, da man die bei diesen Energiedichten und Temperaturen (1032 Grad) stattfindenden Wechselwirkungen aus den Erfahrungen an modernen Teilchenbeschleunigern abschätzen kann. Zeitspannen unterhalb der Planckzeit ermöglichen auf Grund der Heisenbergschen Unschärfe keine Möglichkeit mehr, Ursache und Wirkung zu unterscheiden, Die physikalischen Gesetze, sowie Raum und Zeit verlieren in dieser Planck-Welt ihre Bedeutung. Die Frage "was war vor dem Urknall?" ist sinnlos, da es ohne Zeit auch kein "davor" gibt.

Bei noch höheren Temperaturen, bzw. Energiedichten wird die Quantennatur23 des Gravitationsfeldes wesentlich und alle Kräfte (Gravitation24, elektromagnetische Kräfte25, Kernkräfte26 und die Wechselwirkungskräfte27 der leichten Elementarteilchen) vereinheitlichen sich zu einer gemeinsamen Superkraft28. Erfahrungen aus diesem Bereich liegen jedoch nicht vor. Seit einigen Jahren versucht man in Genf mit dem LHC, dem größten und teuersten Teilchenbeschleuniger der Welt, durch Zusammenprall von Protonen in diesen Energiebereich vorzustoßen und die Vorgänge beim Urknall zu erforschen

Die Entwicklung des Kosmos nach der Planckzeit wird jedoch durch Standardmodell des Kosmos recht zuverlässig beschrieben.

Bis zur ersten zehnmilliardstel Sekunde (10-10 s) nach dem Urknall dauerte die Ära der Elementarteilchen (Quarks29, Leptonenfelder30 und Photonen). Die unvorstellbar kurzen Zeiten dieser Anfangsphase hängen mit den kurzen Zerfalls-31 und Reaktionszeiten32 der beteiligten Teilchen zusammen. Nach dieser Zeit, bis zur ersten millionstel Sekunde (10-6 s) nach dem Urknall sinkt die Temperatur von 1015 auf 1013 Grad. In diesem Bereich sind freie Quarks nicht mehr möglich, sie schließen sich zu den Bausteinen der Atomkerne (Protonen33, Neutronen34,...) zusammen. Die Teilchendichten der verschiedenen Arten zu jedem Zeitpunkt in dieser Zeitspanne lassen sich nach dem Massenwirkungsgesetz35 als Gleichgewicht zwischen den jeweiligen Bildungs- und Vernichtungsprozessen bestimmen.

Die Bildung von Materie-Antimateriepaaren36 ist jedoch nur möglich, solange die beteiligten Teilchen oder Photonen in der Lage sind, deren Ruhenergie37 E=2mc2 aufzubringen. Das ist bei Temperaturen ab 1013 Grad der Fall. Darunter wird Materie bei jedem Zusammentreffen eines Teilchens mit seinem Antiteilchen in Photonen zurückverwandelt. Neue Materie kann dann nicht mehr erzeugt werden.

Aufgrund einer bisher ungeklärten Unsymmetrie zwischen Materie und Antimaterie ist unter 1010 Grad alle Antimaterie vernichtet, nicht aber alle normale Materie. Das ist etwa 1 Sekunde nach dem Urknall der Fall. Von nun an findet ein weiteres Anwachsen der Materie nicht mehr statt. Auf ein Baryon (dieser Teilchenfamilie gehören als bekannteste Vertreter Proton und Neutron an) kommt eine Milliarde Photonen. Mit der aus Photonen erzeugten Materie kommt die allgemeine Massenanziehung (Gravitation) mit ins Spiel. Bei der immer noch hohen Temperatur und Energiedichte überwiegen jedoch die Strahlungskräfte. Der Kosmos ist "strahlungsdominiert".

Bei 10 Milliarden Grad (=1010 Grad) setzen Kernreaktionen ein. Protonen und Neutronen bilden Deuterium-Kerne38 (Kerne des "schweren Wasserstoffs"), die sich wiederum paarweise zu Helium-Atomkernen verbinden. Wegen der kosmischen Expansion brechen diese Reaktionen nach etwa 1000 Sekunden ab. In dieser Zeit bildete sich ein Wasserstoff-Helium-Deuterium-Gemisch im Masseverhältnis von100000:25000:1. Die Temperatur erreicht nach diesen 1000 Sekunden etwa 300 Millionen Grad. Die heute in der interstellaren Materie vorhandenen Helium- und Deuteriummengen stammen vollständig aus dieser Zeit. Die Häufigkeiten dieser Elemente spielen daher eine Schlüsselrolle für die Beurteilung der thermischen Zustände in der ersten Viertelstunde nach dem Urknall.

Im strahlungsdominierten Kosmos wird die Materie durch die ständige Wechselwirkung mit Photonen homogenisiert39. Erst nach 300000 Jahren sinkt die Temperatur auf 3300 Grad Celsius, der Ionisationstemperatur40 des Wasserstoffs. Elektronen und Protonen verbinden sich zu elektrisch neutralen Wasserstoff-Atomen41. Damit wird die Wechselwirkung der Materie mit den Photonen drastisch reduziert, so dass sich die Photonen frei ausbreiten können. Das Weltall wird durchsichtig. Sein Radius beträgt zu dieser Zeit etwa 1/1000 des heutigen.

Als lokal wirksame Kraft bleibt zunächst nur noch die Gravitation. Sie ist an Orten höherer Massendichte erhöht und beginnt da Materie aus der Umgebung anzuziehen, wodurch die Gravitation weiter ansteigt. So entstehen große materielle Strukturen. Ab einer Dichte, die etwa der doppelten Durchschnittsdichte entspricht, überwiegt die Gravitation die universelle Ausdehnung und ermöglicht die Entstehung von Gravitationszentren, die zunächst zu wolkenartigen Gebilden riesiger Dimensionen führen, aus denen sich Galaxien entwickeln.

Die Verteilung der Hintergrundstrahlung43 lässt Rückschlüsse auf die Strukturbildung zur Zeit der Aufklarung zu. Die Dichteschwankungen lagen offenbar in der Größe von 1/1000 %. Die Strahlung entspricht heute der eines schwarzen Körpers44 mit 2,726 Grad über dem absoluten Nullpunkt (-273,2 Grad Celsius).

Das Weltall entstand also in einem gigantischen Lichtblitz, in dem die Materie erst in Form von Elementarteilchen entstand. Erst nach 300 000 Jahren hatte sich der Kosmos durch Ausdehnung so weit abgekühlt, dass Atome von Wasserstoff, Helium47 und Spuren von Lithium48 entstehen konnten, wodurch der Weg für das Licht durch das Weltall frei wurde. Damit war die Entwicklung des Kosmos eingeleitet, in dem die Gravitation zur dominierenden Kraft wurde (Die im Laborbereich um viele Größenordnungen stärkeren elektrischen und magnetischen Kräfte spielen im Kosmos eine sehr untergeordnete Rolle, da sie im Gegensatz zur unipolaren Gravitation bipolar sind und die Wirkungen gegensätzlicher Pole sich nach außen hin aufheben).

Die prozentualen Anteile von Wasserstoff und Helium haben sich seit damals im interstellaren Gas45 unverändert erhalten. Auch der größte Teil der Strahlung des Urknalls hat sich nicht in Materie verwandelt und füllt noch heute als die sogenannte Hintergrundstrahlung, die von allen Seiten auf uns zukommt, den gesamten Weltraum. Durch die explosionsartige Ausdehnung des Weltalls und die damit verbundene Abnahme der Energiedichte hat sie sich auf 2,726 Grad Kelvin (2,726 oK), abgekühlt. Sie wurde übrigens erst im Bereich kurzer Radiowellen entdeckt, nachdem Theoretiker sie aufgrund der hier skizzierten theoretischen Überlegungen vorausgesagt und berechnet hatten. Ihre genaue Vermessung führte zu einer Bestätigung und Verbesserung des Modelles der Entstehung unseres Weltalls.

zurück zu Inhalt!
Entwicklung des Kosmos
Unser seit dem Urknall vor 13,7 Milliarden Jahren expandierender Kosmos zeigt die Tendenz zu von selbst zunehmender Komplexität seiner Strukturen. Erst gab es nur Licht, also Photonen. Aus diesen bildeten sich Elektron-Positron-Paare46, die jedoch meist wieder zu Photonen zurückverwandelt wurden. Die ersten Atomkerne von Wasserstoff, Helium und Lithium entstanden, aber die Temperaturen waren noch zu hoch um mit Elektronen neutrale Atome bilden zu können. Vielmehr entstand ein Plasma, also ein Gemisch aus Elektronen und ionisierten Atomkernen, das mit den Photonen in so intensiver Wechselwirkung stand, dass deren ungehinderte Ausbreitung nicht möglich war (ähnliches findet man im Plasma des Sonneninneren142 ). Erst mit zunehmender Abkühlung fingen die ionisierten Atomkerne Elektronen ein und wurden 300000 Jahre nach dem Urknall zu neutralen Atomen. Deren Wechselwirkung mit den Photonen ist so gering, dass sich die Strahlung nun nahezu ungehindert ausbreiten konnte. Das Weltall wurde durchsichtig.

Die entstandene Materie unterliegt der allgemeinen Massenanziehung oder Gravitation. Solange diese Kräfte nach allen Richtungen gleich stark wirken, heben sie sich auf und die Massenverteilung bleibt gleichförmig. Dichteschwankungen können jedoch zu wolkenartigen Strukturen führen, die sich nach und nach um bestimmte Zentren größerer Anziehungskraft verdichten und damit ein Zusammenstürzen einleiten mit zunehmenden Teilchengeschwindigkeiten, also steigender Temperatur. Mit zunehmender Teilchendichte werden Zusammenstöße der Teilchen häufiger. Das entspricht einem Druckanstieg, der das weitere Zusammenstürzen verzögert, aber nicht verhindert.

Erst bei Temperaturen von 15 Millionen Grad im Zentrum beginnen Wasserstoff-Atomkerne zu Heliumatomkernen zu verschmelzen49, ein Vorgang, der das Atomfeuer erst richtig anfacht, große Energiemengen freisetzt und das Innere des entstehenden Sterns so weit aufheizt, dass der Strahlungsdruck50 der dabei entstehenden Strahlung, der Gravitation das Gleichgewicht hält. Das verhindert weitere Kontraktion und die Größe des Sterns wird für lange Zeiträume (je nach Größe seiner Masse Millionen oder mehrere Milliarden Jahre) stabil.

Die nicht unmittelbar aus den Photonen im Urknall entstandenen schwereren Elemente als Helium, bis hinauf zum Eisen, wurden erst im Inneren von Sternen durch die dort stattfindenden energieerzeugenden Fusionsprozesse51 (Verschmelzungsprozesse zweier Atomkerne zu einem schwereren) erzeugt. Schwerere Elemente als Eisen können keine Ergebnisse selbständig ablaufender Fusion sein, da ihre Fusion Energie nicht erzeugt, sondern benötigt. Diese Elemente entstehen erst in den gewaltigen Supernova-Explosionen52 im Endstadium hinreichend großer, ausgebrannter Sterne. Sie landen damit im kosmischen Staub53 interstellarer Materie, aus der sich durch Verdichtungsprozesse neue Sterngenerationen bilden. Da unser Sonnensystem auch die schweren Elemente des periodischen Systems enthält, kann es nicht der ersten Sterngeneration angehören, die nur Wasserstoff und Helium enthielt und deshalb auch kein Leben hervorbringen konnte. Auch in der zweiten Sterngeneration war der Anteil schwerer Elemente gerionger als in unserem Sonnensystem.

zurück zu Inhalt!
Was war vorher?
Während es für die Urknallhypothese überprüfbare Fakten gibt, nämlich die Rotverschiebung54 der Spektren weit entfernter Galaxien und die Hintergrundstrahlung, kann es aus der Zeit vor dem Urknall keine Spuren geben, da in der Hitze des Urknalls nur Strahlung existierte und somit alle etwaiigen Spuren einer Vorgeschichte vernichtet wurden. Antworten auf die Frage nach dem Vorher können also nur unseriös sein, also reine Spekulationen. Natürlich ist auch spekulieren legitim und kann durchaus Möglichkeiten eröffnen.

Der Expansion des Weltalls wirkt die allgemeine Massenanziehung (Gravitation) entgegen, d.h. sie verzögert die Fluchtbewegung, ähnlich wie ein nach oben geworfener Stein an Geschwindigkeit verliert. Ist seine Bewegungsenergie (kinetische Energie) größer als die potentielle Gravitationsenergie der Erde, dann wird er deren Schwerefeld für immer verlassen, anderenfalls wird seine Bewegungsenergie noch in endlicher Entfernung auf Null schrumpfen, worauf er auf die Erde zurückfallen wird.

Man hat durch Schätzungen aller bekannten Massen des Weltalls das Gravitationspotential ermittelt und dabei festgestellt, dass die Fluchtenergien größer sind, das Weltall sich also zwar mit abnehmender Geschwindigkeit, aber dennoch bis in alle Ewigkeit ausdehnen wird. In den letzten Jahrzehnten sind jedoch Zweifel an der Schätzung der Gesamtmasse aufgetaucht. Messungen der Rotationsgeschwindigkeiten der Spiralarme der Milchstraße zeigten, dass deren Masse etwa zehn mal so groß sein dürfte als bisher angenommen und dass es neben der uns bekannten sichtbaren Materie noch gewaltige Mengen dunkler Materie55 geben müsse.

Man könnte daraus schließen, dass die Ausdehnung (Expansion) des Weltalls in ferner Zeit zum Stillstand kommt und dass dieses wieder zusammenzustürzen beginnt. Dabei würde sich schließlich all das vollziehen, was man bei der in Gedanken umgekehrten Expansion ermittelt hat, d.h. alle Materie würde in Strahlung verwandelt und diese auf engsten Raum komprimiert. Ein weiterer Urknall wäre vermutlich die Folge.

Dieser Gedankengang führt auf die Vorstellung eines pulsierenden Weltalls56, das sich mit einer Periodendauer von zig-Milliarden Jahren immer wieder völlig erneuert. Die Vorstellung eines pulsierenden Weltalls hat trotz der langen Periodendauer, die jegliche menschliche Existenz mit Sicherheit weit überdauert, etwas tröstliches. Eine periodische Säuberung des Kosmos erscheint uns irgendwie gerecht. Leider deuten Beobachtungen an Supernovaexplosionen in den fernsten Galaxien darauf hin, dass deren Fluchtgeschwindigkeit nicht abnimmt, sondern sogar noch zunimmt. Ähnlich wie die nicht unmittelbar beobachtbare Dunkle Materie die Expansion bremsen müsste, ist offenbar eine noch ungeklärte Dunkle Energie wirksam, die die Expansion beschleunigt. In einer fernen Zukunft werden Galaxien und Nachbarsterne so weit entschwunden sein, dass sie erkennbares Licht einander nicht mehr zusenden. Das Sonnensystem ist bis dahin allerdings längst verglüht.

zurück zu Inhalt!
Die erste Sterngeneration (Population-3-Sterne)
(Unsere Sonne gehört zur Population-1, d.h.. zu den ersten Sternen, die man entdeckte. Die früheren Population-2-Sterne findet man aufgrund der endlichen Lichtgeschwindigkeit nur in sehr großen Entfernungen. Sie wurden erst mit leistungsfähigeren Teleskopen entdeckt, mit denen man in die ferne Vergangenheit blickt).
Die nach dem Urknall entstandene Materie erfüllte den Raum nicht gleichmäßig, sondern mit schwankender Dichte. Da sich materielle Substanzen durch ihre Gravitationskraft gegenseitig anziehen, entstanden Gravitationszentren, die nach und nach die Materie in ihrem Wirkungsbereich an sich zogen und Sterne und Sternfamilien einer ersten Sterngeneration bildeten. Durch die Fallbeschleunigung der auf die Zentren stürzenden Teilchen erhöhte sich deren Geschwindigkeit und damit die Temperatur in den Sternzentren. Da diese Sterne nur Wasserstoff und das Edelgas Helium enthielten, konnten sich keine Moleküle biolden. Wärme abstrahlen können aber nur große Moleküle. Wegen der fehlenden schweren Elemente war auch die Dichte gering, weshalb diese Sterne riesig groß und außerordentlich heiß waren. Ihre Lebensdauer war deshalb nur höchstens 1 Million Jahre. Unsere Sonne hat dagegen eine 10000-fach höhere Lebensdauer.

Schließlich wurde die Bewegungsenergie der Wasserstoff-Atomkerne im Sternzentrum so hoch, dass sie trotz ihrer gewaltigen elektrischen Abstoßungskräfte aufeinanderprallten und sich zu Heliumatomkernen vereinigen konnten. Dieser Vorgang wird Fusion genannt und setzt bei etwa 15 Millionen Grad ein. Er erzeugt zusätzliche Energie, die zu weiterer Erwärmung führt und jene Kettenreaktion57 in Gang setzt, der auch unsere Sonne ihre Energie verdankt und die uns auch auf der Erde in Gestalt der Wasserstoffbombe58 das Fürchten gelehrt hat. Die nun im Sternzentrum erzeugte Energie bewirkt einen Strahlungsdruck, der der Gravitationskraft entgegenwirkt und ihr schließlich das Gleichgewicht hält, so dass die Größe des Sterns stabil bleibt.

Die Sterne der ersten Sterngeneration enthielten nur Wasserstoff und Helium, die leichtesten der Elemente, aus denen alle Stoffe bestehen. Schwerere Elemente bildeten sich erst in der Endphase durch das Verlöschen des Wasserstoffbrennens im Kernbereich. Das geschieht, wenn etwa 10 % des Wasserstoffs eines Sterns verbraucht sind. Im Kern befindet sich dann nur noch Helium. Wasserstoffbrennen findet aber immer noch in einer Kugelschale rund um den Kern statt.

Durch den fehlenden Wasserstoff sinkt der Gasdruck im Kernbereich, wodurch sich dieser verkleinert und durch Gravitation aufheizt bis auf Temparaturen von 100 Millionen Grad, die das Heliumbrennen auslösen. Dabei entsteht vor allem Kohlenstoff (aus 3 Heliumatomen) und in geringeren Mengen Sauerstoff (aus vier Heliumatomen), da das aus zwei Heliumkernen gebildete Berillium instabil ist und sehr rasch wieder in He-Kerne zerfällt.

Durch die Temperatursteigerung im Kernbereich wird das energiereichere Wasserstoffbrennen drastisch angeheizt, wodurch die Sternhülle kurzfristig gewaltig aufgebläht wird (vergrößerter Strahlungsdruck). Sobald das Helium im Zentralbereich aufgebraucht ist, wandert noch eine heliumbrennende Schale hinter der wasserstoffbrennenden nach außen. Dieses ganze Zentralgebiet ist von einer riesigen Wasserstoffhülle umgeben.

Für Sterne unter 1.5 Sonnenmassen ist damit die Reihe der Kernfusionsprozesse zu Ende, da ihre Masse nicht ausreicht, um durch Kontraktion des Kerns die Temperatur bis zum Zünden des Kohlenstoffbrennens zu steigern. Sie werden nach Erlöschen aller Fusionsprozesse schließlich zu weißen Zwergen59, die langsam erkalten. Massereiche Sterne mit ausreichendem Vorrat an Gravitationsenergie können dagegen bis zur Bildung von Neon-, Magnesium-, Silizium- und sogar Eisenkernen vordringen. Für diese Fusionsprozesse sind Temperaturen von über 1 Milliarde Grad erforderlich.

Während des instabilen Riesen- oder Überriesenstadiums, sowie in den Spätphasen vor den Endzuständen der Sternentwicklung verlieren Sterne durch ständiges Abströmen und durch plötzliche Expansionen die Hälfte oder zwei Drittel ihrer Masse, wodurch Rohmaterial für weitere Sterngenerationen in den interstellaren Raum gelangt.

Bleibt die Frage, woher die Elemente vom Eisen bis zum Uran60 kommen, die wir auf den inneren Planeten unseres Sonnensystems finden. Es gibt nur einen Vorgang, der zu den schweren Elementen führt. Das ist der Gravitationskollaps von schweren Sternen mit 15 bis 20 Sonnenmassen. Sobald in deren Zentralbereich alle Kernfusionen bis zur Bildung des Eisens abgelaufen sind, besteht der Stern aus einer ausgedehnten Wasserstoffhülle und nach innen zu aus Schichten von Helium, Kohlenstoff, Sauerstoff, Silizium und einem Eisenkern. Diese Schichtung entstand durch die Reihenfolge der Fusionsprozesse und durch das Diffundieren der jeweils schwereren Kerne in der Richtung zum Sternzentrum.

Die Umwandlung von Silizium in Kerne der Eisengruppe erfordert im Zentralbereich 3 Milliarden Grad und eine Dichte von 100 Millionen Tonnen pro Kubikmeter. Sobald wegen des noch anhaltenden Siliziumbrennens die Massengrenze des Eisenkernes den Wert erreicht, bei dem der Gravitationsdruck die Abstoßungskräfte der Atomkerne übersteigt, kontrahiert der Kern durch Zusammenbrechen der Elektronenhüllen der Atomkerne innerhalb von Sekunden von etwa der Größe der Erde auf einen Radius unter 100 km. Die Temperatur steigt von 1 Milliarde auf 10 Milliarden Grad. Die Dichte steigt auf die von Atomkernen (etwa 3*1017 kg/Kubikmeter). Die freigesetzte Gravitationsenergie ist von der Größenordnung 1044 Joule61. Auf die Oberfläche des nun völlig inkompressiblen62 Kerns stürzt nun die Materie der weiter außen gelegenen und ihrer Unterlage beraubten Schalen und wird beim Aufprall zurückgeschleudert. Die so plötzlich freigesetzte Gravitationsenergie verwandelt sich in so viel Wärme, dass eine gigantische Supernovaexplosion erfolgt, bei der in Sekunden ein Vielfaches der Energie frei wird, die unsere Sonne zeitlebens erzeugt. Dabei finden Kernfusionen bis zu den schweren Elementen statt.

zurück zu Inhalt!
Die Entstehung unserer Sonne und ihrer Planeten
Die interstellare Materie reicherte sich durch Sternkatastrophen auch mit schwereren Elementen an. Sie verdichtete sich erneut durch Gravitation zu Sternen, deren Entwicklung etwas komplizierter verlief, weil die Ausgangsstoffe außer Wasserstoff und Helium noch die verschiedensten Arten von kosmischen Staub enthielten. Zu letzterem zählen auch Gesteins- und Metallbrocken aller Größen, bis hin zu mehreren Kilometern Durchmesser, wie sie eben als Folge von Sternexplosionen und Sternkollisionen63 entstanden und ebenso gewaltige Mengen Eis, das sich aus Sauerstoffatomen, zusammen mit dem allgegenwärtigen Wasserstoff bildete.

Da sich alle diese "Staubteilchen" wild durcheinander bewegen, wird eine solche Staubwolke immer auch einen von Null verschiedenen Drehimpuls64 haben, also schwach rotieren. Bei Verdichtung wird die Rotation immer schneller, da der Drehimpuls (=Trägheitsmoment65 mal Rotationsgeschwindigkeit66) immer konstant bleiben muss und das Trägheitsmoment beim Verdichten kleiner wird. Das ist der Piruetteneffekt, den sich auch Eisläufer zunutze machen, indem sie nach Schwung holen mit ausgebreiteten Armen diese fest an den Körper pressen, um rascher zu rotieren. Auch am Badewannenwirbel beim Ablassen des Wassers kann man die Vergrößerung der Rotationsgeschwindigkeit beim Zustürzen auf das Zentrum gut beobachten. Ebenso bei Sturmtiefs.

In der durch die Verdichtung immer rascher rotierenden Wolke reichern sich die schwereren Bestandteile in einer runden Scheibe an, die senkrecht zur Drehachse steht und aufgrund der größeren Dichte einen großen Teil des Gesamtdrehimpulses aufnimmt. Wasserstoff und Helium konzentrieren sich dagegen vorwiegend in einem kugelähnlichen Zentralbereich, der ähnlich wie bei den Sternen der ersten Generation bei weiterer Verdichtung zum Wasserstoffbrennen im Kernbereich führt. Dadurch entsteht ein sonnenartiger Zentralstern.

In der diesen umgebenden Scheibe bilden sich durch Unsymmetrien wieder Gravitationszentren, die den Zentralstern umkreisen und die benachbarte Materie nach und nach an sich ziehen, wobei wieder Gravitationsenergie in Wärme umgesetzt wird, die schließlich zum Aufschmelzen und Absinken des reichlich vorhandenen Eisens in das Zentrum führt. Alle so entstandenen Planeten enthalten in ihrem Zentrum einen Eisenkern. Soweit ihre Bahnen nicht kreisähnlich sind und nahezu in derselben Ebene liegen, sind sie instabil und kollidieren früher oder später mit benachbarten Himmelskörpern. Man kann mehrere Folgen solcher Katastrophen in unserem Sonnensystem erkennen.

Die leichteren, schlackenartigen Verbindungen der Planeten69 schwimmen auf dem geschmolzenen Kern und bilden schließlich außen durch Abkühlung infolge Wärmeabstrahlung eine Kruste. Diese umgibt sich wieder mit den leichtesten Stoffen, den Gasen, wodurch die Planetenatmosphären67 entstehen. Die Uratmosphären werden allerdings durch den starken Sonnenwind68 beim Zünden des Wasserstoffbrennens weggeblasen. Durch Ausgasen des Planetenmaterials entstehen jedoch danach neue Gashüllen.

Die so entstandenen Planeten umkreisen die Sonne auf kreisähnlichen Bahnen, deren Durchmesser ihre Umlaufszeit bestimmt. Da die Umlaufszeiten auf eng benachbarten Bahnen immer etwas unterschiedlich sind, werden sich Körper auf eng benachbarten Bahnen immer wieder begegnen, wobei die Bahn des jeweils leichteren empfindlich gestört werden kann. Schließlich gibt es drei Möglichkeiten:

Die Bahn wird so verändert, dass sie die Oberfläche des Nachbarn durchdringt. Das  heißt Absturz auf den größeren Nachbarn.

Fliegt der Kleinere vor dem Größeren vorbei, so wird er gebremst und kann als  Mond70 in eine Umlaufbahn eingefangen werden.

Fliegt der Kleinere hinter dem Größeren vorbei. So wird er beschleunigt und  gelangt auf eine langgestreckte Ellipsenbahn, die ihn weit von der Sonne entfernt,  so dass es sehr lange dauert, bis er wieder zurückkommt, falls ihm in der  Zwischenzeit nichts anderes zustößt. (Diese "Swing-By-Methode71" zur  Beschleunigung benutzt auch die NASA bei Missionen zu den weit entfernten  äußeren Planeten, um Treibstoff zu sparen).

Auf diese Weise werden nach und nach praktisch alle Körper in naher Nachbarschaft einer Planetenbahn verschwinden. Das wird in der Anfangszeit zu einem katastrophalen Bombardement aller jungen Planeten führen, bis deren Bahnumgebung einigermaßen leer geworden ist. Dabei vergrößern und erwärmen sich diese Planeten ständig durch das herabstürzende Material.

Bei alledem wirkt gleichzeitig noch die Strahlung von der Sonne, die vor allem die inneren Planeten stark aufheizt. Kosmisches Eis wird so geschmolzen und durch Sonnenstrahlung und Sonnenwind teilweise in seine Bestandteile, Wasserstoff und Sauerstoff zerlegt. Bei den hohen Temperaturen und Strahlungsintensitäten in Sonnennähe werden vor allem die leichtesten Teile, also die Wasserstoffatome, durch den Sonnenwind von der Sonne weggeblasen, so dass in Sonnennähe der aus dem zerlegten Wasser stammende Sauerstoff überwiegt, in Sonnenferne dagegen der im gesamten Weltall allgegenwärtige Wasserstoff. Die inneren Planeten Merkur, Venus, Erde und Mars entwickelten sich daher in einer oxidierenden Umgebung72, die äußeren Jupiter,Saturn, Uranus und Neptun in einer reduzierenden73.

Außerhalb von Neptun ist der Sonneneinfluss so gering, dass sich die Materie immer noch in jenem Urzustand befindet, aus dem das Sonnensystem entstand. Es ist die Welt der Kometen74, die im wesentlichen "schmutzige Schneebälle" von teilweise beachtlicher Größe sind. Man ist heute geneigt, bereits den äußersten bekannten Planeten Pluto75 zu dieser Kometenwelt zu rechnen. Man schätzt diese auf Billionen Exemplare in der sogenannten Oortschen Wolke76 außerhalb der Planetenbahnen, mit einer Gesamtmasse, die mit der Masse aller anderen Planeten zusammen vergleichbar ist. Sie sind für uns nicht sichtbar, da sie zu klein, zu weit weg und zu schwach beleuchtet sind. Sie umgeben unser Planetensystem ähnlich wie der Saturnring77 den Saturn.

Auch an Jupiter, Uranus und Neptun wurden durch die Raumsonden solche Ringe entdeckt. Ihr Innenraum ist durch Monde der Planeten ebenso leergeräumt worden, wie der Innenraum der Oortschen Wolke durch die Planeten. An einigen näher gelegenen Fixsternen konnte man inzwischen ebenfalls solche Ringe beobachten, deren Innenraum offenbar durch Planeten leergeräumt ist. Mit Hilfe der neuesten Beobachtungsinstrumente aller Strahlungsbereiche konnte man inzwischen über hundert Planeten anderer Fixsterne direkt erkennen, zunächst die, die mindestens die Größe Jupiters haben, aber inzwischen auch viele deutlich kleinere. Planeten sind also keine Besonderheit unserer Sonne. Allerdings sind die meisten Sterne Doppelsterne, die keine stabilen Planetenbahnen zulassen.

Da sich die Kometen in der Oortschen Wolke aufgrund ihrer großen Anzahl immer wieder gegenseitig stören, kommt es öfter vor, dass einer auf eine schlanke Ellipsenbahn gelangt, die ihn in den Bereich der inneren Planeten führt. Selbst da würden wir ihn nicht erkennen, wenn nicht die Sonne durch Aufheizung das Verdampfen des Wassers bewirkte und die so entstehende, riesige Gas- und Staubwolke durch Sonnenlicht und Sonnenwind zum Leuchten gebracht würde, wodurch sie uns als Kometenschweif78 erscheint.

Mit dem Eintritt in eine sonnennahe Bahn ist das Schicksal eines Kometen besiegelt. Spätestens nach einigen Umläufen gerät er einem Planeten zu nahe und gelangt auf irgend einen Kollisionskurs. Da die Verdampfung von Kometenmaterial in Sonnennähe nicht gleichmäßig und gleichförmig erfolgt, sondern in sporadisch auftretenden Fontänen, die auch einen Rückstoß erzeugen, sind Kometenbahnen nicht völlig exakt berechenbar. Der exakten Bestimmung von Einschlagrisiken sind dadurch Grenzen gesetzt.

Die Spektraluntersuchung der leuchtenden Kometenschweife gibt Aufschluß über die Zusammensetzung der Kometen und damit über die Ursubstanzen unseres Sonnensystems. Neben Wasserstoff (H) und Sauerstoff (O) in Form von Wassereis, sind es vor allem Kohlenstoff (C) und Stickstoff (N) und in geringeren Mengen Silizium (Si), Eisen (Fe), Magnesium (Mg) und Aluminium (Al).

Unter den obenerwähnten oxidierenden Bedingungen im Bereich der inneren Planeten bildeten sich daraus Planetenatmosphären aus vorwiegend Kohlendioxid (CO2), Kohlenmonoxid(CO), Wasserdampf (H2O) und Stickstoffoxid (NO). Überschüssiger Sauerstoff verbindet sich aufgrund seiner Aggressivität stets mit dem Oberflächenmaterial und verschwindet dadurch aus der Atmosphäre, wenn er nicht ständig nachgeliefert wird.

Die Planetenatmosphären der unter reduzierenden Bedingungen entstandenen äußeren Planeten bestehen dagegen neben Wasserstoff aus Ammoniak (NH3), Methan (CH4), verschiedenen Kohlenwasserstoffen wie Äthylen (C2H4), Äthan (C2H6), Propan (C3H8) oder Blausäure (HCN). Eventuell vorhandener Sauerstoff verbindet sich sofort mit anderen Elementen, bevorzugt mit Wasserstoff zu Wasserdampf.

Vergleicht man die Abstände der Planeten von der Sonne untereinander, so fällt eine große Lücke zwischen Jupiterbahn und Marsbahn auf. Diese ist jedoch nicht leer, sondern von zahlreichen Körpern erfüllt, den Asteroiden79. Es gibt sie in allen Größen, vom Staubkorn bis zu mehreren Kilometern Durchmesser. Offenbar konnte sich in dieser Zone kein Körper aufgrund besonderer Größe gegenüber seinem riesigen Nachbarn Jupiter durchsetzen. Hier findet man offensichtlich Trümmer von der Art, wie sie seinerzeit durch Zusammensturz die inneren Planeten bildeten.

Natürlich ist das Asteroidensystem aufgrund der großen Zahl umherschwirrender Körper ebenso instabil wie die Oortsche Wolke der Kometen. Es kommt immer wieder zu Kollisionen, die zu Bahnänderungen der Bruchstücke führen und solche Bruchstücke regnen täglich auf die Erde herab. Die meisten sind Meteore81, auch Sternschnuppen80 genannt, die in der Atmosphäre verglühen, aber viele erreichen als Meteoriten82 die Erdoberfläche, ohne dass sich ihr Inneres rasch genug aufheizen und verändern kann und sie sind z.B. in großer Zahl im Eis der Antarktis konserviert, wo sie in den Randmoränen ausgeschieden werden, so dass man sie dort nur einsammeln muss. Sie haben alle, ebenso wie die Kometen, das Alter von 4,5 Milliarden Jahren. Das gleiche Alter, das für die Sonne und alle Planeten ermittelt wurde.

Sie bestehen teils aus steinigen, teils aus metallischen und teils aus kohligen Substanzen. Die Metalle sind meist Mischungen aus vorwiegend Eisen und Nickel, jenem Material, das in der Aufschmelzphase der Planeten in deren Zentrum abgesunken ist und die Planetenkerne aller Planeten bildete, die später alles Material aus der Nachbarschaft an sich gezogen haben. Die steinigen und kohligen Substanzen schwammen auf der Schmelze und bildeten die Kruste der inneren Planeten.

Diese Schilderung der Entstehungsgeschichte unseres Planetensystems zeigt die Dramatik der Anfangsphase, in der Trümmer aller Größenordnungen auf die jungen Planeten und deren Monde herabregneten. Sie ist in der kraterübersähten Mondoberfläche mit jedem Feldstecher auch heute noch zu erkennen. Die Raumfahrtmissionen zu den Planeten und Monden unseres Sonnensystems zeigten uns überall das gleiche Bild, wenngleich die Spuren älterer Einschläge oft, so wie auf der Erde, durch atmosphärische oder vulkanische Einflüsse verwischt wurden.

Die Apollomissionen mit ihren Mondlandungen, die uns Materialuntersuchungen und seismische Messungen künstlicher Mondbeben ermöglichten, brachten folgende Fakten zutage:

Die Hochländer des Mondes sind durchwegs 4,5 Milliarden Jahre alt und von Kratern83 aller Größen derart mehrfach überdeckt, dass es unversehrte Oberfläche  praktisch nicht gibt.

Die tiefergelegenen, ebenen Mare84 sind vulkanischen Ursprungs und nur sehr  spärlich mit Kratern bedeckt. Die ältesten Mare sind 4 Milliarden Jahre alt.

Bei fast allen Apollomissionen wurden seismische Messstationen85 zurückgelassen,  die Messergebnisse von Mondbeben zur Erde funkten, als man die ausgedienten  Landefahrzeuge auf den Mond fallen ließ. Die Aufzeichnungen der  Schallausbreitung durch das Mondinnere zeigen, dass der Mond keinen Metallkern  besitzt. Dies wurde auch schon aufgrund seiner, gegenüber der Erde geringeren  Dichte vermutet.

Soweit man von Venus und Mars an Proben Altersbestimmungen durchführen konnte, ergaben auch hier die ältesten Proben 4,5 Milliarden Jahre. Dieses Alter erhält man aus dem inzwischen sehr exakten mathematischen Sonnenmodell86 auch als das Sonnenalter. Das ganze System ist demnach zur gleichen Zeit entstanden und hat im wesentlichen die gleiche Geschichte durchgemacht. Ausgerechnet auf der Erde sind jedoch die Spuren dieser Geschichte durch Verwitterung und Erosion kaum mehr erkennbar. Erst die Raumfahrt lieferte die Fakten, die es uns ermöglichten, den Entstehungsprozeß des Sonnensystems zu rekonstruieren.

Die geringe Kraterzahl in den Mondmare zeigt, dass das schwere Bombardement in der Anfangsphase des Sonnensystems nur etwa 500 Millionen Jahre währte, also relativ kurz war. Es zeigt sich, dass die Einschlagdichte vor 4 Milliarden Jahren noch tausendmal größer war, als vor 3,8 Milliarden Jahren. Seit 3 Milliarden Jahren ist die Einschlagdichte offenbar konstant, so dass man das heutige Einschlagrisiko recht gut berechnen kann. Es ist zum Glück nicht so hoch, wie es die Kraterlandschaft der Mondhochländer ursprünglich befürchten ließ. Man wusste ja nicht, dass auch die Mare schon so alt sind.

Die Untersuchung der Mondproben zeigte eine weitgehende Übereinstimmung mit dem Material der Erdkruste. Dies und das Fehlen eines Metallkernes, der eine wesentliche Rolle bei der Planetenbildung spielt, sowie das völlige Fehlen einer Atmosphäre, zeigt, dass der Mond auf andere Weise entstanden sein muss. Für die Entstehung des Mondes gibt es drei herkömmliche Hypothesen, die manchmal als die "Tochterhypothese", die "Schwesterhypothese" und die "Einfanghypothese" bezeichnet werden. Erstere nimmt an, dass der Mond von der Erde abgespalten wurde. Die Schwesterhypothese nimmt an, dass der Mond mit der Erde entstand. Die Einfanghypothese geht davon aus, dass er aus anderen Bereichen des Sonnensystems stammt und von der Erde eingefangen wurde.

Da die Einfanghypothese keine kreisförmigen Bahnen mit einer Bahnebene, die gegen die Erdbahn nur wenig geneigt ist, ergibt, scheidet sie aus. Die Schwesterhypothese erklärt nicht das Fehlen von Metallkern und Atmosphäre. Der Mond muss also durch eine Einschlagkatastrophe aus dem Erdmantel herausgeschlagen worden sein. Aufgrund seiner beträchtlichen Größe muss das ihn erzeugende Geschoß gewaltig gewesen sein. Computersimulationen87 ergaben schließlich einen passenden Prozess, verursacht durch einen streifenden Einfall eines Körpers von der Größe des Mars, der soviel Material abtrennte, dass sich der Mond bilden konnte (das war nahezu 10% des Erdmaterials, das aber größtenteils wieder auf die Erde herabfiel).

Dass solche gigantischen Ereignisse in der Anfangsphase tatsächlich stattfanden, dafür gibt es noch weitere Hinweise. Der Planet Merkur besteht fast nur aus einem Metallkern. Kruste und eine nennenswerte Atmosphäre hat er offenbar durch einen Zusammenstoß verloren. Ein weiteres Ereignis dieser Dimension ist offenbar jenes, das die Rotationsrichtung des Planeten Venus um die eigene Achse umdrehte.

Vor 4 Milliarden Jahren waren die Verhältnisse auf Venus, Erde und Mars sehr ähnlich. Die Atmosphären bestanden überwiegend aus CO2 und Wasserdampf, mit einem ausgeprägten Treibhauseffekt88, der selbst auf dem heute kalten Mars zu Temperaturen mit Regenfällen und Flüssen führte. Auf der sonnennäheren Venus ist die Atmosphäre geblieben. Durch den Treibhauseffekt wurde sie auf 480 Grad aufgeheizt und der Luftdruck erhöhte sich auf 90 Atmosphären (vergleichbar mit dem Gewicht eines Ozeans, der als Wasserdampf in der Atmosphäre hängt). Der etwas kleinere Mars mit seiner geringeren Gravitation konnte seine Atmosphäre auf die Dauer nicht festhalten und hat sie nach und nach verloren. Durch den Verlust des Treibhauseffektes kühlte er sich bis auf die heutigen sibirischen Temperaturen ab.

zurück zu Inhalt!
Der Einfluss des Lebens auf die Erdgeschichte
Die weitere Geschichte der Erde wurde weitgehend durch das vor 4 Milliarden Jahren langsam entstehende Leben maßgeblich beeinflusst. Organische Substanzen89, wie wir sie auch heute in den Kometen vorfinden, fielen mit den herabfallenden Trümmern in die Meere und reagierten auf die verschiedenste Weise unter den damaligen klimatischen Bedingungen chemisch miteinander.
So entstand wohl eines Tages jenes, mit der DNS90 verwandte Ribozym-Molekül, das die Eigenschaft hatte, sein Ebenbild durch Anlagerung bestimmter, in der Ursuppe vorhandener Basen und anschließende Abspaltung zu reproduzieren. Damit war seine rasche Vermehrung eingeleitet, die über noch unbekannte Evolutionsprozesse91 zur DNS führte, die sich nur noch in Wechselwirkung mit der Produktion von Eiweiß selbst reproduzieren konnte. Schließlich führte diese Entwicklung zu hochentwickelten Einzellern92 und in den letzten 1,5 Milliarden Jahren zu höheren Lebewesen.

Als man gegen Ende des zwanzigsten Jahrhunderts kochendheiße Quellen am Meeresgrund untersuchte und entdeckte, dass selbst unter diesen extremen Temperaturen Lebewesen existierten, erschienen die energetischen Voraussetzungen zur Entstehung von Leben dort eher noch günstiger. Auch das Eis der Polargebiete enthält Lebewesen und manche Forschern halten selbst in Eis eingeschlossenes Wasser für eine mögliche Quelle des Lebens.

Viele der ersten Lebewesen begannen, aus dem im Wasser gelösten CO2 Kalkskelette zu produzieren, wodurch der Atmosphäre das CO2 nach und nach entzogen wurde. Der dadurch abnehmende Treibhauseffekt wurde durch die zunehmende Sonnenstrahlung ausgeglichen, so dass die Temperatur im Gegensatz zur Venus über den Zeitraum von 4 Milliarden Jahren nahezu konstant blieb. Mit der Folge, dass das Wasser im Gegensatz zu Venus und Mars im flüssigen Zustand blieb und die Erde zum einzigen Wasserplaneten wurde.

Die durch Kleinlebewesen verursachten Kalkablagerungen auf den Meeresböden sind so gewaltig, dass sie nach Bildung der Kontinente zu Gebirgen aufgetürmt wurden. Das in ihnen gespeicherte CO2 erspart uns das höllische Venusklima, bei dem wir durch die Atmosphäre zerquetscht und verdampft würden. Der CO2-Verbrauch wurde noch verstärkt durch die von den Blaualgen erfundene Assimilation, die CO2 in Organische Verbindungen und Sauerstoff (O2) umwandelte. Durch diesen Prozeß wurde die Entwicklung von Pflanzen eingeleitet, die keine Fortbewegungswerkzeuge entwickelten, da sie ihrer Nahrung nicht nachjagen mussten, sondern ihre Nahrung mit Hilfe versklavter Blaualgen, den sogenannten Chloroplasten in ihren Zellen, aus Luft und Licht holten. Beides gab es auch auf den aus dem Meer aufgestiegenen Kontinenten. So eroberte die Pflanzenwelt vor einer Milliarde von Jahren den damals einzigen Kontinent Pangea93. Das für die Lebensprozesse benötigte Wasser wurde mit Hilfe von Wurzeln aus im Boden versickerten Regenwasser bezogen.

Der durch die Assimilation94 erzeugte Sauerstoff stellte bald eine ernste Gefahr für das Leben dar, da er aufgrund seiner Agressivität die organischen Substanzen zerstört. Aber gerade dieser Oxidationsvorgang95, der mehr Energie freisetzt, als die Milchsäuregärung, aus der die älteren Einzeller ihre Energie bezogen, wurde von einer neuen Kategorie von Lebewesen nutzbar gemacht, in deren Zellen sich Mitochondrien als Treibstofferzeuger für die Muskelzellen bildeten. Diese neue Energiequelle erhöhte die Beweglichkeit und damit den Erfolg von Jägern, die sich vor zwei Milliarden Jahren zur Tierwelt entwickelt hatten.

Tiere verbrauchten nun Sauerstoff und bildeten Kohlendioxid, das wiederum die Pflanzen benötigten. So bildete sich ein Gleichgewicht mit 20% Sauerstoff in der Atmosphäre durch ein ausgewogenes Verhältnis von Pflanzen und Tieren. Bei dieser Konzentration bleibt die Oxidation der durch Häute bzw. Rinden geschützten Lebewesen in Grenzen, die durch den ständigen Stoffwechsel der Lebewesen ausgeglichen werden können. Höhere Sauerstoffkonzentrationen vernichten Pflanzen, geringere lassen Tiere ersticken. Reduktion der Pflanzenwelt durch Raubbau zieht damit zwangsläufig auch die Reduktion von tierischem und menschlichem Leben. nach sich.

Durch die Ultraviolettstrahlung96 der Sonne entsteht in den äußeren Schichten unserer Atmosphäre aus Sauerstoff Ozon (O3), das die Eigenschaft hat, diese für Lebewesen gefährliche Strahlung zu verschlucken. Erst dieser Schutzschirm erlaubte auch den Tieren, das schützende Wasser zu verlassen und das Land, mit seiner inzwischen reichlichen pflanzlichen Nahrung zu erobern.
Durch die Produktion chlorhaltiger, flüchtiger Verbindungen (z.B. FCKW97), ist es uns inzwischen gelungen, diesen Schutzschild löcherig zu machen. Ebenso gelingt es uns, durch Verbrennung fossiler Brennstoffe98 den CO2-Anteil der Atmosphäre zu erhöhen und so den Treibhauseffekt merkbar zu beeinflussen und auch noch die Regenwälder abzuholzen, ohne uns der möglichen Konsequenzen voll bewusst zu werden. Aber wohl wenigen Menschen sind die hier geschilderten Zusammenhänge hinreichend bekannt. Heute gilt es ja als schick, statt naturwissenschaftlicher Literatur Esotherik und Horoskope zu studieren.
Amerikanische Industriebosse zwingen den Präsidenten der USA, tödliche Kompromisse bei der Klimakonferenz durchzusetzen, um ihre Gewinne hoch zu halten. Sie morden damit ihre Enkel, denen schreckliche Katastrophen bevorstehen. Ob sie das wissen?

Aus diesen Ausführungen ist zu erkennen, wie sehr das Leben unseren Planeten, seine Meere und Gebirge und seine Atmosphäre mit geformt hat. Es gibt sogar Vermutungen, dass es die Kontinentalverschiebung ermöglicht hat, da eine vergleichbare Plattentektonik99 auf unseren Nachbarplaneten fehlt. Die Weltmeere könnten dabei eine Rolle als Schmiermittel spielen, denn mehrfach wurde Auslösung von Erdbeben durch unabsichtliches Einpumpen von Wasser bei Bohrungen ausgelöst. Ohne dieses Leben hätte sich die Erde zur Eiseskälte des Mars oder zum Höllenklima der Venus entwickelt. In beiden Fällen würde es an flüssigem Wasser fehlen.

Es gibt Modellrechnungen, denen zufolge sich der Zustand der Erdatmosphäre auf über 300 Grad und ca. 90 Atmosphären Druck verändern würde, wenn das CO2 aus den Kalkablagerungen wieder in die Atmosphäre gelangen würde. Man ist nicht sicher, ob der jetzt schon ansteigende Treibhauseffekt eines Tages solche Prozesse auslösen könnte. Das schon jetzt durch geringen Temperaturanstieg weltweit ausgelöste Riffsterben100 und die beginnende Zersetzung von Methaneis100a gibt zu denken. Der hohe Atmosphärendruck als Folge eines starken Treibhauseffektes entstünde übrigens aus dem verdampften Wasser. Das Gewicht der Weltmeere hinge dann eben in der Atmosphäre. Näheres zum Klimawandel finden Sie unter Anpassung und Ausblick aus der Sicht 2005

Bisher sind wir völlig sorglos davon ausgegangen, dass die durch uns Menschen verursachten Prozesse das über riesige Zeiträume stabile System Erde nicht verändern könnten. Nun stellt sich immer mehr heraus, wie empfindlich dieses Gleichgewicht auf harmlos erscheinende Störungen reagiert. Das sollte uns zu denken geben und zur Maxime allen zukünftigen Handelns101 gemacht werden. Diese Schrift sollte ein Beitrag zu dem dafür nötigen Sinneswandel sein. Sie ist deshalb so kurz gehalten, um vielen Menschen zugänglich zu sein.

zurück zu Inhalt!
Die vierte Dimension
Nach unserem Empfinden ist der uns umgebende Raum dreidimensional, d.h. in drei aufeinander senkrecht stehenden Richtungen ausgedehnt. Ein Schrank z.B. hat Länge, Breite und Höhe. Auf unseren Körper bezogen unterscheiden wir vorne-hinten (bezogen auf die übliche Bewegungs- und Blickrichtung), unten-oben (bezogen auf die Schwerkraft) und rechts-links als die Richtung, die auf den beiden anderen senkrecht steht. Einen natürlichen Bezug gibt es hier nicht, rechts-links ist eine reine Erfindung der Menschen und wird deshalb oft verwechselt.

Offensichtlich bereitet bereits die dritte Dimension unserem Gehirn gewisse Schwierigkeiten. Dies liegt daran, dass unsere Netzhautbilder zweidimensional sind und ihre Auswertung zunächst auch nur zweidimensional war. Das zweiäugige stereoskopische Sehen funktioniert nur bis in wenige Meter Entfernung und wird deshalb auch im Kinofilm kaum vermisst. Die fehlende Tiefenwahrnehmung wird durch Überdeckungseffekte und Größenvergleiche der dargestellten Objekte meist hinreichend gut geschätzt. Diese Tiefenwahrnehmung würde auch beim Fernsehen viel besser funktionieren, wenn unser zweiäugiges Sehen dem Gehirn nicht ständig mitteilen würde, dass alle Bildteile ja doch nur in der Bildschirmebene liegen. Schließen Sie beim Fernsehen ein Auge. Sie werden überrascht sein über die Tiefenwirkung von Bildern, die große Tiefen enthalten!

Die Lage eines Punktes im dreidimensionalen Raum kann man durch drei Längenangaben eindeutig charakterisieren, etwa durch die Abstände von zwei aneinander grenzenden Wänden und dem Boden eines Zimmers, wobei diese Abstände für Punkte innerhalb des Zimmers positiv sein sollen. Mathematisch ist also die Lage eines Punktes durch drei Zahlen (Koordinaten des Punktes) charakterisiert, die positiv oder negativ sein können.

Aus vielen Punkten (= Punktmengen) kann man Linien und Flächen bilden, die gekrümmt oder gerade bzw. eben sein können. Die mathematischen Gesetze, denen solche Gebilde unterworfen sind, werden in der Geometrie beschrieben. Erfolgt deren Beschreibung nicht graphisch, sondern mit Hilfe von Formeln für die Punktkoordinaten, dann spricht man von "analytischer Geometrie".

Es zeigt sich, dass die Ableitung geometrischer Lehrsätze nicht nur für Punkte mit drei Koordinaten möglich ist, sondern auch für 4, 5, 6, ... Koordinaten. Man spricht dann von 4-, 5-, 6-dimensionalen Geometrien in 4-, 5-, 6-dimensionalen Räumen.
Versuchen wir allerdings uns die Gesetze solcher Räume als anschauliche Bilder vorzustellen, dann stoßen wir auf eine grundsätzliche Schwierigkeit: unser Gehirn ist dazu nicht in der Lage. Der Grund: In unserem alltäglichen Leben sind Abweichungen von der Geometrie des nicht gekrümmten, dreidimensionalen Raumes so gering, dass sie bedeutungslos und für das Überleben unwichtig sind. Die Krümmung unseres dreidimensionalen Raumes in höherdimensionalen Räumen, in die er eingebettet ist, blieb bei der Bildung der Struktur unseres Gehirns unberücksichtigt. Die analytische Geometrie öffnet uns jedoch den Zugang zu diesen, unserer unmittelbaren Anschauung unzugänglichen Räumen von mehr als drei Dimensionen.

zurück zu Inhalt!
Raumkrümmung und Kugelraum
Die Geometrie von Räumen mit höherer Dimensionszahl als drei, wurde um 1848 von Minkowski entwickelt. Minkowski wies bereits darauf hin, dass es denkbar sei, die Wirkung physikalischer Kräfte als Folge der Eigenschaften gekrümmter Räume aufzufassen. Einstein griff ein halbes Jahrhundert später diesen Gedanken auf und versuchte die Schwerkraft aus der Geometrie eines gekrümmten Raumes zu erklären.

Ausgangspunkt der Betrachtung war die Erfahrungstatsache, dass im Schwerefeld die Fallgeschwindigkeit eines Körpers unabhängig von seiner Masse ist, dass also z.B. ein doppelt so schwerer Körper für eine bestimmte Fallstrecke genau so lang braucht. Eine Person in einem fallenden Kasten fällt also genau so schnell wie dieser, wird also nicht gegen den Boden gedrückt und fühlt sich somit schwerelos. Ihre gleichförmig zunehmende Fallgeschwindigkeit (konstante Beschleunigung) erzeugt offenbar eine Kraft (Trägheitskraft102), die der real vorhandenen Schwerkraft exakt entgegenwirkt und sie damit unwirksam macht.

Ist der fallende Kasten hermetisch abgeschlossen, dann ist die eingeschlossene Person offenbar nicht in der Lage zu entscheiden, ob eine Kraft, die sie auf den Boden drückt, von der Anziehungskraft eines Himmelskörpers herrührt, oder von einer beschleunigten Bewegung des Kastens in einem schwerelosen Raum. Einsteins Folgerung: was grundsätzlich nicht unterscheidbar ist, ist auch nicht verschieden. Schwerkraft muss also grundsätzlich durch Trägheitskräfte und damit durch geometrische Vorgänge im Raum erklärbar sein.

Tatsächlich gelang es ihm, den Krümmungstensor Minkowskis so zu modifizieren, dass sich Körper in einem entsprechend gekrümmten, kräftefreien Raum genauso verhalten, wie im Gravitationsfeld eines kugelsymmetrischen Körpers (z.B. der kugelförmigen Erde).

Nun ist ja das Weltall, so weit wir auch blicken können, mit Galaxien103 und Sternen erfüllt und man kann nicht feststellen, dass deren Dichte trotz ungleichförmiger Verteilung in anderen Bereichen des Kosmos eine andere wäre, sofern man diese Bereiche nur hinreichend groß wählt. Für konstante Dichte folgt aus Einsteins Theorie konstante Krümmung. Ein Raum konstanter Krümmung ist aber in sich geschlossen, ebenso wie eine Kugelfläche keine Grenzen aufweist, sondern als Fläche konstanter Krümmung in sich geschlossen ist. Man nennt einen solchen Raum sinngemäß Kugelraum. Er lässt sich nach den Methoden der analytischen Geometrie ganz ähnlich berechnen, wie die Kugelfläche.

Natürlich fällt es schwer, sich einen gekrümmten Raum vorzustellen. Der Blick in eine Silberkugel mag uns dabei helfen. Alles, was sich im Außenraum dieser Kugel abspielt, sehen wir als Spiegelbild im Inneren der Kugel. Die Spiegelbilder der Mathematiker, die Geometrie betreiben um deren Gesetze zu finden, würden die gleichen Gesetze finden wie wir, da sie ja Spiegelbilder realer Mathematiker sind. Wir als Außenstehende sehen aber, dass sich ihre Lineale und Maßstäbe ganz schrecklich verbiegen und verzerren, was sie aber als Wesen im gekrümmten Raum nicht merken können, da sich ihre Körper, Lichtstrahlen usw. den Raumkrümmungen voll anpassen.

Wer kann also sagen, dass unser Raum nicht gekrümmt ist? Ebenso wie eine Kugelfläche grenzenlos, aber nicht unendlich groß ist, muss man sich auch einen Kugelraum grenzenlos, aber nicht unendlich groß vorstellen. Ein expandierender Kugelraum drückt sich durch die ständige Vergrößerung seines Krümmungsradius aus, vergleichbar mit dem Aufblasen eines Luftballons als expandierende Kugel.

zurück zu Inhalt!
Das Zeitalter der Information
Die Geschichte der Menschheit ist durch den Einsatz von Hilfsmitteln charakterisiert, die unsere Art, neben Mikroben und Insekten, zur erfolgreichsten gemacht haben. Mit Hilfe von Sprache und später Schrift wurde das Wissen um die Herstellungsverfahren und Erfolge dieser Hilfsmittel weitergegeben. Dadurch wuchs das Wissen und die Hilfsmittel wurden immer leistungsfähiger.

Die ersten Epochen dieser Entwicklung nennt man Steinzeit, Bronzezeit und Eisenzeit. Die Namen beziehen sich auf die Stoffe, aus denen die Werkzeuge gefertigt wurden, also auf Materie. Auch das spätere Handwerk gliederte sich weitgehend nach der von ihm verarbeiteten Materie. Hufschmiede und Nagler verarbeiteten Eisen, Kupferschmiede Kupfer, Messingschleifer Messing, Schreiner Holz, Metzger Fleisch usw.

Der Beginn des 19. Jahrhunderts brachte eine Wende. Eine neue physikalische Größe trat in den Vordergrund, die Energie104. Mit der Erfindung der Dampfmaschine war es möglich geworden, menschliche und tierische Arbeitskraft durch Maschinen zu ersetzen, wodurch die Produktionskapazität und die Präzision der Produkte vervielfacht wurde. Die Entwicklung der Elektrizitätslehre ermöglichte es, die Energie (das ist die Fähigkeit Arbeit zu leisten) mühelos vom Erzeuger zum Verbraucher zu transportieren und sie in Form der elektrischen Energie in vielfältigster Weise einzusetzen. Das 19. Jahrhundert war das Zeitalter der Energie.

Mit Hilfe der Elektrizität war es nicht nur möglich, Licht und Wärme zu erzeugen und Elektromotoren einzusetzen, sondern auch Nachrichten über Leitungen und später mit Hilfe elektromagnetischer Wellen rund um die Erde und sogar innerhalb des Sonnensystems zu übertragen. Mit der Entwicklung der Nachrichtentechnik trat eine neue Größe in den Vordergrund, die Information. Samuel Morse hatte einen Code aus Punkten und Strichen für die Übertragung von Buchstaben erfunden, den er in seinem Morseapparat zur Nachrichtenübertragung benutzte. Er wurde noch in meiner Kindheit bei der Post für Telegramme und im zweiten Weltkrieg im Funkverkehr eingesetzt.

Die Kosten der Telegramme wurden aus der Buchstabenanzahl berechnet und man musste lernen, wie man mit wenig Worten viel sagen kann. Denn der Informationsgehalt einer Nachricht ist keinesfalls aus der Anzahl der Buchstaben oder der Wörter zu ersehen. Manchen Menschen gelingt es mit vielen Wörtern wenig bis gar nichts zu sagen. Man spricht dann von Geschwafel. Der Informationstheoretiker kennt dafür eine messbare Größe, die er Redundanz nennt. Sie vermindert den Informationsgehalt, verbessert aber unter Umständen die Verständlichkeit. Z.B. wenn etwas ein zweites Mal gesagt wird, weil es beim ersten Mal nicht richtig verstanden wurde.

Aus dem Bedürfnis, den Informationsgehalt einer Nachricht messbar zu machen, entwickelte C.E.Shannon 1949 die Informationstheorie. Einheit der Information ist das Bit. Es ist jene Größe, die die Antwort auf eine Ja/Nein-Entscheidung zweier gleich wahrscheinlicher Entscheidungsmöglichkeiten darstellt. Sein Wert wird durch die beiden Zahlen 1 und 0 oder durch die beiden Zustände Strom oder kein Strom in Schaltkreisen eines elektronischen Rechnersystems charakterisiert.

Die Information ist nach Materie und Energie die dritte wichtige Größe in der Menschheitsgeschichte geworden. Sie öffnet unseren Horizont mit atemberaubender Geschwindigkeit und trägt damit wesentlich zur völligen Umgestaltung unserer Welt bei. Im folgenden müssen deshalb ihre Grundlagen etwas eingehender erläutert werden.

Die Information hat etwas mit dem Überraschungseffekt zu tun. So ist der Informationsgehalt der Antwort ''Ja'' auf einen Heiratsantrag meist sehr viel kleiner als ein Bit, weil die Frage im allgemeinen erst gestellt wird, wenn man sich der Zusage ziemlich sicher ist. Ein ''Nein'' dagegen ist dann eine Riesenüberraschung mit vielleicht vielen tausend Bit Informationsgehalt.
Zieht man aus einer Urne, die eine schwarze und tausend rote Kugeln enthält, ohne hinzusehen eine rote Kugel, so hat die Frage nach der Farbe wenig Information, da man ja fast immer rote Kugeln zieht. Zieht man dagegen die schwarze Kugel, dann ist die Überraschung und damit der Informationsgehalt der Nachricht groß.

Eine wichtige Kenngröße eines Nachrichtenübertragungssystems ist seine Kanalkapazität. Sie gibt an, wieviele Bit pro Sekunde übertragen werden können. Jede Nachrichtenübertragung wird nämlich durch Fremdeinflüsse gestört. Da gibt es das Leitungsrauschen durch die Wärmebewegung der Elektronen in den Leitungen, das kosmische Rauschen durch elektromagnetische Strahlungen aus dem Weltraum, die Störeinflüsse anderer elektrischer Geräte usw. Dieses Rauschen kann so stark werden, dass die Nachricht verstümmelt oder sogar nicht mehr erkennbar wird.

Nun gibt es Techniken, die Verständlichkeit zu verbessern. Naheliegend ist es, die Nutzsignale zu vergrößern, um sie aus dem Rauschen herauszuheben. Das hilft leider nur bedingt, da auch die Rauschsignale mit verstärkt werden. Durch Vergrößerung des Zeitaufwandes für die Übertragung kann man dennoch jede gewünschte Übertragungsqualität erreichen. Diese wichtige Aussage Shannons mag am folgenden Beispiel verdeutlicht werden.

Die amerikanischen Venussonden105 enthielten einen Sender mit nur 10 Watt Sendeleistung106. Trotz riesiger Empfangs-Antennenspiegel in der Größe eines Fußballfeldes war das Empfangssignal nur ein Bruchteil des überlagerten Rauschens und völlig unerkennbar. Man nahm die Messdaten in einem Speicher auf und sendete den Inhalt 10000-mal in regelmäßigen Zeitabständen. Die 10000 Empfangssignale hat man einfach addiert. Das Nutzsignal wurde dabei um den Faktor 10000 vergrößert, da es immer die gleiche Form hatte. Das Rauschsignal aber vergrößerte sich wegen seiner jedesmal anderen Form nur um den Faktor 100. So konnte man das Nutzsignal aus dem Rauschen herausheben und auswerten.

Aus diesem Shannonschen Gesetz leuchtet es ein, das jedes Übertragungssystem, je nach technischem Aufwand eine mehr oder weniger begrenzte Kanalkapazität hat. Berechnet man die Kanalkapazität einer Nachrichtenübertragung zu unserem nächsten Fixsternnachbarn im Weltall, dem Toliman (Alpha-Centauri) mit einer Entfernung von 4,2 Lichtjahren unter sehr optimistischen Bedingungen, dann erhält man eine Kanalkapazität von 23 bit/s. Für die nächsten 10 Fixsternnachbarn reduziert sich dieser Wert bereits auf 0,4 bit/s und für den Funkverkehr innerhalb unserer Galaxis auf 0,1 bit/Jahr. Ein Funkverkehr mit irgendwelchen grünen Männchen wird damit recht unrealistisch, zumal Antwortzeiten zwischen 8,4 und 200 000 Jahren liegen. Es kommt noch dazu, dass wir erst seit wenigen Jahrzehnten über Funkeinrichtungen verfügen. Die Dauer der Hochtechnisierung wird voraussichtlich nur wenige Jahrhunderte dauern. Im Vergleich zu 4,5 Milliarden Jahren Erdalter ist das ein Klacks. Die Aussicht, dass am Zielort unseres Antennenstrahls gerade eine hochtechnisierte Gesellschaft wartet, ist lächerlich gering.

Soviel zur Informationsübertragung. Nun zur Datenverarbeitung. Sie ist nicht so neu wie meist angenommen wird. Ihre Anfänge reichen in vergangene Jahrhunderte zurück. So wurden Lochstreifen, in denen die Informationsbits durch Loch oder Nichtloch charakterisiert sind, schon in den Musik- und Zeichenautomaten früherer Jahrhunderte eingesetzt. Die Lochkarte wurde von Herrn Hollerith im 19. Jahrhundert anläßlich einer Volkszählung erfunden. Hollerithmaschinen für Rechenaufgaben wurden bei Siemens noch in den Fünfzigerjahren des 20. Jahrhunderts für komplizierte Rechenaufgaben eingesetzt.

Die erste funktionsfähige Datenverarbeitungsanlage wurde 1941 von Konrad Zuse entwickelt. Sie arbeitete mit elektromagnetischen Relais. Gegen Ende des zweiten Weltkrieges entwickelte John von Neumann in Amerika den ersten Elektronenrechner mit Entscheidungsvermögen. Sein ENIAC beanspruchte ein mehrstöckiges Gebäude und die Energieversorgung einer Kleinstadt. Die Leistung des ENIAC ist einem heutigen programmierbaren Taschenrechner vergleichbar.

Damit war der Durchbruch geschafft. Es folgte eine stürmische Technologieentwicklung, die bis heute besteht und uns jedes Jahr noch größere Speicher in noch geringerer Größe beschert. Der erste Siemens-Rechner aus dem Jahr 1963 hatte einen Arbeitsspeicher von 50000 bit und benötigte einige Steckplatten mit tausenden Magnetringen. Heute (2011) speichert man mühelos 100 Milliarden bit auf einer Kristallscheibe von wenigen Quadratmillimetern.

Datenverarbeitungsanlagen waren zunächst Rechenautomaten, konnten aber schon Buchstaben aufgrund von Zahlencodes ausdrucken. Ich schrieb deshalb 1964 ein Programm, das die Auswahl der Magnetkerne und die Berechnung der Wicklungen für Netztransformatoren durchführte und die Ergebnisse in Form einer Bauvorschrift für die Wickelei ausgab. Das war so eine Sensation, dass ich damit auf Vortragstournee nach Berlin und Erlangen geschickt wurde. Die Wirkung war ein sprunghafter Anstieg der bis dahin sehr spärlichen Anwendungen unserer ersten DV-Anlage.

Dies war wohl der erste Übergang von der Datenverarbeitung zur Informationsverarbeitung. Als Daten bezeichnet man nämlich Ketten von Schriftzeichen ohne Berücksichtigung von deren eventuellen Informationsgehalt. Auch Textverarbeitung ist eine reine Datenverarbeitung, da sie Textänderungen rein formal ohne Berücksichtigung des Aussagengehaltes durchführt. Informationsverarbeitung benutzt dagegen Begriffe, denen bestimmte Bedeutungen zugeordnet sind, die vom Programm berücksichtigt werden.

Inzwischen vollzieht sich der Übergang von der Informationsverarbeitung zur Wissensverarbeitung. Man spricht auch von künstlicher Intelligenz. Das heißt, dass die Programme Wissen enthalten und aufgrund dieses Wissens Entscheidungen treffen. Der Anwender braucht also über dieses Wissen selbst nicht mehr unbedingt zu verfügen.

Die bekanntesten Beispiele sind Expertensysteme107 für medizinische Diagnosen, die zu den eingegebenen Symptomen die passenden Krankheitsbilder suchen. Auch für jene Krankheiten, an die der behandelnde Arzt nicht unbedingt gleich denkt. Es werden auch gleich die nötigen Untersuchungen genannt, um die in Frage kommenden Krankheiten weiter einzugrenzen.
Auch die CAD-Systeme108 zur rechnerunterstützten Entwicklung elektronischer Schaltungen, für die ich an der Siemens-Schule für technische Assistenzkräfte die Ausbildung durchführte, sind Systeme technischer Intelligenz. Der Entwickler einer Schaltung hat einen ungeheuren Wissensschatz zu berücksichtigen, der es ihm unmöglich macht, auch noch über das umfangreiche Wissen der Fertigungsmöglichkeiten zu verfügen. Dieses Wissen steckt im Programm und verhindert Entwicklungen, die man nachher nicht kostengünstig fertigen kann.

Internet, Multimedia und Robotik stellen einen weiteren Entwicklungsschritt dar, der im Bereich der Medizin Ferndiagnosen und selbst chirurgische Eingriffe höchster Präzision über ferngesteuerte Roboter ermöglicht. Darüber hinaus ist alles Wissen der Menschheit in Schrift, Bild und Ton problemlos zugänglich geworden. Das Ergebnis ist die total informierte Gesellschaft. Arbeitsplätze werden künftig weitgehend im eigenen Heim liegen, mit weitgehend frei wählbarer Arbeitszeiteinteilung, beliebigen Konferenzen ohne Dienstreisen, Entlastung der Verkehrswege und damit derUmwelt usw.

Ermöglicht wurde diese Entwicklung durch Satellitenverbindungen109 und durch Glasfaserdatennetze110 mit einer so großen Kanalkapazität, dass sie selbst durch Multimedia-Systeme nicht voll ausgeschöpft werden kann. Trotz dieser traumhaften Aussichten gibt es auch negative Konsequenzen. So heißt z.B. eine Aussage der Informationstheorie ''Alles wissen heißt alles zerstören''. Worauf diese Aussage beruht und inwieweit sie hier anwendbar ist, ist der Gegenstand des Kapitels "Ordnung und Unordnung".

zurück zu Inhalt!
Ordnung und Unordnung
In der Wärmelehre der Physik gibt es einen Satz, der besagt, dass in einem abgeschlossenen System die Unordnung nur zunehmen kann. Ein abgeschlossenes System ist dabei ein von einer Hülle, also einer in sich geschlossenen Fläche begrenzter Raum, wobei durch die Hülle keinerlei Austausch von Energie oder Materie von innen nach außen oder umgekehrt erfolgt.
Dies scheint eine Binsenweisheit zu sein. Wer hat nicht erlebt, dass Unordnung von selbst immer nur zunimmt und dass es immer erneuter Anstrengung bedarf, Ordnung zu schaffen. Nun ist allerdings die zunehmende Unordnung am Schreibtisch immer durch Menschen, Tiere, einen Windstoß oder dergleichen verursacht, denn im versperrten Raum bleibt die Ordnung erhalten, solange dieser Raum nicht durch Erdbeben oder Explosionen erschüttert wird.

Das heißt, der Schreibtisch, an dem die Unordnung zunimmt, ist eigentlich kein abgeschlossenes System. Denn der Störfaktor Mensch bezieht seine Energie über die Nahrungskette und die Assimilation letztlich von der Sonne. Das Sonnensystem müsste also in die Überlegung einbezogen werden und selbst eine Hülle um dieses würde noch vom Sonnenlicht durchdrungen. Genau genommen gibt es also das abgeschlossene System nicht. Es ist eine Idealisierung. Aber wenn der Energiestrom durch die Hülle hinreichend klein wird (Materie ist eine spezielle Form der Energie), dann gilt die Aussage hinreichend gut.

Als Maß für die Unordnung wird eine Größe definiert, die man als Entropie bezeichnet. Der Entropiesatz besagt, dass die Entropie in einem abgeschlossenen System insgesamt nur zunehmen kann. Lediglich in Teilbereichen ist auch eine Abnahme auf Kosten der anderen Bereiche möglich. Der Entropiesatz ist der wichtigste Satz der Physik, denn er bestimmt alle Abläufe im Weltall. Nicht zuletzt unser eigenes Tun und Handeln. Was uns als Willensfreiheit111 erscheint, ist letztlich auch nur die Reaktion auf gespeicherte äußere oder ererbte Informationen oder auf statistische Mikroprozesse in unserem Gehirn.

In der Thermodynamik112 der Physik steuert der Entropiesatz den Wärmeausgleich. Dies sei an einem Gedankenexperiment113 erläutert. In einem Gas bewegen sich die Moleküle wild durcheinander, ähnlich den Mücken in einem Mückenschwarm und zwar umso schneller, je wärmer das Gas ist. Die mittlere Bewegungsenergie der Moleküle ist das, was wir Temperatur nennen. Trennen wir ein gasgefülltes Gefäß durch eine Zwischenwand, dann entstehen zwei getrennte Räume mit Molekülen gleicher mittlerer Energie also gleicher Temperatur.

Nun ordnen wir die Moleküle nach ihrer Geschwindigkeit, die schnellen in das linke Gefäß, die langsamen in das rechte. Dadurch entsteht eine Temperaturdifferenz. Ziehen wir die Trennwand heraus, dann durchmischen sich die Moleküle aufgrund ihrer Wärmebewegung, die Ordnung geht verloren und es stellt sich eine mittlere Temperatur ein. Zunahme der Unordnung (Entropie) heißt hier also Temperaturausgleich.

Auf diese Weise gleichen sich in einem abgeschlossenen System Temperaturunterschiede aus und es stellt sich eine einheitliche Temperatur ein. Man spricht vom sogenannten Wärmetod, denn auch Leben ist ohne Temperaturunterschiede nicht möglich. Wenn unsere Sonne einmal erkaltet sein wird, ist auch Leben auf der Erde erloschen.

Die Entropie als Maß für die Unordnung und damit für den Ausgleich von Energieunterschieden reguliert durch ihr Anwachsen sämtliche chemischen, physikalischen und biologischen Prozesse. Dass sich dennoch Leben immer wieder erneuert, liegt an dem Energiepotential der Sonne, die über die Assimilation immer wieder chemische Potentiale aufbaut und damit in Teilbereichen den Übergang zu Ordnung ermöglicht. Das Wachsen der Kristalle aus einer übersättigten Lösung ist ein Beispiel dafür, denn die Potentiale114 der Bindungskräfte der Moleküle115 werden dabei ausgeglichen.

Auch Potentialunterschiede stellen Ordnung dar. Wenn Wasser bergab fließt, wird seine potentielle Energie116 abgebaut. Die Entropie wächst. In dieser Weise wächst sie auch beim Abbau der Bindungspotentiale bei der Kristallisation trotz der im Kristall entstehenden Ordnung der Moleküle. Ähnlich ist das bei chemischen und biologischen Prozessen, etwa beim Wachstum der Lebewesen. Immer geht diese Vergrößerung von Ordnung auf Kosten der Ordnung in anderen Bereichen. Insgesamt nimmt die Unordnung zu. Letztlich ist es das Ordnungsreservoir im Inneren der Sonne, die das Leben ermöglicht. Aber diese Ordnung nimmt ab. Zum Glück sehr langsam.

Soweit der Entropiebegriff. Als ich bei meinem Studium erstmals den Begriff kennenlernte, fragte ein Kollege einen anderen: Haben sie das verstanden? Worauf die Antwort kam: Das kann man nicht verstehen, daran muss man sich gewöhnen.
In dieser Aussage steckt eine tiefe Wahrheit. Sind nicht auch die Begriffe Kraft, Arbeit, Energie, Leistung zunächst unverständlich? Sie gehen uns erst durch den häufigen Gebrauch in Berechnungen in Fleisch und Blut über. Bei Gesprächen mit meinem Vater stellte ich fest, dass er diese Begriffe nicht auseinanderhalten konnte. Er deutete sie alle als eine Art Muskelkraft.

Als Shannon seine Informationstheorie entwickelte, stellte er eine Formel für den Informationsbegriff auf. Information entsteht immer aus einer Informationsquelle. Für die Ergiebigkeit einer Quelle, also die im Mittel pro Sekunde erzeugte Information fand er eine Formel, die mit der seit hundert Jahren bekannten Formel Boltzmanns für die Entropie aus der Wärmelehre übereinstimmte. Er nannte sie deshalb ebenfalls Entropie.

Die Folge war eine wüste Beschimpfung Shannons in der Fachliteratur, weil er für völlig verschiedene Größen den gleichen Namen verwendete. Es stellte sich aber in den Folgejahren heraus, dass er das gleiche Ordnungsmaß gefunden hatte wie seinerzeit Boltzmann und dass die Namensgleichheit zu Recht bestand. Auch in der Ordnung der Moleküle steckt Information. Boltzmann hatte also mit dem Informationsbegriff gearbeitet, ohne dessen Allgemeingültigkeit zu erkennen.

So verschmolzen Thermodynamik, Molekularphysik und Informationstheorie zu einem einheitlichen System. Mit der Folge, dass der Entropiesatz auch auf Nachrichten anwendbar ist. Er besagt dann: In einem abgeschlossenen System kann der Informationsgehalt nur abnehmen. Wir kennen das alle. Durch öfteres Weitererzählen wird jede Nachricht unschärfer. Ebenso durch wiederholtes Abschreiben, durch Übertragung über große Entfernungen, ja selbst bei bloßer Speicherung. Immer wird sie durch überlagertes Rauschen verfälscht, das letztlich aus den Wärmebewegungen der Elementarteilchen stammt. Auch das Vergilben von Photos durch Lichteinwirkung entspricht dem Entropiesatz.

Ja sogar die scheinbar dumme Frage: Hast du aus der Zeitung wieder alles herausgelesen? ist ernst zu nehmen. Denn jeder Lesevorgang vermindert den Informationsgehalt ein ganz klein wenig. Wie das kommt? Zum Lesen wird Licht benötigt, das den gedruckten Text abtastet und in unsere Augen reflektiert. Dabei gibt es einen Photoeffekt, der immer auftritt, wenn Licht auf Materie fällt. Durch die Photonen (Lichtteilchen) werden Elektronen aus dem Papier herausgeschossen, wodurch Atome im Papier ionisiert werden und mit der Luft chemisch reagieren. Das Papier vergilbt unter genügend langem Lichteinfluss und zerfällt schließlich.

Jede Art gespeicherter Information ist solchen Störeinflüssen ausgesetzt. Als wir die Speicher der Datenverarbeitungsanlagen kennen lernten und beobachten konnten, wie sie von Jahr zu Jahr kleiner wurden, haben wir sehr über die Signalanlagen der Bundesbahn gelacht. Zentnerschwere Metalltafeln wurden über dicke Drahtzüge gekippt, um dem Lokführer zu zeigen ob die Strecke frei ist. Insgesamt betrug der Aufwand wohl etwa eine Tonne pro Bit und das zu einer Zeit, wo bereits Millionen Bit auf kleinstem Raum untergebracht werden konnten.

Doch das hatte seinen Grund. Es sollte verhindert werden, dass die Information der Tafel durch kleine Störungen, etwa durch Stürme, Tiere oder böswillige Menschen sehr einfach verändert werden kann. Werden Speicher immer kleiner, dann genügen auch kleinere Störungen, um sie umzukippen. Damit ist eine physikalische Grenze für Speichergrößen gegeben. Kommt nämlich die Energie, die zum Umkippen eines Bit von Null auf Eins oder umgekehrt nötig ist, in die Nähe der mittleren Bewegungsenergie der Moleküle, die durch die Wärmebewegung gegeben ist, dann kann der Speicher seine Information nicht mehr halten und wird unbrauchbar.

In der Datenverarbeitung kommt man durch die ständige Verkleinerung der Speicher dieser Grenze immer näher. Nun muss man wissen, dass die Temperatur nur ein Mittelwert der Bewegungsenergie der Moleküle ist. Es gibt immer einige wenige, deren Bewegungsenergie durch mehrfache Stöße von Nachbarmolekülen von hinten besonders groß geworden ist. Die Verteilungsfunktion117 für die Geschwindigkeiten geht erst bei unendlicher Geschwindigkeit gegen die Wahrscheinlichkeit Null. Das heißt, jede noch so hohe Geschwindigkeit kann erreicht werden. Allerdings umso seltener, je größer die Geschwindigkeit ist.

Auch heutige Speicher sind also schon nicht mehr absolut sicher. Insbesondere die energiereichen Teilchen und Photonen der Höhenstrahlung118 bringen immer wieder einzelne Bit ungewollt zum kippen. Man kann dem aber durch Redundanz (siehe oben) entgegenwirken, indem man z.B. jedes Bit in drei Speicherzellen speichert. Enthalten diese beim Lesen nicht gleiche Information, dann nimmt man die Information, die die zwei gleichen enthalten. Die Fehlerwahrscheinlichkeit wird dadurch drastisch reduziert. In der Praxis hat man allerdings weniger aufwendige und dennoch wirksamere Methoden zur selbsttätigen Fehlerkorrektur durch Redundanz entwickelt.

Unser Gehirn benutzt für das Gedächtnis, komplizierte Netze von Verbindungswegen der Neuronen, die um viele Größenordnungen (eine Größenordnung entspricht einem Faktor 10, zwei dem Faktor 100 usw.) kleiner sind, als die von uns technisch realisierbaren. Es hilft sich damit gegen Verfälschung, so dass jeder Informatiionsverlust über Umwege (Eselsbrücken) ausgeglichen werden kann. Auch hier wird beim Lesen (so nennt man die Abfrage des Speichers) die mehrheitliche Information als richtig angenommen. Die Abfrage weit zurück liegender Informationen macht uns zunächst unsicher. Erst durch längeres Nachdenken werden wir immer sicherer. Oft dauert es Tage bis die Erinnerung kommt. Sie tut das oft ohne unser Zutun. Der Suchmechanismus läuft im Unterbewusstsein ab, wenn er erst einmal angeleiert ist und meldet sich im Erfolgsfall. Das geht sogar besser und schn eller, wenn man krampfhaftes Nachdenken unterbricht und an anderes denkt. Professor Spitzer sagt dazu: "stören sie ihr Gehirn nicht beim Denken!"

Nun zur versprochenen Antwort auf den Schlusssatz des vorigen Kapitels. Die Bestimmung des Speicherzustandes beim Lesen ist ein Messvorgang. Jeder Messvorgang hat die Eigenschaft, die gemessene Größe ein klein wenig zu verändern. Es bedarf zur Messung stets irgend welcher Sonden119, die auf das Messobjekt geschossen werden und deren Reaktion auf den Zusammenstoß beobachtet wird.

Meist benutzen wir Licht (d.h.Photonen) oder Elektronen (Ströme) als Messsonden, da deren Reaktionen besonders einfach festzustellen sind. Diese verändern jedoch durch ihre Stöße die Messgröße. Alles wissen heißt, Ort und Geschwindigkeit aller Elementarteilchen zu bestimmen. Da die Sonden jedoch selbst Elementarteilchen vergleichbarer Masse sind, werden Ort und Geschwindigkeit des Messobjektes beim Beschuss zwangsläufig verändert. Um alles zu wissen, muss man also alles verändern und damit die ursprünglichen Strukturen zerstören.

Nun gilt dieser Satz natürlich nur streng, wenn man wirklich alle Bewegungszustände der Elementarteilchen kennen möchte, was man in der Praxis gar nicht braucht. Aber die Sätze der Elementarteilchenphysik haben die merkwürdige Eigenschaft, irgendwie auch im Großen zu gelten. So weiß jeder Elektriker, dass die Spannung an den Klemmen einer Batterie sofort ein bisschen kleiner wird, wenn er seinen Spannungsmesser anschließt. Die wirkliche Spannung kann er dann nur nach einer Korrekturformel errechnen.

Darüber hinaus lehrt uns die Geschichte, dass es uns erst seit dem sprunghaften Wissensanstieg der letzten Jahrhunderte gelingt, die Umwelt wirksam zu zerstören. Und auch dies liegt letztlich am Entropiesatz. Wir nutzen unser Wissen um Rohstoffe aus Lagerstätten zu holen, wo sie schön geordnet als Erz, Rohöl oder Erdgas konzentriert sind, sie für unsere kurzsichtigen Wünsche nutzbar zu machen, indem wir sie verbrennen oder in Gegenstände umwandeln, die später, auf alle Müllhalden verteilt, verrotten. Die Durchmischung allen unterschiedlichen Mülls ist aber wieder die Vergrößerung von Unordnung, also Entropieanstieg.

Die Kenntnis dieses Zusammenhangs zeigt aber auch den Ausweg aus dieser Krise. Durch die Verwandtschaft von Information und Entropie ist es möglich, unter Aufwand von (z.B. technischer) Intelligenz Sortiervorgänge durchzuführen und die Rohstoffe wirksam zu recyclen. Man muss allerdings beachten, dass dies mit kleinem Aufwand an materiellen Hilfsmitteln und an Energie geschieht, da deren Gewinnung und Nutzung ja selbst wieder die Entropie vergrößert.

Die bange Frage bei der Aussicht auf die total informierte Gesellschaft ist die, ob es wieder einen sprunghaften Anstieg der Entropie geben wird, so wie es beim plötzlichen Wissenszuwachs der letzten Jahrhunderte bereits geschah, oder ob sich die neue Gesellschaft das Wissen um den Entropiesatz zunutze macht, um den Entropieanstieg weitgehend zu kompensieren.

zurück zu Inhalt!
Selbstorganisation
Die Lebenswelt hat sich im Lauf von Jahrmillionen und Jahrmilliarden aus einfachen Atomen und chemischen Verbindungen von Stufe zu Stufe entwickelt und hat so das, was von Anfang an möglich war, Wirklichkeit werden lassen. Das Großartige daran ist nicht zuletzt das Baumaterial, aus dem alles besteht: die Atome.

Die Eigenschaften der wenigen Hauptelemente wie Kohlenstoff, Wasserstoff, Sauerstoff und Stickstoff, neben etwas Phosphor, Schwefel und einigen andern Elementen, sind so überaus »genial« angelegt, dass alle weiteren Prozesse, bis zur Entwicklung der höchsten Lebensformen, durch Selbstorganisation der Atome, also ausschließlich durch deren »Fähigkeiten« möglich wurden. Man muss nicht Materialist sein, um das so zu sehen. Das Gewaltige waltet in den Dingen selbst.

Die Baupläne der Lebensformen enthalten gewaltige Mengen an Information und damit Ordnung.  Ordnung kann nach einem bekannten physikalischen Grundgesetz (Entropiesatz) in einem abgeschlossenen System von selbst nicht zunehmen. Das selbsttätige Wachsen geordneter Kristalle aus einer Nährlösung zeigt jedoch, wie die in den Elektronenbahnen der Atome nach den Gesetzen der Quantenphysik enthaltene Information (Orbitalentheorie) zu geordneten Strukturen führen kann.

Nach den gleichen Gesetzen entstehen selbsttätig chemische Strukturen von teilweise hohem Informationsgehalt, wenn die materiellen und energetischen Voraussetzungen hierfür gegeben sind. Offensichtlich enthalten bereits die Bausteine der Materie eine Art elementarer »Intelligenz« oder »Weltverstand«.

zurück zu Inhalt!
Die Entstehung und Entwicklung lebendiger Wesen
Sowohl die Entwicklung des Kosmos nach dem Urknall, als auch das Wachsen von Kristallen hoher innerer Ordnung aus hinreichend gesättigten Lösungen oder die Bildung hochgeordneter Molekülstrukturen120 aus einfachen chemischen Grundstoffen lassen den Trend zur selbsttätigen Entstehung geordneter Strukturen erkennen, ohne dass diese Vorgänge im Widerspruch zum Entropiesatz der Physik stehen, der bei oberflächlicher Betrachtung solches zu verbieten scheint. Ermöglicht wird dies durch die Eigenheiten der Bindungskräfte der Elementarteilchen (Orbitale121) in den Atomen.

Betrachtet man unter diesem Aspekt die Selbstreproduktion der Lebewesen, dann erhebt sich die Frage, ob Selbstreproduktion nach den Gesetzen der Physik und der Logik grundsätzlich möglich ist oder ob es zur Schaffung eines ersten Lebewesens eines göttlichen Schöpfungsaktes bedarf. So hat man z.B. in Universitätsstudien festgestellt, dass es möglich ist, Computerprogramme mit Selbstreproduktionsfähigkeit zu erstellen. Wie erfolgreich diese Bemühungen waren, beweisen die Computerviren122, die sich von diesen Arbeiten ursprünglich ausgehend auf dunklen Kanälen immer wieder in unsere Rechner einschleichen.

Als das Geheimnis der Selbstreproduktion der Lebewesen wurde die DNS erkannt. Ein Molekül mit Schraubenstruktur, das durch die Anordnung bestimmter Basen gewaltige Informationsmengen auf kleinstem Raum speichern kann. Je zwei Basen aus dem hierfür verwendeten Repertoir sind komplementär in dem Sinn, dass sie einander zu Atomgruppen konstanter Länge ergänzen und dabei die Schraube zur Doppelschraube machen.

Bestimmte Enzyme123 können die Doppelschraube wieder in zwei einzelne Schrauben aufspalten, worauf sich jede wieder durch Anlagerung komplementärer Basen in eine mit der ursprünglichen völlig identische Doppelschraube verwandelt. Es handelt sich also um ein Molekül mit völlig selbstständiger Vermehrung. Da jede dieser Basen auch eine Anschlussstelle für eine ganz bestimmte Aminosäure hat, also einen Baustein für jede Art von Eiweiß, wird die DNS auch noch zu einer Art Prozeßrechner zur Produktion von Eiweiß124. Ein sinnreicher Schaltermechanismus kann bestimmte Abschnitte der DNS aktivieren oder abschalten, so dass die Produktionsprogramme der Eiweißarten der Lebewesen zielstrebig ablaufen können.

Obwohl über die notwendigerweise viel einfachere Ur-DNS und deren Entwicklung zu den heutigen Formen noch große Wissenslücken bestehen, gibt es heute doch kaum mehr Zweifel, dass Leben beim Vorliegen ähnlicher Bedingungen, wie sie einst auf der Erde herrschten, wieder entstehen würde. Alle dafür notwendigen Basen und Aminosäuren finden sich auch in der interstellaren Materie und in Meteoriten. Auch durch elektrische Entladungen in einer Atmosphäre, die einst auf der Erde vorherrschte, konnten diese Substanzen im Reagenzglas erzeugt werden. Die einstigen Gewässer enthielten alle diese Substanzen, die miteinander reagierten, bis eines Tages jenes erste, vermehrungsfähige Molekül entstand.

Von nun an wurde die Entwicklung unseres Planeten durch das sich über den gesamten Erdball ausbreitende Leben in entscheidenden Punkten mitbestimmt.

zurück zu Inhalt!
Leib und Seele
Das wahrscheinlich größte und für die Wissenschaft am schwersten zu erklärende Rätsel ist das des eigenen Bewusstseins. Bis vor wenigen Jahren galt die Beschäftigung mit diesem Thema in naturwissenschaftlichen Kreisen als unseriös. Die theologische Erklärung durch eine unsterbliche Seele, die jedem Menschen, aber keinem Tier innewohnt und seinen Körper nach dem Tod weiß Gott wohin verlässt, ist recht unbefriedigend und natürlich auch unbeweisbar, ebenso wie die Nichtexistenz einer solchen Seele. Jahrtausendelanger Streit um die Beziehungen zwischen Leib und Seele und um den Seelenbegriff überhaupt blieb ergebnislos. Man einigte sich schließlich auf den Begriff Bewusstsein, im Sinne von bewusstem Erleben als einzige, wissenschaftlich erfassbare Größe.

Andererseits ist Bewusstsein aber auch nur an der eigenen Person beobachtbar. Der Schluss auf das Bewusstsein anderer Menschen beruht letztlich nur auf deren Aussagen, die allerdings recht glaubwürdig erscheinen, weil diese Menschen nach gleichen Prinzipien gebaut sind und sehr ähnlich funktionieren. Da Tiere uns nichts über ihr Bewusstsein erzählen, ist die Behauptung der Nichtexistenz ihrer "Seele" verständlich, wenn auch wenig überzeugend. Statt Seele sollte man hier allerdings besser "bewusstes Erleben" sagen, wie das die meisten Philosophen seit Kant tun, um dem fragwürdigen und theologisch angehauchten Leib-Seele-Problem aus dem Weg zu gehen.

In den letzten Jahren nehmen sich in zunehmendem Maß auch Naturwissenschaftler des Bewusstsein-Problems an. Dass man es lange Zeit für unlösbar hielt, darf kein Grund sein, darüber nicht nachzudenken. Viele Probleme hielt man vor der Entdeckung ihrer physikalischen Grundlagen ebenfalls für unlösbar.

Naturwissenschaftler versuchen stets, durch Beobachtung und Experiment ihre Spekulationen zu erhärten oder zu widerlegen. So ist man der Frage nach dem "Ich-Bewusstsein" von Tieren mit dem Spiegelexperiment auf den Grund gegangen. Es zeigte sich, dass außer Menschen nur Menschenaffen im Spiegelbild das eigene Individuum erkennen, während alle anderen Tiere (z.B. auch Paviane) bestenfalls Rivalen zu erkennen glauben.

Menschenaffen reagieren auf das Spiegelbild zunächst mit Staunen, zeitlupenartigen Bewegungen, die sie im Spiegelbild verfolgen, Betasten des eigenen Körpers bei Beobachtung des Spiegelbildes usw. Ein Gorillaweibchen legte sich ein Salatblatt auf den Kopf und betrachtete sichtlich wohlgefällig das eigene Spiegelbild. Andere versuchten, nach Erblicken ihres Spiegelbildes, einen Farbfleck aus ihrem Gesicht zu wischen, den man ihnen unbemerkt aufgemalt hatte. Schließlich begannen Menschenaffen, unter Zuhilfenahme von Spiegeln, Stellen ihres Körpers zu untersuchen, die sie sonst nicht sehen können. All dies spricht für ein Ich-Bewusstsein.

Die nächste Frage war, warum gerade Menschenaffen ein solches Ich-Bewusstsein entwickelt haben. Beobachtungen an Bewegungsabläufen verschiedener Affenarten beim Klettern zeigten, dass kleine Affen nur über ein relativ kleines Repertoir von programmmäßig ablaufenden Bewegungsmustern verfügen, die ihnen bei der Bewegung durch die Baumkronen völlig genügen, da sie sich problemlos bis in die dünnen Astspitzen bewegen und somit leicht von Baum zu Baum wechseln können.

Die viel schwereren Menschenaffen bewegen sich dagegen durch brüchiges Geäst, müssen sich den ständig wechselnden und für sie oft lebensbedrohenden Situationen schnell anpassen und erfinden mit viel Phantasie ständig neue, erfolgversprechende Bewegungsabläufe. In die in ihrem Gehirn gespeicherten Umweltmodelle, an denen sie die Risiken unmittelbar bevorstehender Bewegungen durchspielen, müssen sie auch ein Modell des eigenen Körpers mit all seinen zahlreichen Eigenschaften und Möglichkeiten einbeziehen, da von diesen Eigenschaften und Möglichkeiten eine erfolgreiche, sichere Bewegung maßgeblich abhängig ist. Sie mussten also ein "Körperbewusstsein" entwickeln.

Auch wir simulieren125 ständig, vor allem die unmittelbar bevorstehende Zukunft. Wir simulieren vorsorglich Verkehrsabläufe vor dem und beim Überqueren von Straßen, wir malen uns am Weg in die Firma aus, welche Arbeiten uns erwarten und wie sie durchzuführen sind. Wir überlegen, wie unsere Gesprächspartner auf unsere Argumente reagieren werden (auch über deren Modelle verfügen wir! Diese stehen aber nicht in Nervenverbindung mit der Sensorik126 und Motorik127 der ihnen zugeordneten Person, weshalb das Modell der eigenen Person eine Sonderrolle spielt, da es unsere Gefühle, Denkabläufe und Handlungen unmittelbar auslösen oder beeinflussen kann. Das ist das "Ich").

Nach Ansicht mancher Wissenschaftler beruhen unsere Schwierigkeiten bei der Erklärung des "Ich-Bewusstseins" auf der Identifizierung unseres Ich-Modelles mit der eigenen Person.

Wie die meisten Simulationsprogramme128enthalten unsere Denkmodelle Zufallsgeneratoren, die es uns erlauben, verschiedene denkbare Situationen durchzuspielen, um eine erfolgversprechende zu finden. Diese nicht der Realität entsprechenden Simulationen können leicht ausufern und werden deshalb stets auf Realitätsnähe überprüft. Unsere Phantasie wird dadurch auf das Machbare oder zumindest Mögliche eingegrenzt.

Wir sind aber in der Lage, die Filter129durchlässiger zu machen und spielerisch unglaubliche Geschichten zu erfinden oder uns daran zu ergötzen. Auch im Traum arbeiten die Filter sehr mangelhaft und gauckeln uns Bilder vor, die sich nach dem Erwachen als Trugbilder erweisen. Oft aber fällt es uns auch schwer, zwischen realer Erinnerung und Phantasie zu unterscheiden. Auch Phantasiebilder oder Traumbilder werden nämlich gespeichert, wenn sie uns hinreichend interessant erscheinen.

Mit dem Bewusstseinsproblem steht das Problem der Willensfreiheit in engem Zusammenhang. Diese Willensfreiheit widerspricht dem physikalischen Kausalitätsprinzip, also dem Prinzip, dass jede Wirkung eine Ursache hat und nie vor dieser Ursache wirken kann. Wenn das gilt und wenn Denkvorgänge und Entscheidungen ihre Ursache in physikalisch-chemischen Prozessen in unserem Gehirn haben, dann kann es keine Entscheidungsfreiheit geben. Sie ist immer vom Speicherzustand des entscheidenden Gehirns und von "Zufallsprozessen" abhängig. Das können z.B. thermische Bewegungsabläufe von Elemantarteilchen sein, die allerdings selbst kausal sind, also von den Bewegungszuständen aller wirksam werdenden Elementarprozesse abhängen.

Gefühlsmäßig sind unsere Willensentscheidungen völlig frei. Wir glauben stets, auch anders entscheiden zu können. In der Praxis ist das jedoch kaum so. Für jede Entscheidung gibt es "für" und "wider". Sie werden meist sorgfältig abgewogen. Manchmal wird auch gegen diese Fakten entschieden, aufgrund eines inneren Unbehagens trotz Auswertung aller sachlichen Gründe. Denkt man nachträglich über die Gründe für diesen Wechsel nach, dann kommen oft aus dem Unterbewusstsein Fakten hoch, die man bei der rein sachlichen Auswertung nicht bedacht hat.

Das Unterbewusstsein ist eine Leistung älterer und damit besser ausgereifter Gehirnteile, die mit "Gefühlsentscheidungen" arbeiten. Somit beruhen Entscheidungen wohl immer auf realen oder gespeicherten Fakten und deren Gewichtung. Liegen die "für" und die "wider" dicht beieinander, dann mag auch oft der "Zufall" in Form thermischer molekularer Bewegungen mitspielen. Manchmal muss man auch knobeln. Doch sind es wohl vorwiegend kausale Prozesse, die zur Entscheidungsfindung führen und das hat mit Willensfreiheit nichts zu tun.

Dieses Problem ist aus theologischen Gründen prisant. Die Willensfreiheit ist ein christliches Dogma, ein Glaubensgrundsatz. Der Islam kennt dagegen das Kismet, das Schicksalsbuch, in dem alles vorherbestimmt, also kausal bedingt ist. Der gläubige Christ Heisenberg suchte deshalb nach einer Schwachstelle des Kausalitätsprinzips und stieß so auf die Unschärferelation.

Schon zur Zeit Napoleons hatte Laplace die Behauptung aufgestellt, dass ein Dämon, der zu einem Zeitpunkt Ort und Bewegung aller Elementarteilchen des Weltalls kennt und über hinreichende Berechnungsfähigkeiten verfügt, die Zukunft für alle Zeiten vorherberechnen kann. Diese Aussage beruht auf mathematisch beweisbaren Fakten.

Heisenberg fand nun, dass es unmöglich ist, Ort und Geschwindigkeit eines Elementarteilchens gleichzeitig exakt zu bestimmen, da die zur Messung verwendeten Sonden selbst Elementarteilchen sind, die den Messvorgang beeinflussen und zwar so, dass nur eine der beiden Größen (auf Kosten der Genauigkeit der anderen) genau bestimmt werden kann. Ohne genau bekannte Anfangsbedingungen ist aber die exakte Vorhersage des künftigen Bewegungsablaufes nicht möglich.

Anfangs glaubten viele Physiker, ebenso wie ich, dass die Unmöglichkeit Ort und Geschwindigkeit exakt messen zu können nicht bedeutet, dass exakte Werte nicht existieren. Wenn sie aber existieren, dann sind auch die dadurch bestimmten Bewegungsabläufe exakt, wenn auch nicht numerisch berechenbar. Dann gilt aber auch das Kausalitätsprinzip uneingeschränkt. Mit der Weiterentwicklung der Quantentheorie zeigte sich jedoch, dass die Annahme einer grundsätzlichen Unschärfe auf Folgerungen führt, die sich experimentell bestätigen lassen. So kann Materie selbst bei Abkühlung auf den absoluten Nullpunkt nicht zur Ruhe kommen, da bei Geschwindigkeit Null Ort und Geschwindigkeit exakt bekannt wären, was dem Unschärfeprinzip widersprechen würde. Es bleibt also selbst beim absoluten Nullpunkt eine Zitterbewegung, die z.B. verhindert, dass flüssiges Helium fest wird.

Wegen der Äquivalenz von Materie und Energie, muss es auch für Photonen eine ähnliche Zitterbewegung geben. Diese Vakuumfluktuationen des elektromagnetischen Feldes haben sogar messbare Auswirkungen. Normalerweise sind im physikalischen Vakuum alle möglichen Schwingungsfrequenzen an den Fluktuationen beteiligt. Das Frequenzspektrum wird jedoch eingeschränkt, wenn wir in der Vakuumkammer zwei ungeladene Metallplatten anbringen, die wir parallel zueinander anordnen: Auf den leitenden Plattenoberflächen muss das Feld nämlich verschwinden, so dass dort - wie an den Endpunkten einer schwingenden Saite Schwingungsknoten auftreten. Erlaubt sind dann nur noch diejenigen Frequenzen, die diese Randbedingung erfüllen. Dadurch ändert sich die Nullpunktsenergie des elektromagnetischen Feldes, und die genaue Rechnung zeigt, dass dies eine winzige Anziehungskraft zwischen den - wohlgemerkt ungeladenen - Metallplatten zur Folge haben müsste, die selbst am absoluten Temperatur-Nullpunkt nicht verschwinden würde. Dieses Phänomen ist als „Casimir-Effekt" bekannt, nach dem berühmten holländischen Physiker und Bohr-Schüler Hendrik Casimir, der den Effekt voraussagte. Die Existenz einer solchen Vakuumkraft143 wurde im Jahre 1958 experimentell bestätigt. Nach Feynman herrscht in der "leeren" Quantenbox nicht etwa völlige Ruhe, sie gleicht eher einer brodelnden Suppe aus lauter virtuellen Teilchen-Antiteilchen-Paaren, die alle nur für einen flüchtigen Moment existieren, um sogleich wieder im "Energiepool" unterzutauchen. Feynman war an der Entwicklung der Quantenphysik maßgeblich beteiligt und galt als das größte Licht in der Physik seit Einstein. Er starb 1988 im Alter von 70 Jahren.

Der Glaube an das Kismet hat recht verhängnisvolle Auswirkungen. Da Menschen aus Ökonomiegründen stets zur Trägheit neigen, liegt es nahe, das Kismet in dem Sinn auszulegen, dass es wenig Zweck habe, sich anzustrengen, da das Schicksal ohnehin vorherbestimmt sei. Not und Armut sind oft die Folge dieser Auffassung. Aber dies ist nicht das vorherbestimmte Schicksal, sondern die Auswirkung der Beeinflussung eigener Entscheidungen durch den gespeicherten Glauben an das Kismet.

Abschließend ist festzustellen, dass in das Problem "Bewusstsein" Bewegung gekommen ist. Ich selbst habe es schon immer für das letzte wirklich große Rätsel der Naturwissenschaft gehalten. Natürlich bleiben auch jetzt noch viele Fragen offen. Z.B. das Farbproblem. Was unterscheidet Blau und Rot? Der Frequenzunterschied130 ist nur die physikalische Erklärung, gibt aber keinen Hinweis auf die Empfindungen "Blau" und "Rot". Sehen andere Menschen "Blau" so wie ich? Oder sehen sie "Blau" so wie ich "Rot" sehe, oder ganz anders?

Ähnliche Überlegungen gibt es für alle Arten von Empfindungen. Sie sind selbst nicht messbar, aber sie sind stets messbaren physikalischen Prozessen fest zugeordnet. Die Art dieser Zuordnung und das Phänomen Empfindung als solches, ist nach wie vor geheimnisumwittert. Ob es auf diese Fragen jemals Antworten geben wird, ist heute noch völlig ungewiss. Aber man sollte versuchen solche Antworten zu finden und man wird es tun.
 

zurück zu Inhalt!
Technik als Teil menschlicher Weiterentwicklung
Die Frage nach den Wechselbeziehungen zwischen Biologie131 und Technik ist wohl so alt wie die Technik selbst. Sind doch die einfachen technischen Werkzeuge den natürlichen Werkzeugen von Mensch und Tier nachempfunden oder dienten der Verbesserung ihrer Wirksamkeit. So der Fäustel der Steinzeitmenschen zur Erhöhung der Schlagkraft der menschlichen Faust und wenn es beim Schlagen Splitter gab, dann wurden deren scharfe Kanten als Messer oder Sägen verwendet, in Nachbildung scharfer Schneidezähne.

Mahlsteine bildeten die Arbeit der Backenzähne nach. Die erste bahnbrechende Erfindung jedoch war der Speer, die Nachbildung riesiger und gefährlicher Stoßzähne, die es dem Menschen ermöglichten, sich wilde Tiere vom Leibe zu halten und damit in Gebiete vorzustoßen, die ihm vorher unzugänglich waren. Das gab wieder Rückwirkungen auf die nunmehr bedrohte Tierwelt und so wurde die Technik Bestandteil der biologischen Evolution.

Alles dies erschien problemlos, solange sich die Technik evolutionär, also hinreichend langsam entwickelte. Die Erfindung des Buchdrucks, die Einführung der allgemeinen Schulpflicht (um das Buchwissen vielen Menschen zu erschließen), die Dampfmaschine, das Fließband, der Computer und die Mikroelektronik haben jedoch Revolutionen132 verursacht, also Entwicklungen die so schnell verlaufen, dass der Biosphäre zu wenig Zeit blieb, dem optimalen Gleichgewichtszustand durch natürliche Auslese hinreichend nahe zu kommen.

Wir Menschen geraten zunehmend selbst in diesen Teufelskreis, den wir durch unseren Intellekt133 ausgelöst haben. Wir sind an die durch die Technik viel zu schnell veränderte Umwelt nicht mehr angepasst.

Ein einfaches Beispiel:
Wir fürchten uns im Dunkeln, obwohl das tatsächliche Risiko, im Dunkeln Schaden zu nehmen, um Größenordnungen134 niedriger liegt, als das Risiko, das uns erwartet, wenn wir die Straße betreten oder uns in ein Auto setzen. Die Furcht erweckt das Bedürfnis, sich in Höhlen zu verkriechen, in denen man sich den Rücken freihalten kann oder sich mit anderen zusammenzurotten, um wehrhafter zu sein. Sie stellt somit eine Schutzmaßnahme vor Gefahren dar. Den Gefahren der Straße sind wir schutzlos ausgeliefert und das Auto täuscht uns heimtückisch die Sicherheit einer Höhle vor.

Die Natur konnte nicht schnell genug einen geeigneten Schutz gegen die neuen Gefahren entwickeln. Die Warnsysteme gegen die Nachtraubtiere sind dagegen unwirksam geworden, da es diese Tiere bei uns nicht mehr gibt.

Die  naheliegendste Reaktion auf die Erkenntnis der negativen Auswirkungen unserer Technik ist natürlich die radikale Abkehr von ihr. Wer so handelt, hat aber erst recht keine Chance auf Erfolg. Er vergisst nämlich, wie sehr die Möglichkeit, auf unserer Erde 7 Milliarden Menschen zu ernähren, von der Technik abhängt, ja wie sehr wir selbst uns bereits auf Gedeih und Verderb dieser Technik ausgeliefert haben. Lokale Katastrophen, die Teile des technischen Systems unwirksam werden lassen, geben uns kleine Hinweise hierüber.

Stromausfall von Stunden bringt Menschen in Fahrstühlen und U-Bahnen in große Bedrängnis, ja sogar Lebensgefahr. Stromausfall von Tagen lässt die Vorräte in den Kühlhäusern und Kühlschränken verderben und Kühe verenden, die ohne Melkmaschinen nicht mehr gemolken werden können. Selbst die Ölheizungen stehen meist still, weil kein Strom für die Umwälzpumpen zur Verfügung steht und das lässt uns schaudernd fühlen, was es heißt, der Kälte ausgeliefert zu sein.
Die Liste ließe sich endlos fortsetzen. Fertiggestellt liefert sie ein Bild totaler Vernichtung des größten Teiles der Menschheit. Nur "Unterentwickelte" haben Überlebenschancen, da sie von der Technik nicht abhängen.

Es kann für mich als Vertreter der Industrie aber nicht Aufgabe sein, die Schattenseiten unserer Abhängigkeit von der Technik aufzuzählen. Unsere Aufgabe ist es vielmehr, bisher gemachte Fehler, die hierzu geführt haben, zu erkennen und Wege aufzuzeigen, die technische Evolution mit der biologischen zu harmonisieren.
Wie schwer das ist, zeigen die Kapitel Das Zeitalter der Information und Ordnung und Unordnung. Ebenso aber auch, dass dieser mühevolle Weg die einzige Alternative zu einer nicht allzu fernen Katastrophe darstellt, die das Ende der Menschheit bedeuten könnte.

zurück zu Inhalt!
Grenzen der Erkenntnis
Bis vor wenigen Jahrzehnten standen Techniker und Naturwissenschaftler unter dem Eindruck der Erfolge, die auf die Berechenbarkeit realer Vorgänge mit Hilfe mathematischer Methoden und Computerprogramme zurückgingen, die auf bekannten physikalischen Gesetzen aufbauten. Diese im wesentlichen von Newton entwickelte Methode führte gleich bei ihren ersten Anwendungen zur Berechnung der Planetenbahnen auf derart präzise und beeindruckende Ergebnisse, dass man mehrere Jahrhunderte lang von ihrer universellen Verwendbarkeit überzeugt war. Die euphorische Stimmung wich jedoch Schritt für Schritt durch Erkenntnisse, die die Grenzen dieser Methodik zeigten. Es sind dies vor allem: Zur Beschreibung des Verhaltens dynamischer135 Systeme136 bedient man sich mathematischer Modelle in Form von Differentialgleichungen, die durch sinngemäße Anwendung der physikalischen Grundgesetze auf das behandelte System gefunden werden. Reale Systeme sind jedoch prinzipiell von aller Materie und Strahlung im Weltall beeinflusst, deren Reichweite unendlich groß ist (Gravitation, Strahlungsdruck usw.). Zum Glück zeigt die numerische Abschätzung dieser Einflüsse meist eine unbedeutend kleine Auswirkung dieser Kräfte. Die Kunst des Systemanalytikers137 besteht darin, wesentliches zu erkennen und unwesentliches wegzulassen. Stets stellen deshalb Modelle Vereinfachungen dar, die mit den realen Systemen nur näherungsweise gleiches Verhalten zeigen.

Zur Ermittlung der problemgerechten Lösungsfunktionen der Modell-Differentialgleichungen sind stets Anfangswerte (Orte, Geschwindigkeiten, Stromstärken, ...zum Zeitpunkt des Beginns des berechneten Vorganges) erforderlich, die man in der Praxis nur durch Messungen ermitteln kann. Unvermeidliche Messfehler bewirken Unsicherheiten der Ergebnisse innerhalb gewisser Fehlergrenzen.

Alle berechneten dynamischen Prozesse sind durch Störeinflüsse mit Zufallscharakter beeinträchtigt (kosmisches Rauschen aus dem Weltall, thermisches Rauschen von Elektronen in Leitungen, Streulicht,...). Diese bilden sich auf die Ausgangsgrößen des Systems ab, das dadurch einen nur grob abschätzbaren Zufallsanteil enthält. Man hat allerdings gelernt, das bestmögliche Resultat und dessen Fehlergrenzen zu ermitteln, das trotz vereinfachter Modelle, Messfehler und Störeinflüssen möglich ist. Die Kalmanfiltertechnik138, die dieses leistet, hat die Navigationsgenauigkeit in Luft- und Seefahrt schlagartig verbessert und viele Raumfahrtmissionen überhaupt erst möglich gemacht.

Zur Lösung von Differentialgleichungen ist man meist auf numerische Computerverfahren angewiesen, deren Aufwand von der Komplexität der verwendeten Modelle abhängt. Sehr genaue und daher komplizierte Modelle erhöhen den Rechenaufwand gewaltig. Oft stellen die Kosten die Durchführbarkeit einer Aufgabe in Frage.

Nicht nur die Kosten, sondern auch sich aufsummierende Fehler durch die begrenzte Stellenzahl digital gespeicherter Zahlen, können die Brauchbarkeit eines Rechenergebnisses in Frage stellen, wenn es sich um hochkomplexe Aufgaben handelt.

Modelle realer Systeme führen meist auf nichtlineare139 Differentialgleichungen. Da man meist nur lineare Differentialgleichungssysteme befriedigend lösen kann, führt man Linearisierungen durch, in denen krumme Ergebniskurven durch aneinandergereihte kurze Geradenstücke angenähert werden. Erst vor wenigen Jahren hat man festgestellt, dass für bestimmte Anfangswerte selbst dieses Verfahren unbrauchbar wird. Es gibt nämlich Bereiche für die Anfangswerte nichtlinearer Differentialgleichungen, wo selbst winzigste Änderungen dieser Werte zu völlig anderen Ergebnisfunktionen führen. Eine Voraussage ist unter solchen Bedingungen völlig unmöglich.

Man nennt die Bereiche für die Anfangswerte, in denen diese Probleme auftreten chaotisch. Die Chaostheorie untersucht diese Vorgänge. Dabei stieß sie auf das Phänomen, dass die Grenzen dieser Bereiche keine glatten Kurven sind, sondern oft künstlerisch anmutende Gebilde (Mandelbrodbäumchen, Apfelmännchen,...) die die Eigenschaft der Selbstähnlichkeit zeigen, d.h. dass beliebig groß herausvergrößerte Bereiche alle ähnlich aussehen. Mit diesen Phänomenen beschäftigt sich die Fraktale Geometrie140.

Auch bei der Wettervorhersage können die Messwerte für die Modellberechnungen in chaotische Bereiche kommen. Man hilft sich, indem man alle Anfangswerte geringfügig verändert und feststellt ob die Ergebnisse nur wenig verändert oder völlig andere sind. Im letzteren Fall weiß man zumindest, dass die Vorhersage nichts taugt. Man spricht da oft vom Schmetterlingseffekt, bei dem der Flügelschlag eines Schmetterlings in Mexiko eine Wetteränderung in Chile auslösen kann. Das Beispiel ist deshalb schlecht gewählt, weil Wechselwirkungen des Wetters über den Äquator hinweg kaum stattfinden.

Grenzen durch Vernichtung aller Spuren verhindern seriöse Antworten auf die Frage "Was war vor dem Urknall". Im Feuer des Urknalles wurden alle Spuren einer eventuellen Vergangenheit vernichtet.
 

zurück zu Inhalt!
Erschließung ungenutzter Wissensresourcen
Die Menschheit geht mit dem Wissen ihrer Individuen äußerst verschwenderisch um. Die täglich zu beobachtende Tatsache, dass Manager, Politiker und andere Führungskräfte offenbar außerstande sind, die gewaltigen Probleme allein zu lösen, zwingt zur besseren Nutzung der gewaltigen vorhandenen Wissensresourcen in den Köpfen vieler Mitarbeiter bzw. Mitbürger. Die Voraussetzungen hierfür sind durch die internationale Vernetzung und durch die Erfahrungen mit gruppendynamischen141 Arbeitsmethoden gegeben.
zurück zu Inhalt!
Problemlösungen in Internet- und Intranet-Foren
Wohl jeder Fernsehteilnehmer hat bei Diskussionen aktueller Probleme in Talk-Shows erlebt, dass an Lösungen, die ihm selbstverständlich erscheinen, dauernd vorbeigeredet wurde. Mangels einfacher Möglichkeiten, die eigenen Gedanken in die Diskussion einzubringen, gerieten diese wieder in Vergessenheit. Manche gute Lösungsideen gehen auf diese Weise einfach verloren. Da künftige Fernsehgeräte ohnehin Computer mit Internet-Anschluss sind, wird die spontane Ablieferung eigener Lösungsideen sehr einfach.

Natürlich wird man senderseitig nur unmittelbar einleuchtende Ideen spontan mit in solche Diskussionsrunden einbringen. Aber alle Vorschläge sollten, soweit sie nicht mehrfach gemacht wurden, schriftlich festgehalten und den Diskussionsteilnehmern zumindest nachträglich zur Kenntnis gebracht werden.

Es erscheint ratsam, die Adressen von Internet-Foren zu den verschiedenen angesprochenen Problemen zu nennen, an die Lösungsvorschläge von jedermann verschickt werden können. Prämien für erfolgreiche Lösungen würden den Anreiz zu eigener Beteiligung erhöhen. Speziell geschulte Auswerter müssten das Material sichten, bewerten und für brauchbar befundenes einer Realisierung zuführen.

zurück zu Inhalt!
Demokratie und Parteien im Internet-Zeitalter
Was die Medien täglich über politische Arbeit verbreiten, hinterlässt ein vernichtendes Bild über die Effektivität politischer Arbeit. Jedes Wirtschaftsunternehmen mit vergleichbarer Arbeitsweise wäre zum Bankrott verurteilt. Monate- und oft jahrelanges Gerangel um immer wiederkehrende Themen und gesetz- oder menschenrechtswidriges Verhalten zur Machterhaltung oder zum persönlichen Vorteil und zu Nachbeben aufgrund dieses Verhaltens, verhindern ernsthafte politische Arbeit, die dringend nötig wäre.

"Volksvertreter" vertreten nicht das Volk, sondern ihre persönlichen Meinungen und Interessen. Der Wähler wählt sie, ohne sie wirklich zu kennen, bestenfalls aufgrund kurzer Fernsehauftritte vor den Wahlen. Er hat keine Chance, auf diesem Weg seine eigenen Vorstellungen zur Wirkung zu bringen. Mit Demokratie hat dies nicht das Geringste zu tun.

Unterschiede in den Programmen verschiedener Parteien gibt es kaum noch. Keine Partei kann es sich leisten, soziale, liberale und wirtschaftliche Gesichtspunkte außer acht zu lassen. Die Kompromisse sind sehr ähnlich. Dennoch bekriegen sich die Parteien in unwürdigen Schlammschlachten. Das scheint wichtiger zu sein, als ernsthafte politische Arbeit. Politische Programme spielen auch bei Wahlen kaum noch eine Rolle.

Aus alledem kann geschlossen werden, dass unser Demokratieverständnis einer völligen Erneuerung bedarf. Parteien haben sich überlebt. So wichtig sie einst waren um soziale Ungerechtigkeiten auf ein tragbares Maß zu mildern ohne die Konkurrenzfähigkeit der Wirtschaft zu verhindern, schaden sie heute mehr als sie nutzen.

Wichtig wäre die Bildung von unparteiischen Arbeitsbereichen zur Erfassung, Bewertung und Lösung anstehender Probleme, wobei Erfassung und Bewertung über öffentlich zugängliche Internet-Foren erfolgen könnte. Die Problemlösung ist Sache spezifisch geschulter Spezialisten, die Durchsetzung und internationale Abstimmung ist Sache parteiloser Politiker.

zurück zu Inhalt!
Nachwort und Literaturhinweis
Der Inhalt dieser Webseite entstammt einer Sammlung von Fakten, wie ich sie als Physiker im Verlauf meines Arbeitslebens in der Freizeit gesammelt, vielen Leuten erzählt und immer wieder aufgrund besseren Wissens korrigiert habe. Die riesige Zahl von Quellen ist kaum zurückzuverfolgen. Umso mehr freute es mich, vor kurzem das Buch Vom Urknall zum Menschen, Verlag Brockhaus, Mensch, Natur, Technik 1999 in die Hand zu bekommen, in dem dieses Thema von versierten Fachleuten recht erschöpfend und ausführlich behandelt wird. Solltest du, lieber Leser auf den Geschmack gekommen sein, so kann ich dieses Werk wärmstens empfehlen, in dem sich auch zahlreiche weitere Literaturhinweise finden.
zurück zu Inhalt!
Kochrezept für Sewerettich
Meine Mutter, Marie Stockinger, war eine einfache, rechtschaffene und ordnungsliebende Wienerin und eine leidenschaftliche Köchin. In ihren letzten Lebensjahren begann sie manches zu vergessen, hatte aber ein hervorragendes Gedächtnis für weit zurückliegende Ereignisse und lange Gedichte, die sie in ihrer Schulzeit gelernt hatte und für Kochrezepte.

In ihren letzten Lebensjahren verbrachte sie manchmal mehrere Wochen als Besuch in unserer Münchner Wohnung und half meiner Frau Gerti tatkräftig im Haushalt mit. Da sie sehr eigenwillig war, ergriff sie dabei oft die Initiative, was wir meist schmunzelnd akzeptierten. Nur gelegentlich spielten sich stille Zweikämpfe mit meiner Frau ab, wenn die beiden abwechselnd die Sofakissen nach ihren jeweiligen Vorstellungen zurechtrückten.

Die Planung kulinarischer Maßnahmen erfolgte meist gemeinsam. „Was kochen wir heute?“ Diese oft gestellte Frage wurde eines Tages, an dem der Kühlschrank voller Reste war, von meiner Mutter mit „Machen wir doch einen Sewerettich, ein paar alte Semmeln sind ja auch noch da!“ beantwortet.

Natürlich fragten wir erstaunt, was denn ein Sewerettich sei. „Den macht die Elfi öfter“ kam als Antwort. Elfi ist die Frau von Gerhard, dem Sohn meiner Schwester. Also geschah es und die kulinarischen Vorbereitungen wurden von uns aufmerksam verfolgt:

    Die Semmeln wurden kurz eingeweicht, dann mit den klein geschnittenen Resten von Würsten, Schinken, Paprikaschoten
    und Tomaten, sowie mit Ei und etwas Milch durchgerührt und mit Petersilie, Fondor und Salz gewürzt. Die teigähnliche
    Masse wurde in eine mit Fett bestrichene Auflaufform gefüllt, mit Reibkäse bedeckt und im Rohr schön knusprig gebacken.

Das Ergebnis war hervorragend und Sewerettich wurde zu einer Standardspeise, an die wir uns immer erinnern, wenn sich entsprechende Reste angesammelt haben.

Einige Zeit nach dem Tod meiner Mutter, waren wir in Wien bei meiner Schwester Erni auf Besuch und berieten gemeinsam mit der gleichfalls anwesenden Elfi den Speiseplan. „Mach doch einen Sewerettich“, riet meine Frau Gerti. „Was ist denn das?“ fragte meine Schwester. „Na den macht doch die Elfi immer!“. „Was mache ich?“ fragte diese. Sie hatte das Wort zum ersten Mal gehört.

Als wir später den Gerhard fragten, war dieser über seine angebliche Lieblingsspeise ebenso erstaunt. „Es könnte von several dishes herkommen“, meinte er schließlich aufgrund seiner profunden Englischkenntnisse, was man bei einigem guten Willen als verschiedene Speisen oder verschiedene Zutaten interpretieren könnte und was dem Herstellungsverfahren recht nahe kommen würde.

Ob es wirklich von da kommt, das ist ein Geheimnis, das meine Mutter mit ins Grab genommen hat. Was blieb, ist neben dieser amüsanten Geschichte das obige Rezept einer einfachen, wohlschmeckenden und deftigen Speise. Versucht es nur einmal!

                                                                                                                                                                                                zurück zu Inhalt!
Begriffserklärungen
Mystizismus = Neigung zu geheimnisvoller innerer Erleuchtung         zurück zu 1
Esotherik = Geisteshaltung, die nur für Eingeweihte bestimmt und verständlich ist  zurück zu 2
Pseudoreligion = religiöse Verirrung          zurück zu 3
Scheinwelt = Eine nur in der eigenen Phantasie existierende Welt               zurück zu 4
Individualität = persönliche Einzigartigkeit       zurück zu 5
Umkippen = ungewöhnlich schnelle, radikale Zustandsänderung     zurück zu 6
Navigation = Standort- und Kursbestimmung bei Fahrzeugen aller Art     zurück zu 7
Mythologie = Lehre von überlieferten Sagen        zurück zu 8
Theologie = Wissenschaft von Gott, Glauben und Kirche       zurück zu 9
Fixstern = Stern, der am rotierenden Himmelsgewölbe festzustehen scheint, im Gegensatz zu z.B. Planeten  zurück zu 10
Phänomen = Erscheinung, Ereignis                  zurück zu 11
Pseudowissenschaftler = gibt vor, Wissenschaftler zu sein, arbeitet aber nicht nach deren Maßstäben zurück zu 12
Galaxie = Sternsystem ähnlich unserer Milchstraße (=Galaxis), die aus ca. 100 Milliarden Sternen besteht      zurück zu 13
Spektralfarben = weißes Licht wird durch ein Glasprisma in seine Farben zerlegt (Regenbogenfarben)        zurück zu 14
Lichtspektren = Spektren leuchtender Gase enthalten helle bzw. bei Durchleuchtung des Gases dunkle Linien,
                             deren Anordnung für die in den Gasen enthaltenen Stoffe charakteristisch sind        zurück zu 15
Dopplereffekt = Verlängerung einer Welle, durch kontinuierliche Vergrößerung des Abstandes von der Quelle zurück zu 16
Alter des Weltalls = Zeit, die seit dem Urknall vergangen ist     zurück zu 17
Materie = Körper, Gase und Flüssigkeiten bzw. die Teilchen, aus denen diese bestehen zurück zu 18
Strahlen = elektromagnetische Wellen wie Radiowellen, Licht einschließlich UV und Infrarot,
                Röntgen- und Gammastrahlen (all dies heißt in der Physik Licht)         zurück zu 19
Photonen = Teilchen, aus denen elektromagnetische Wellenstrahlen bestehen (Lichtteilchen, Quanten)          zurück zu 20
Teilchenbeschleuniger = meist ringförmige, manchmal auch geradlinige Anordnungen starker elektrischer
                                    und/oder magnetischer Felder, in denen elektrisch geladene Teilchen auf nahezu
                                    Lichtgeschwindigkeit beschleunigt werden     zurück zu 21
Expansion = Ausdehnung nach allen Richtungen         zurück zu 22
Quanten = kleinste Energiepakete von Wellenstrahlungen         zurück zu 23
Gravitation = Schwerkraft, wechselseitige Anziehungskraft von Mengen materieller Teilchen (Körpern,
                    Gasen, Flüssigkeiten)  aufgrund ihrer Massen   zurück zu 24
elektromagnetische Kräfte = Anziehung oder Abstoßung geladener oder magnetischer Substanzen in
                                            Abhängigkeit von ihrer Ladung bzw. magnetischen Polstärke zurück zu 25
Kernkräfte = Anziehungskräfte in Atomkernen, die verhindern, dass dessen positiv geladene Protonen
                    auseinanderfliegen         zurück zu 26
Wechselwirkungskräfte = wechselseitige Bindungskräfte zweier Partikel durch ständigen
                                        Austausch geladener Teilchen       zurück zu 27
Superkraft = bei Temperaturen, wie sie kurz nach dem Urknall herrschten, verschwinden die Unterschiede
                    der verschiedenen Arten physikalischer Kräfte. Sie werden zu einer universellen Superkraft
                    solange die Temperatur entsprechend hoch bleibt    zurück zu 28
Quarks = Elementarteilchen wie sie in den Atomkernen vorkommen, aber auch die meisten der in
                Teilchenbeschleunigern neu erzeugten Teilchen bestehen aus Quarks. Diese treten jedoch
                erst bei extremsten Energien als selbständige Teilchen auf  zurück zu 29
Leptonen = eine der Teilchenfamilien, die man in den Höhenstrahlen entdeckt hat und deren Vertreter auch
                bei den in modernen Teilchenbeschleunigern beobachteten Reaktionen auftreten. Der wichtigste
                Vertreter ist das Elektron. Elektronen bilden die Hüllen der Atome, deren Kerne sie, ähnlich wie
                Planeten die Sonne, umkreisen.       zurück zu 30
Zerfallszeit = Zeit nach der eine radioaktive Substanz auf den e-ten Teil der Anfangsmenge
                    abgesunken ist (e = 2,71828...)       zurück zu 31
Reaktionszeit = Zeit nach der der e-te Teil einer Substanz mit anderen Substanzen reagiert hat
                        (e = 2,71828...)         zurück zu 32
Proton = positiv elektrisch geladenes, relativ schweres Teilchen aus einem Atomkern   zurück zu 33
Neutron = elektrisch neutrales Teilchen, dessen Masse fast genau der Protonenmasse entspricht zurück zu 34
Massenwirkungsgesetz = In Stoffgemischen wo Reaktionen in gegensätzlichen Richtungen möglich sind,
                                       stellt sich jenes Gleichgewicht ein, bei dem ebensoviel jeder Substanz erzeugt
                                       wie verbraucht wird.         zurück zu 35
Antimaterie = Zu nahezu jedem Teilchen gibt es ein Antiteilchen, das mit diesem zur völligen Umwandlung
                     beider in ein gemeinsames Photon führt.     zurück zu 36
Ruheenergie = Auch in ruhender Masse ist Energie gespeichert, die bei Vernichtung dieser Masse frei wird.
                       (z.B. in Atomkraftwerken)        zurück zu 37
Deuterium = Das Atom des Wasserstoffs enthält nur ein Proton als Atomkern, der von einem Elektron
                    umkreist wird. Es gibt jedoch auch schweren Wasserstoff (Deuterium), dessen Kern auch
                    noch ein Neutron enthält und damit fast doppelt so schwer ist.             zurück zu 38
homogenisieren = so gut durchmischen, dass die Dichte (Masse pro m3) überall gleich ist          zurück zu 39
Ionisationstemperatur = Temperatur, bei der die Bewegungsenergie der Atome so groß wird, dass sie
                                    bei Zusammenstößen Elektronen aus der Atomhülle verlieren zurück zu 40
Wasserstoffatom = Ein Proton als Kern wird von einem Elektron umkreist. Das positive Proton und das
                              negativ geladene Elektron haben dem Betrag nach gleich große Ladungen zurück zu 41
Hintergrundstrahlung = Noch vom Urknall herrührende Strahlung, die aus allen Richtungen zu uns kommt          zurück zu 43
schwarzer Körper = Körper, der alles auftreffende Licht in Wärme umwandelt und nichts reflektiert.         zurück zu 44
interstellar = im Raum zwischen den Sternen         zurück zu 45
Positron = Teilchen, dessen Masse und Ladungsbetrag dem Elektron entsprechen, dessen Ladung aber
                positiv ist. Es ist das Antiteilchen zum Elektron. Beide zerstrahlen, wenn sie zusammentreffen.         zurück zu 46
Helium = Das zweitleichteste Element mit 2 Protonen und 2 Neutronen im Atomkern, der von zwei
               Elektronen umkreist wird.        zurück zu 47
Lithium = Element mit der Ordnungszahl 3, d.h. 3 Protonen im Atomkern    zurück zu 48
verschmelzen = Zusammenschluß zweier Atomkerne zu einem Atomkern eines schwereren Elementes.
                        Bei Fusionen, die zu leichten Elementen bis zum Eisen führen, ist diese Verschmelzung mit Energieabgabe
                        verbunden.          zurück zu 49
Strahlungsdruck = Beim Auftreffen von Lichtteilchen (Photonen) auf Materie wirken die Stöße dieser
                            Teilchen als Druck. Unter Laborbedingungen ist dieser Druck so klein, dass er nur
                            mit großer Mühe nachweisbar ist. Bei Temperaturen wie im Sterninneren wird er
                            jedoch zusammen mit der Gravitation zur alles beherrschenden Größe zurück zu 50
Fusion = Zusammenschluß zweier Atomkerne zu einem Atomkern eines schwereren Elementes. Bei den
              leichten Elementen bis zum Eisen ist diese Verschmelzung mit Energieabgabe verbunden.          zurück zu 51
Supernova = gigantische Explosion im Endstadium schwerer Sterne      zurück zu 52
kosmischer Staub = Trümmer fester Substanzen von mikroskopischer Größe bis zu Brocken mit mehreren
                               Kilometern Durchmesser        zurück zu 53
Rotverschiebung = Verschiebung der Spektrallinien einer sich kontinuierlich entfernenden Lichtquelle in
                            Richtung zu rot, also zu längeren Wellenlängen. Spektrallinien sind für die Substanzen
                            in der Quelle charakteristische helle oder dunkle Linien, die deren Analyse erlauben           zurück zu 54
dunkle Materie = Durch Beobachtung der Rotation der Spiralarme der Milchstraße erkennt man, dass die
                           Fliehkräfte etwa 10-mal größer sind, als die Gravitationskräfte der Summe der
                           bekannten Massen. Da die Spiralarme aber nicht auseinanderfliegen muß es 10-mal so
                          viel nicht direkt beobachtbare dunkle Materie geben, über deren Art noch spekuliert wird.     zurück zu 55
pulsierendes Weltall = übersteigt die Materie im All eine gewisse mittlere Dichte, dann wird die derzeitige
                                  Expansion bis zum Stillstand gebremst und geht hernach in eine Kontraktion
                                  (Zusammenziehen) über, wodurch es schließlich zu einem weiteren Urknall kommt.
                                  Der Vorgang würde sich periodisch wiederholen    zurück zu 56
Kettenreaktion = Jeder Brennvorgang erzeugt Zustände, die das Weiterbrennen begünstigen. Andere
                          Vorgänge hemmen das Weiterbrennen. Übersteigen die begünstigenden, die hemmenden
                          Prozesse, dann kommt es zur Kettenreaktion, die das Brennen aufrechterhält und u.U. bis
                          zur Explosion steigert.        zurück zu 57
Wasserstoffbombe = beruht auf der Verschmelzung von Wasserstoff zu Helium bei vielen Millionen Grad.
                               Zur Zündung dient eine Bombe mit Uranspaltung, wie sie u.a. in Hiroshima eingesetzt
                                wurde           zurück zu 58
weiße Zwerge = Endstadium der Sternentwicklung nach Verlöschen des Atomfeuers, aber Wärmeproduktion
                          aus der immer noch reichlich vorhandenen Gravitationsenergie, die beim in sich
                          Zusammensinken in Form von weißem Licht frei wird   zurück zu 59
Uran = schwerstes natürliches Element auf der Erde mit 92 Protonen im Atomkern    zurück zu 60
Joule = Energieeinheit = 1 Wattsekunde = 1 Newtonmeter       zurück zu 61
inkompressibel = nicht zusammendrückbar         zurück zu 62
Kollisionen = Zusammenstöße zurück zu 63
Drehimpuls = Trägheitsmoment * Rotationsgeschwindigkeit  (bleibt ohne äußere Kräfte konstant)           zurück zu 64
Trägheitsmoment = Widerstand gegen Drehbewegungen = Summe aller m*r2  (r ist der Abstand der Masse m
                              von der Drehachse)         zurück zu 65
Rotationsgeschwindigkeit = pro Sekunde überstrichener Winkel im Bogenmaß  zurück zu 66
Planetenatmosphären = Gas- und Dunsthüllen der Planeten     zurück zu 67
Sonnenwind = von der Sonne nach allen Richtungen ausgestrahlter Materiestrom   zurück zu 68
Planeten = Himmelskörper, die die Sonne auf kreisähnlichen Ellipsenbahnen umkreisen  zurück zu 69
Monde = Himmelskörper, die Planeten umkreisen        zurück zu 70
Swing-by = Ein Körper, der hinter einem Planeten dessen Bahn kreuzt, nimmt einen winzigen Teil von dessen
                  Bahnenergie auf und wird dadurch selbst beschleunigt   zurück zu 71
oxidierende Umgebung = die inneren Planeten Merkur, Venus, Erde, Mars enthalten beträchtliche Mengen
                                       Sauerstoff, der mit vielen Substanzen Oxide bildet    zurück zu 72
reduzierende Umgebung = die äußeren Planeten Jupiter, Saturn, Uranus, Nepton und Pluto enthalten reichlich
                                        Wasserstoff, der z.B. unter Bildung von Wasserdampf reduzierend wirkt. zurück zu 73
Kometen = überwiegend aus Eis bestehende Himmelskörper, die durch Bahnstörungen in der Oortschen
                  Wolke auf eine schlanke Ellipsenbahn geraten, die sie meist einige Mal umrunden, wobei sie bei
                  jedem Umlauf in die Nähe der Sonne geraten, wo ein Teil ihres Materials verdampft und einen
                  leuchtenden Schweif bildet        zurück zu 74
Pluto = der äußerste bekannte Planet unseres Sonnensystems      zurück zu 75
Oortsche Wolke = ein Ring aus schmutzigen Eisbrocken, der die Sonne ähnlich wie der Saturnring umgibt.
                             Durch Bahnstörungen gelangen immer wieder Einzelobjekte als Kometen auf Bahnen, die
                             sie periodisch in Sonnennähe bringen. Meist kollidieren sie nach mehreren Umläufen mit
                             einem Planeten          zurück zu 76
Saturnring = Staubring um den Saturn, den man schon mit einem Feldstecher sehen kann  zurück zu 77
Kometenschweif = Durch Aufheizung von Kometen in Sonnennähe wird Material ausgedampft, das durch den
                             Sonnenwind zu einem langen Schweif auseinandergezogen und zum Leuchten angeregt wird       zurück zu 78
Asteroiden = Kleinplaneten von Staubkorngröße bis zu mehreren km Durchmesser, die in riesiger Anzahl auf
                    Bahnen zwischen der Mars- und der Jupiterbahn die Sonne umkreisen. zurück zu 79
Sternschnuppen = Meteore           zurück zu 80
Meteore = Himmelskörper, die von außen in die Erdatmosphäre eindringen und verglühen, ohne den Boden zu
                 erreichen           zurück zu 81
Meteoriten = Himmelskörper, die von außen in die Erdatmosphäre eindringen und den Boden erreichen        zurück zu 82
Krater = ringförmige Gebirge oder Erdwälle, die durch Einschläge von Meteoriten entstanden        zurück zu 83
Mare = erkaltete Lavaseen auf dem Mond, die von der Erde aus als dunkle Flecken erscheinen          zurück zu 84
seismische Messstationen = Erdbebenmesseinrichtungen       zurück zu 85
Sonnenmodell = Auf mathematisch-physikalischen Vorstellungen beruhendes Computerprogramm, das die aus
                         Laborversuchen und physikalischen Gesetzen bekanntenVorgänge, die sich im Inneren der
                         Sonne abspielen nachbildet und so lange nachgebessert wurde, bis es das Verhalten der Sonne
                         richtig wiedergab. Auf Sterne anderer Masse angewendet, lieferte es viel zur Erklärung von
                        deren Verhalten und Lebenslauf       zurück zu 86
Simulation = ursprünglich Vortäuschung von Krankheiten durch für diese typisches Verhalten. In der modernen
                    Technik Nachbildung komplizierter Vorgänge durch Modelle in Form von Computerprogrammen       zurück zu 87
Treibhauseffekt = Glasdächer der Treibhäuser lassen sichtbares Licht durch, das beim Auftreffen auf Pflanzen
                           und Boden in Wärme umgewandelt wird. Die langwellige Wärmestrahlung der so erwärmten
                          Gegenstände wird dagegen vom Glas nicht durchgelassen und bleibt im Inneren des Treibhauses,
                          das sich dadurch weit über die Außentemperatur erhitzt. Man spricht deshalb auch von der
                         Wärmefalle. Auch Autos, die ohne Jalousien in der Sonne stehen, erreichen dadurch im Inneren
                         hohe Temperaturen. Bestimmte Gase (Kohlendioxid, Methan, Wasserdampf,...) in der
                         Atmosphäre wirken ähnlich wie das Glas der Treibhäuser zurück zu 88
Organische Substanzen = ursprünglich Stoffe aus Lebewesen. Da diese vorwiegend Kohlenstoff enthalten, nennt
                                       man inzwischen alle Kohlenstoffverbindungen organische Verbindungen
                                      (organische Chemie)         zurück zu 89
DNS = Desoxiribonukleinsäure = Erbsubstanz, die alle Informationen über den Bauplan und die ererbten
            Eigenschaften eines Lebewesens in einem einzigen Riesenmolekül speichert zurück zu 90
Evolution = so langsam stattfindende Entwicklung, dass genügend Zeit zu optimaler Anpassung gegeben ist.       zurück zu 91
Einzeller = Lebewesen, die aus einer einzigen Zelle bestehen, die alle notwendigen Organe als winzige
                Organellen in ihrem Inneren enthalten. Höhere Lebewesen aus vielen Zellen haben sich erst entwickelt,
                als die Einzeller bereits 1,5 Milliarden Jahre optimale Anpassung hinter sich hatten. Sie sind deshalb die
                erfolgreichsten Arten mit den größten Überlebenschancen zurück zu 92
Pangea = Bis vor 225 Millionen Jahren bestand die feste Erdkruste aus einem einzigen Kontinent, der vom Weltmeer
               umgeben war. Die ungleichmäßige Wärmeabgabe von Festland und Ozean führte zu einem Temperatur-
               anstieg unter dem Festland, mit starker Konvektionsströmung des Magmas, die schließlich das darauf
               schwimmende Festland in mehreren Stufen auseinanderriß, wodurch die heutigen Kontinente entstanden  zurück zu 93
Assimilation = der durch das Chlorophyll (Blattgrün) der Pflanzen ermöglichte Vorgang, der mit Hilfe der Energie
                      des Sonnenlichtes Kohlendioxid und Wasserdampf in organische Verbindungen umwandelt, wobei
                      Sauerstoff frei wird         zurück zu 94
Oxidation = Die Aufnahme von Sauerstoff oder Abgabe von Wasserstoff oder der Übergang von einer nieder-
                  wertigen in eine höherwertige Verbindung     zurück zu 95
Ultraviolettstrahlung = elektromagnetische Wellenstrahlung reicht von langwelligen Radiowellen über Mikrowellen,
                                  infrarote Wärmestrahlung, sichtbares Licht (rot, gelb, grün, blau, violett), Ultrviolett bis zu
                                  Röntgenstrahlen und Gammastrahlen radioaktiver Präparate zurück zu 96
FCKW = Fluorchlorkohlenwasserstoff war wegen seiner Ungiftigkeit ein beliebtes Treibmittel für Sprays und
                Kühlmittel in Kühlschränken, bis man erkannte, dass es bis zur Ozonschicht aufsteigt, dort durch
                UV-Strahlung zerlegt wird, wobei jedes frei werdende Chloratom viele Millionen Ozonmoleküle
                zerstört und damit unseren Schutzschild gegen die schädliche UV-Strahlung der Sonne zerstört      zurück zu 97
fossile Brennstoffe = Rückstände urzeitlicher Lebewesen in Form von Kohle Erdöl und Methaneis, in denen
                                riesige Mengen Kohlenstoff gebunden ist, der nach Verbrennung als Kohlendioxid in der
                               Atmosphäre katastrophale Klimaänderungen bewirken würde und teilweise schon bewirkt      zurück zu 98
Plattentektonik = Die Bewegung der auf dem Magma schwimmenden Kontinentalplatten durch dessen
                          Konvektion, die an den Grenzen einander berührender Platten Erdbeben und Vulkanismus
                          bewirkt           zurück zu 99
Riffsterben = Die in den letzen Jahren nachgewiesene globale Erwärmung um 1 Grad führt zum weltweiten
                    Absterben von Algen, die mit den Korallen in Symbiose (Zusammenleben zu beider Vorteil) leben.
                    Die dadurch entstehende Riffbleiche führt schließlich auch zum Tod der Korallen, die zeitlebens
                    Kohlendioxid in Kalk umwandeln, also aus der Atmosphäre entfernen zurück zu 100
Methaneis = Methaneisbrocken am Meeresgrund binden Methanmengen, deren Heizwert den allen Rohöls
                   übersteigen dürfte. Methan wirkt als Treibhausgas 14-mal stärker als Kohlendioxyd   zurück zu 100a
Maxime = wichtigste Richtlinie        zurück zu 101
Trägheitskraft = jene Kraft, die ein Körper auf Grund seiner Trägheit bei Beschleunigung durch eine andere Kraft
            dieser entgegensetzt. Kraft und Trägheitskraft stehen im Gleichgewicht, haben also gleichen Betrag.        zurück zu 102
Galaxien = Sternsysteme, wie unser Milchstraßensystem (Galaxis)  zurück zu 103
Energie = Fähigkeit Arbeit zu leisten      zurück zu 104
Venussonden = Raumflugkörper, die mit Messinstumenten und Sendern ausgerüstet zur Venus gesandt wurden und
                        deren Atmosphäre und Oberfläche untersuchten   zurück zu 105
Sendeleistung = Die pro Sekunde in Form elektromagnetischer Wellen von der Sendeantenne abgestrahlte
                              Energie zurück zu 106
Expertensysteme = Computerprogramme, die Expertenwissen enthalten und den Experten problemgerecht
                              anbieten           zurück zu 107
CAD = computer aided design = rechnerunterstütztes Entwerfen und Testen von Schaltungen und
                  Konstruktionen  zurück zu 108
Satellitenverbindungen = Nachrichtenübertragung über hochfliegende Satelliten, die große Teile der Erdoberfläche
                                     überdecken          zurück zu 109
Glasfaserdatennetze = Kabelnetze aus Glasfaserbündeln, die mit Nachrichtensignalen moduliertes Licht übertragen.
                                  Da die Frequenz (Anzahl der Schwingungen pro Sekunde) des Lichtes um mehrere
                                  Größenordnungen größer ist als die der Radiowellen, können um mehrere Größenordnungen
                                  mehr Frequenzbereiche gleichzeitig übertragen werden   zurück zu 110
Willensfreiheit = Die Freiheit, Entscheidungen völlig frei nach eigenem Willen treffen zu können
                         (Gott mischt sich nicht ein!)       zurück zu 111
Thermodynamik = Wärmelehre der Physik       zurück zu 112
Gedankenexperiment = Ein gedachtes Experiment, dessen Ergebnis aus einfachen logischen Schlüssen erkennbar
                                    ist            zurück zu 113
Potential = potentielle Energie (Energie der Lage, im Gegensatz zu Energie der Bewegung) eines passend
                 normierten Probekörpers an einem bestimmten Ort   zurück zu 114
Bindungskräfte der Moleküle = Atome können durch Abgabe oder Aufnahme von Elektronen ihrer Hülle positiv
                    oder negativ elektrisch geladen, d.h. ionisiert sein. Da sich positive und negative Ladungen anziehen
                    kann es zu Ionenbindungen kommen. Sehr oft entstehen Bindungen auch durch Elektronen, die
                    zwischen den Hüllen verschiedener Atome hin- und herpendeln. Auch dadurch entstehen
                    Bindungskräfte         zurück zu 115
potentielle Energie = Energie der Lage, im Gegensatz zu Energie der Bewegung (kinetische Energie). Wenn ich z.B.
                                einen Körper auf den Tisch hebe, vergrößere ich seine potentielle Energie, die beim
                                Herunterfallen wieder frei wird.       zurück zu 116
Verteilungsfunktion = In einem Gas fliegen die Moleküle wild durcheinender. Ihre Geschwindigkeiten ändern sich
                                ständig durch Zusammenstöße. Bestimmt man die Häufigkeit der gleichzeitig vorkommenden
                                Geschwindigkeiten innerhalb kleiner, aber gleich großer Geschwindigkeitsintervalle, so erhält
                                man die Verteilungsfunktion        zurück zu 117
Höhenstrahlung = Gesamtheit aller Wellen- und Teilchenstrahlungen, die aus dem All kommend auf die Erde treffen
                            sie stammen von der Sonne, von anderen Sternen oder Galaxien und vom Urknall zurück zu 118
Sonden = Fühler oder Probekörper zur Erfassung, bzw. Messung physikalischer Größen         zurück zu 119
Molekülstrukturen = geometrische Anordnung der Atome in einem Molekül   zurück zu 120
Orbitale = Nach den Gesetzen der Quantenphysik sind nur bestimmte Bahnen für die Elektronen in der Hülle von
                Atomen oder Molekülen stabil möglich. Die Wahrscheinlichkeit, dass in einem kleinen Raumbereich
                Elektronen auftreten, ist vom Ort abhängig. Die räumliche Verteilung dieser Wahrscheinlichkeit nennt
                man Orbitale (Orbit = Bahn). Die Orbitale der Moleküle verschiedener Stoffe bestimmen die Möglichkeit
                und Art ihrer Verbindung zu einem neuen Molekül   zurück zu 121
Computerviren = Programme, die in andere Programme eingefügt, deren Ablauf so verändern, dass durch die
                          verschiedensten Methoden die Vermehrung des Virus und Beschädigung von Dateien
                          bewirkt wird          zurück zu 122
Enzyme = Fermente, Biokatalysatoren, Eiweiß-Katalysatoren, durch deren Wirkung die gesamten chemischen
                Umwandlungen im Organismus ermöglicht werden. Fast für jede Reaktion haben die Zellen eines
                Organismus ein besonderes Enzym.(Katalysator = Substanz, die eine chemische Reaktion ermöglicht,
                beschleunigt oder verzögert ohne selbst durch die Reaktion dauerhaft verändert zu werden)        zurück zu 123
Eiweiß= Protein = makromolekulare organisch-chemische Verbindungen aus Kohlenstoff, Wasserstoff, Stickstoff
                und Sauerstoff, teilweise auch Phosphor und Schwefel; neben den Kohlenhydraten und Fetten die
                wichtigsten, lebensnotwendigsten Bestandteile der Nahrungsmittel und Reservestoffe. Eiweiß-Stoffe
                bestehen aus 20 Aminosäuren. Sie sind wichtiger Baustoff aller Lebewesen. zurück zu 124
Simulation = ursprünglich Vortäuschung von Krankheiten durch für diese typisches Verhalten. In der modernen
                    Technik Nachbildung komplizierter Vorgänge durch Modelle in Form von Computerprogrammen     zurück zu 125
Sensorik = Nervensystem für Empfindungen      zurück zu 126
Motorik = Nervensystem zur Steuerung von Bewegungsabläufen   zurück zu 127
Simulationsprogramme = Nachbildung komplizierter Vorgänge durch Modelle in Form von
                                      Computerprogrammen         zurück zu 128
Filter = Vorrichtung zur Trennung aufgrund unterschiedlicher Eigenschaften der zu trennenden Objekte         zurück zu 129
Frequenz = Anzahl der Schwingungen pro Sekunde. Einheit ist 1 Hertz = 1 Schwingung pro Sekunde          zurück zu 130
Biologie= Lehre von den Lebewesen        zurück zu 131
Revolution = sehr rasch ablaufende Entwicklung      zurück zu 132
Intellekt = Verstand          zurück zu 133
Größenordnungen = n Größenordnungen Unterschied zweier Zahlen bedeutet, dass die Division der größeren durch
                               die kleinere Zahl ein n-stelliges Ergebnis ergibt (n = 1, 2, 3, ...) zurück zu 134
Dynamik = Lehre von der Bewegung der Körper aufgrund der auf sie wirkenden Kräfte          zurück zu 135
System = Wirkungsgefüge. Ein System besteht aus Komponenten unterschiedlicher Funktion, die
                zusammenwirken          zurück zu 136
Analytiker = Fachmann für Analysen, d.h. für Untersuchungen zur Aufklärung bestimmter Funktionen oder
                    Fehlermechanismen Analyse bedeutet wörtlich Zerlegung. Untersuchungen erfordern oft ein Zerlegen
                    in leichter verständliche Teilfunktionen     zurück zu 137
Kalmanfilter = Lösungsverfahren für Differentialgleichungen, das trotz fehlerhafter Modellierung, mit Messfehlern
                      behafteter Anfangswerte und Beeinflussung des Ergebnisses durch Störfaktoren das bestmögliche
                      Ergebnis und dessen Fehlergrenzen liefert     zurück zu 138
nichtlinear = funktioneller Zusammenhang, bei dem die beteiligten Größen nicht nur als einfache Faktoren,
                   sondern auch als Potenzen dieser Faktoren (Quadrate, Kuben, usw. und/oder Produkte von solchen)
                   auftreten           zurück zu 139
Fraktale Geometrie = Geometrie der "gebrochenen" Linien      zurück zu 140
Gruppendynamik = Ein Team leistet mehr als die Summe seiner Teilnehmer! Dies liegt an der Anregung des
                              menschlichen Denkens durch Einwände von außen, die neuartige Gedankengänge
                              hervorrufen          zurück zu 141
zurück zu Inhalt!
Sonnenplasma = infolge der hohen Temperaturen im Sonneninneren jonisierte Materie, die das im Sonnenkern durch Fusionsprozesse erzeugte
                               Licht derart behindert, dass es erst Jahrmillionen nach seiner Erzeugung an der Sonnenoberfläche austreten kann. Da sich Licht im                                            Sonneninneren nicht ungehindert ausbreiten kann, ist die Sonne trotz ihrer Gasform undurchsichtig.         zurück zu
142

Vakuumkraft = Anziehungskraft zweier ungeladener Metallplatten im absoluten Vakuum    zurück zu 143
Stichwortregister
A
abgeschlossenes System
Absturz
analytische Geometrie
Anfangsbedingungen
Anfangsbombardement
Anfangskatastrophen
Anpassung
Antimaterie
Apfelmännchen
Arbeitsmethodik
Assimilation
Asteroide
Asteroidenstoffe
Atmosphärenbildung
Atmosphärengleichgewicht
Atomfähigkeiten
Atomverstand
Aufklaren
Auto
B
Bahnstabilisierung
Basen der DNS
Bauvorschrift
Bewusstsein
Bewusstseins-Problem
C
Chaos
D
Dämon
Das Zeitalter der Information
Datenverarbeitung
Demokratie und Parteien im Internetzeitalter
Demokratieverständnis
Der Einfluss des Lebens auf die Erdgeschichte
Die Entstehung und Entwicklung lebendiger Wesen
Die Entstehung unserer Sonne und ihrer Planeten
Die erste Sterngeneration
Die vierte Dimension
Diskussionsbeiträge
DNS-Bildung
Dopplereffekt
Drehimpuls
Dreidimensionalität
Dunkelmaterie
E
Einfache Antworten
Einfangen
Einfangtheorie
Einführung
Einschlagrisiko
Eiweißproduktion
Elementbildung
Elemente und Atome
Empfindungssubjektivität
Energiezeitalter
Entropie
Entropiebegriff
Entropiesprung
Entscheidungsvermögen
Entwicklung des Kosmos
Erdumfang
Erkenntnis und Individualität
Erschließung ungenutzten Wissenspotentials
Expansion
Expansionshemmung
Expertensysteme
F
Farbfleck
Farbproblem
Fehlerkorrektur
Fehlverhalten von Menschen
Fixsternfunk
Fusion
G
Galaxienbildung
Gedankenexperiment
Geometrie
Geschwafel
Geschwindigkeitsverteilung
Gewinnmaximierung
Glauben und wissen
Gravitation
Gravitationskollaps
Gravitationstheorie
Grenzen der Erkenntnis
Größenstabilisierung
H
Harmonisierung
Heliumbrennen
Heliumschale
Hilfsmittel
I
Ich-Entstehung
Informationsbegriff
Informationsquelle
Informationstheorie
Informationsverarbeitung
Informationsverlust
Informationszeitalter
Inhalt
Internetforen
Internetzeitalter
K
Kalender
Kalkbildung
Kanalkapazität
Kastenexperiment
Kausalität
Kausalitätsgeltung
Kernreaktionen
Kismet
Kismetglaube
Kometenbahnen
Kometenstoffe
Kometenwelt
Komplexitätszunahme
Kontinentalverschiebung
Kontrollinstanz
Körpermodelle
Kosmos und Universum
Kosten als Erkenntnisgrenzen
Krater
Kristallbildung
Krümmungstensor
Kugelraum
L
Langzeitgedächtnis
Leib und Seele
Lösungsprämien
M
Machtentzug
Mandelbrodbäumchen
Materiezeitalter
Mehrdimensionalität
Messfehler
Messgrenzen
Meteore
Modell des Alls
Modellgrenzen
Molekülstrukturen
Mondalter
Mondbeben
Mondentstehung
Mondentstehungstheorien
Mondmare
N
Nachtraubtiere
Naturwissenschaft und Wahrheit
numerische Grenzen
O
Orbitale
Ordnung und Unordnung
Ordnungsreservoir
oxidierend
Ozon
P
Parteiprogramme
Phantasiefilter
Photoeffekt
Planckzeit
Planetenbahnen
Planetenbildung
Politikeffektivität
Problemlösungen in Internet- und Intranetforen
Pulsation
pulsierendes Weltall
Punktkoordinaten
Q
Quarks
R
Raumfahrt und Grundlagenforschung
Raumkrümmung
Raumkrümmung und Kugelraum
Recycling
religiöser Glaube
Riesenstadium
Riffsterben
Rohstoffschwund
Rotverschiebung
S
Scheinwelten
Schmetterlingseffekt
Selbstordnung
Selbstorganisation
Selbstreproduktion
Signalanlagen
Silberkugel
Sinneswandel
Sonderrolle des Ich
Sonnenalter
Speicherdichte
Speichersicherheit
Spiegelexperiment
Spuren
Staub kosmischer
Staubring
Stichwortregister
Störeinflüsse
Strahlungstemperatur
Stromausfall
Superkraft
Supernova
Swing by
T
Technik als Teil menschlicher Weiterentwicklung
Technikabhängigkeit
Technisierung
Theorie und Hypothese
Theorieerweiterung
Tiefenwahrnehmung
Tiere
Tierseele
Trägheitskraft
Treibhauseffekt
Trugbilder
U
Überforderung
Übertragungsqualität
Umkippen unserer Welt
Unordnungsvergrößerung
Unsymmetrie
Unterbewusstsein
Uratmosphären
Urknall
Urzeugung
V
Vakuumkraft
Venussonden
Volksvertreter
W
Waffen
Wahrheit
Wärmeausgleich
Wärmetod
Was war vor dem Urknall?
Wasserstoffbrennen
Weiße Zwerge
Weltalter
Werkzeuge
Willensfreiheit
Wissenspotetial
Wissensverarbeitung
Wissensvermehrung
Wissenszuwachs und Mystizismus
Woher und wohin?
Z
Zauberlehrling
Zentrenbildung
 
zurück zu Inhalt!