Jump to content

Unser Universum erklärt von Bakhtosh


Bakhtosh

Recommended Posts

Hi Vatok

 

Und da die Sterne ja im Schnitt zwischen 9 und 13 Milliarden Jahre leuchten (je nach Masse etc.),geben sie ja eine ungeheure Menge an Energie und somit Hitze ab.....wo bleibt also die ganze Wärme?

 

Die "Sonnenstrahlen" treffen im All eben auf kaum ein Molekül, das sie aufheizen können wie zum Beispiel auf der Erde die Lufthülle und die Erde ansich.

 

Zu dem Mangel an Materie, die von Sonnenstrahlen erwärmt werden könnten, kommt noch, daß die Sonnen recht weit voneinander entfernt sind. Das unserem Sonnensystem am nächsten liegende System ist Alpha Centauri, so bummelig 4,3 Lichtjahre entfernt, das sind knapp 407 Billionen Kilometer, demgegenüber beträgt Distanz unserer Sonne von der Erde mal gerade im Höchstfall 152 Millionen Kilometer. Selbst auf diese kurze Entfernung macht es uns Sonne im Moment nicht so sehr warm. So Zahlen kann man sich kaum vorstellen, aber wenn Du bedenkst, daß Alpha Centauri etwa 2,5 Millionen mal so weit von uns entfernt ist wie unsere Sonne mußt Du zugeben, daß das Weltall ein ziemlich einsamer Platz ist!

 

Hinzu kommt das die Stärke der Strahlung mit der Entfernung proportional abnimmt.

 

 

 

Hi Redeyes ( hab dich net vergessen;) )

 

was geschieht mit den 4 tonnen wasserstoff die nicht in helium umgewandelt aber dennoch dem wasserstoff "fehlen"?

 

Energieproduktion in der Sonne: zwei Wasserstoffkerne verschmelzen zu einem Deuteriumkern, einem Positron und einem Neutrino. Das Positron trifft rasch auf ein Elektron, sie löschen sich gegenseitig aus, und nur Energie bleibt übrig. Der Deuteriumkern verschmilzt dann weiter mit einem weiteren Wasserstoffkern zu Helium-3. Im letzten Schritt verschmelzen zwei Helium-3-Kerne zu Helium-4 und zwei Wasserstoffkernen.

Zum sehen auf den Link klicken.

 

http://www.scienceinschool.org/repository/images/issue3_fusion1_large.jpg

 

Hoffe ich konnte helfen....

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

  • Replies 271
  • Created
  • Last Reply

Top Posters In This Topic

Spock fährt nen Diesel

 

 

 

Da das mit den Elementen hoffentlich geklärt ist ... hier mal die letzte grosse U.F.O Sichtung

 

Augenzeugenvideo: 'Ufos über Jerusalem'

 

 

Ok... das U.F.O scheint zwischen 10 und 20 m breit zu sein und bis zu 10 m hoch.

Was haben die bitte als Energiequelle in so einem begrenztem Raum die so stark ist um das Ding so zu beschleunigen ?

 

Animaterie wäre eine gute Antwort. Aber Antimaterie zu halten und verwerten zu können erfordert sehr ...sehr starke Magnetfelder und setzt außerdem Strahlung frei.

Diese Art von Technologie ist niemals in so einem beengtem Raum möglich.Wir erinnern uns " Die Physik ist im ganzen Universum gleich "

 

Dann dieser Start.... sieht nach von 0 auf ca. 1500 m/s aus, ungefähr diese Geschwindigkeit.

 

Machine gun firing at night - Tracer Rounds

 

 

Wo beibt denn bitte der Überschallknall ?

 

Sonic BOOM - Überschallknall

 

http://www.youtube.com/watch?v=VnNBsLNsiSQ

 

Nehmen wir mal unser Space Shuttle

 

es dauert 8 Sekunden, bis die Booster und Triebwerke das Shuttle auf 161 km/h = ( 44,7 m/s) beschleunigen. Nach einer Minute hat das Shuttle eine Geschwindigkeit von 1609 km/h = ( 446,9 m/s) und fast eine halbe Million Pfund Treibstoff verbraucht. Nach zwei Minuten hat das Shuttle dann eine Höhe von 45 Kilometern erreicht und eine Geschwindigkeit von 4828 Km/h = ( 1341,1 m/s) . Nun wird das Shuttle nur noch durch seine drei Haupttriebwerke beschleunigt, die eine Schubkraft von 1 Million Pfund erzeugen. Das Shuttle fliegt nun mit einer Geschwindigkeit von 8 Kilometern pro Sekunde.

 

On board view of a Space Shuttle launch sequence

 

start

 

Space Shuttle Launch Audio - play LOUD (no music) HD 1080p

 

sound

 

Hier wird "einigermaßen langsam " beschleunigt. Aber das was auf dem Vid zu sehen ist... Ok das U.F.O kann unbemannt sein ..wegen des Wissenschaftlern beliebten Kohlenstoffchovinismus (später mehr), aber trotzdem Leute da haut sehr vieles nicht hin ...

 

Da ist mir doch das hier wesentlich lieber.....

 

 

Was soll ich noch schreiben / posten ? Ich glaube nun mal daran das überall im Universum die Naturgesetze herrschen, na ja bis auf das innere eines schwarzen Loches.

 

Was wäre die alternative wenn ich nicht recht habe... Erich von Däniken wussete es schon immer besser ? Hmmmm......

 

Ich habe seit einigen Wochen einige Streitgespräche mit einem Gildenkollegen der halt eine andere Meinung vertritt....Ich habe mal ein wenig nachgeforscht und diese Antworten bekommen....

 

Wenn man etwas dahingehend betrachten will, ob es möglicherweise in der Zukunft tatsächlich existieren könnte, so muss man zwei Seiten betrachten: Die physikalische und die technische Realisierbarkeit.

Wenn etwas heute physikalisch völlig unmöglich ist, so ist es egal, über welche Technologie man in der Zukunft vielleicht verfügen mag - es bleibt unmöglich. Die Gesetze der Physik sind nunmal so, wie sie sind, das kann man nicht ändern. Wenn aber irgendetwas gegen kein Gesetz der Physik verstößt, aber dennoch unmöglich erscheint, weil z.B. unglaubliche Speichermengen gebraucht würden, dann wäre das der Teil der technischen Realisierbarkeit - theoretisch möglich (weil kein Naturgesetzt gebrochen), praktisch unwahrscheinlich, dennoch aber nur eine Frage der Entwicklungsstufe der Technologie.

 

Das Verhalten der Quarks ist aber ein physikalisches Gesetz, das ist jetzt so, und das wird immer so bleiben.

Beispiel: Das Beamen in Star Trek. Es funktioniert nur dank des mysteriösen Gerätes namens "Heisenberg-Kompensator", welcher in einem Transporter in Star Trek verbaut ist. Dieser sorgt wohl dafür, dass die Heisenberg'sche Unschärferelation außer Kraft gesetzt wird und man somit Quantenteilchen exakt erfassen kann.

Problem dabei: Die Heisenberg'sche Unschärferelation ist ein Gesetz der Physik, Ende. Keine Technologie kann das ändern, und deswegen wird es auch nie die Beam-Technologie geben, zumindest nicht so wie in Star Trek geschildert.

 

IMHO lässt also die Aussage "Du weisst nicht was es für eine Technologie in 1 Million Jahre geben wird" darauf schließen, dass dein Gegenüber in Naturwissenschaften nicht sehr bewandert ist.

 

oder diese....

 

In einem gewissen Sinne hat Dein Kollege recht, man kann nicht im mathematischen Sinn beweisen, dass etwas grundsätzlich unmöglich ist, also "nie" machbar ist. Aber: Solange sich die Naturgesetze des Universums nicht ändern, was für uns Insassen eh sehr schlecht wäre, können neu entdeckte Naturgesetze nur Erweiterungen der bestehenden sein. Es wird

also niemals eine neue Gravitationstheorie "entdeckt" werden, die sagt, dass losgelassene Steine nach oben fallen und alle bisherigen Beobachtungen Irrtümer sind. Genauso kennt man das Verhalten von Protonen & Neutronen im Atomkern schon sehr gut und jede neue Theorie muss die bisherigen Erkenntnisse beinhalten.

 

Wirkliche Umbrüche gibt es eigentlich nur da, wo im Moment noch kein gesichertes Wissen existiert, z.B. bei der Quantengravitation

 

Dieser Thread soll keinen bekehren, er soll eigentlich zeigen was möglich ist und was nicht.

Natürlich kann jeder glauben was er will, was letztenlich richtig ist... wird die Zukunft zeigen...

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

In eigener Sache

 

 

 

Damit keine missverständnisse aufkommen.....

 

Ich glaube daran dass es Außerirdische gibt. Sie müssen nicht intilligent sein, kömmt mal wieder darauf an wie man intilligenz definiert.

Aber es wäre auch möglich das es sich nur um Mikroben handelt.

Wie dem auch sei.. es gibt Leben da draussen, ob es nun freundlich ist oder nicht ... wissen wir nicht.

 

Viele sagen.. wenn eine Zivilisation so hoch entwickelt ist muss sie friedlich sein.

 

Ein Gedankenexperiment:

 

Ihr seit in einem Raum. Vor euch ist ein Tisch mit einem Koffer. In diesem Koffer befindet sich 1 Milliarde Euro. Ihr könnt den Koffer nehmen und ihn nach Hause oder zur Bank bringen. Keiner wird euch behelligen, anzeigen oder ausrauben. Es wäre euer Geld und ihr könnt damit machen was ihr wollt.

 

Der Haken....

 

Um an das Geld zu kommen müsst ihr eine Fliege töten. Eine Fliege wie es sie in eurer Umgebung millionenfach gibt. Aber diese Fliege ist was besonderes ...sie hat statt 6 Beine ...7 Beine. Eine Laune der Natur ... und es fällt kaum auf. Warscheinlich wird es irgend wann wieder eine Fliege mit 7 Beinen geben.

 

Was werdet ihr tun ? Es ist doch nur eine Fliege.....?????

 

Gleiche Problem mit unseren Ausserirdischen....sehen sie uns als intilligent an, als was besonderes was man schützen sollte ? Oder nur als was, was man ohne Probleme töten kann ohne dafür mit Konsequenzen zu rechnen um an das zu kommen was sie haben wollen.

 

Wir wissen es nicht.

 

Die Technik....

 

Wie ich schon mehrfach geschrieben habe, gelten überall die Naturgesetze ( jaaaa... bis auf das innere eines schwarzen Loches )

 

Atome können wir ja schon manipulieren.

 

http://www.mpq.mpg.de/cms/mpq/news/press/images/2011/PM_11_03_17_b.jpg

 

Mit Hilfe eines Laserstrahls können einzelne Atome im Lichtgitter gezielt adressiert und deren Spinzustand verändert werden. Die Forscher konnten so eine vollständige Kontrolle über die einzelnen Atome erreichen und beliebige zweidimensionale Muster aus einzelnen Atomen „schreiben“.

 

Das ist „relativ“ einfach da wir mit kleinen Dingen ( Laser mit kurzer Wellenlänge ) grosse Dinge verschieben....supereinfach ausgedrückt.

 

Was wenn wir Quarks anders anordnen wollen ? Was kann ich da als Vergleich nehmen...

 

Einschuss

 

http://www.youtube.com/watch?v=R3O-u3kqaiM

 

Erst mal muss ich sehr hohe Energien aufbringen um Materie zu beschleunigen und aufeinander prallen zu lassen. Wenn sie zusammenprallen komme ich an meine Quarks. Dieses Quark was dann auseinanderfliegt wie bei dem Vid, die verschiedenen Materialien muss dann so fliegen dass es ein anderes Quark so trifft, wie ich es haben will.

( 1 Mikromillimeter nach links)

Wenn man andere Techniken nimmt.. da sind die Handwerksmaterialien zu gross. Vergleicht es damit als wenn ihr mit einem Wasserball auf eine Erbse werft und sie sich dann nur um 1 Mikromillimeter bewegen darf.

 

Das könnt ihr vergessen....ehrlich.

 

Das wird auch bei einer Zivilisation, die uns 1 Million Jahre in der Technik vorraus ist, nicht funktionieren.

 

Andere Ligierungen will ich gar nicht abstreiten, die man z.B. nur im All herstellen kann. Aber das wars dann auch.

 

Falls ich mich irre bin ich einer der ersten die schreien .. mist

 

da lag ich falsch.

 

Aber leider sprechen alle naturwissenschaftliche Argumente dagegen das Ausserirdische hier waren.

 

Schaut euch UFO Hunters an und wenn ihr den Thread hier ein wenig gelesen habt, könnt ihr ja beurteilen ob da was drann ist oder nicht.

 

UFO-Hunters: Erstkontakt [HQ/Deutsch] #1

 

http://www.youtube.com/watch?v=fqnezTsB7Io Teil 1

 

http://www.youtube.com/watch?v=_kYl6f5QT1M&feature=relmfu Teil 2

 

http://www.youtube.com/watch?v=FPcAKixQtTs&feature=relmfu Teil 3

 

http://www.youtube.com/watch?v=gKJZ2LJ0Byg&feature=relmfu Teil 4

 

http://www.youtube.com/watch?v=JSjCBF0DQJk&feature=relmfu Teil 5

 

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

CERN - LHC

 

 

 

 

 

In Cern steht der Large Hadron Collider auch LHC genannt. Es ist die größte und komplizierteste Maschiene die Menschen je gebaut haben.

 

Im LHC werden in Vakuumröhren Hadronen ( ihr wisst ja jetzt was das ist ) gegenläufig auf nahezu Lichtgeschwindigkeit beschleunigt und zur Kollision gebracht, um unterschiedliche Elementarteilchen zu erzeugen. Insbesondere erhoffen sich die Wissenschaftler bei diesen Kollisionen den experimentellen Nachweis des bislang nur hypothetischen Higgs-Bosons.

 

LHC 1

 

http://www.youtube.com/watch?v=EG4lNyzkmQo

 

LHC 2

 

http://www.youtube.com/watch?v=Qe1wcb-1mYQ&feature=relmfu

 

LHC 3

 

http://www.youtube.com/watch?v=fDhDAmHJpT8&feature=relmfu

 

 

Daten

 

Ringaufbau

 

Umfang des Hauptringes: 26658.883 m

Strahlrohrdurchmesser: 5.6 cm

Anzahl Beschleunigerkavitäten pro Strahlrohr: 8

Betriebsfrequenz Kavität: 400.8 MHz

Beschleunigungsgradient Kavität: 5.5 MV/m

Anzahl Quadrupolmagnete: 858

Anzahl Dipolmagnete: 1232

Länge Dipolmagnet: 14.3 m

Magnetfeld Dipolmagnet: 8.33 Tesla

Strahlrohrvakuum: 10-13 bar

 

Protonenmodus

 

max. Anzahl Protonenpakete: 2808

Anzahl Protonen pro Paket: 115 Milliarden

Zeitlicher Paketabstand: 24.95 ns

max. kinetische Teilchenenergie: 7 TeV

% Lichtgeschwindigkeit: 99.9999991 %c

Schwerpunktenergie (Kollision): 14 TeV

Luminosität: 1034 cm-2 s-1

Halbwertszeit der Luminosität: 10 Stunden

gespeicherte Energie pro Strahl: 350 MJ

 

Bleiionenmodus

 

max. Anzahl Bleiionenpakete: 592

Anzahl Bleiionen pro Paket: 70 Millionen

Zeitlicher Paketabstand: 99.8 ns

max. kinetische Teilchenenergie pro Kernbestandteil: 2.76 TeV/u

% Lichtgeschwindigkeit: 99.78 %c

Schwerpunktenergie (Kollision): 1150 TeV

Luminosität: 1027 cm-2 s-1

 

Energie

 

LHC-Speicherring: 120 MW

Experimente: 22 MW

Kühlsystem: 27.5 MW

Verbrauch nach Wintershutdown: 35 MW

max. Energieverbrauch LHC: 700 GWh

max. Energieverbrauch LHC + Inrastruktur: 1000 GWh

Energieverbrauch Kanton Genf (Vergleich): 11400 GWh

 

Der Spitzenwert ist eigentlich nur in der Sommerphase möglich, da im Winter der LHC wegen des zu hohen Strombedarfs herrunter gefahren wird.

 

Ziele

 

Erweiterungen des Standardmodells prognostizieren nicht nur ein, sondern mehrere Higgs-Bosonen, nach denen ebenfalls gesucht wird. Über den bloßen Nachweis der Existenz eines oder mehrerer Higgs-Bosonen hinaus sollen auch deren Eigenschaften vermessen werden, da für die Higgs-Massen bisher nur untere und obere Grenzen existieren.

 

Ein weiteres Ziel ist die Suche nach Hinweisen auf eine Theorie zur Vereinheitlichung der Grundkräfte. Dazu wird, ebenfalls vor allem durch CMS und ATLAS, nach supersymmetrischen Teilchen gesucht. Die Annahme solcher supersymmetrischer Partner für alle bisher bekannten Teilchen ist Grundlage der meisten Theorien, die auf hohen Energieskalen die elektroschwache Kraft mit der starken Kraft vereinigen

 

Am LHC soll außerdem die bislang ungeklärte Natur der Dunklen Materie erforscht werden, aus der ein Großteil des Universums bestehen soll. Ein möglicher Kandidat für die Dunkle Materie ist das leichteste supersymmetrische Teilchen (LSP), nach dem ebenfalls Ausschau gehalten wird. Um mit dem LSP die Dunkle Materie erklären zu können, müsste es stabil sein und es wäre damit am LHC relativ leicht nachweisbar.

 

Eine andere denkbare Erweiterung des Standardmodells, die am LHC untersucht werden soll, sind mögliche, bislang auf Grund ihrer geringen Größe unbeobachtete Raumdimensionen. Diese Zusatzdimensionen würden sich durch verstärkte Wechselwirkung mit Gravitonen oder durch die Erzeugung kurzlebiger schwarzer Löcherbemerkbar machen.

 

Ein weiteres wichtiges Forschungsfeld ist schließlich die Erforschung der Materie-Antimaterie-Asymmetrie im Universum. Diese Asymmetrie beschreibt die Beobachtung, dass das sichtbare Universum ausschließlich aus Materie und nicht aus Antimaterie aufgebaut ist, obwohl beim Urknall nach gängigen Theorien Materie und Antimaterie in gleichen Mengen entstanden. Das Studium der B-Physik, schwerpunktmäßig am LHCb-Experiment, aber auch bei ATLAS, soll helfen, die CKM-Matrix genauer zu vermessen. Diese Matrix enthält einen CP-verletzenden Anteil, der einen wichtigen Baustein für die Erklärung der Materie-Antimaterie-Asymmetrie darstellt. Die Größe der durch das Standardmodell vorhergesagten CP-Verletzung kann jedoch die beobachtete Asymmetrie nicht erklären, so dass die Messungen wiederum über dessen Grenzen hinausgehen.

 

Am LHC werden Top-Quarks in großer Anzahl erzeugt, er ist damit die erste sogenannte t-Fabrik. Dies ermöglicht trotz seines Charakters einer Entdeckungsmaschine das genaue Studium dieses noch wenig erforschten Teilchens.

 

Der im Vergleich zu Protonenkollisionen seltener angewandte Betriebsmodus der Kollision von Bleikernen soll dazu dienen, kurzzeitig ein sehr hochenergetisches Plasma quasifreier Quarks und Gluonen zu erzeugen (Quark-Gluon-Plasma). Am Detektor ALICE sollen auf diese Weise die Bedingungen sehr früher Phasen des Universums nachgebildet und untersucht werden.

 

Gefahren

 

Da am LHC eventuell schwarze Mini-Löcher oder seltsame Materie erzeugt werden könnten, gibt es vereinzelte Warnungen vor möglichen Risiken der LHC-Experimente. Eine Gruppe um den Chemiker Otto Rössler reichte beim Europäischen Gerichtshof für Menschenrechte eine Klage gegen die Inbetriebnahme des LHC ein. Der damit verbundene Eilantrag wurde im August 2008 vom Gericht abgewiesen. Das Hauptsacheverfahren steht noch aus. Das deutsche Bundesverfassungsgericht lehnte die Annahme einer Verfassungsbeschwerde im Februar 2010 wegen fehlender grundsätzlicher Bedeutung und mangelnder Aussicht auf Erfolg ab. Fachwissenschaftler stellten wiederholt fest, dass vom LHC und anderen Teilchenbeschleunigern keine Gefahren ausgehen. Tragende Argumente sind hierbei, dass erstens die theoretisch möglichen, mikroskopischen schwarzen Löcher unmittelbar zerstrahlen würden, anstatt wie befürchtet immer mehr Masse/Energie aus der Umgebung aufzunehmen, und dass zweitens die natürliche kosmische Strahlung ständig mit noch höherer Energie als im LHC auf unsere Erdatmosphäre trifft, ohne dabei Katastrophen zu verursachen

 

Schwarze mini Löcher

 

Mitte der 1970er Jahre stellte Roger Penrose die Vermutung auf, Schwarze Löcher könnten auch im Labor erzeugt werden. Es gibt Theorien, nach denen es möglich ist, mit dem Large Hadron Collider, der am 10. September 2008[ in Betrieb genommen wurde, solche Schwarzen Löcher bis zu einmal pro Sekunde zu erzeugen. Dies setzt jedoch die Existenz von zusätzlichen kompakten Raumdimensionen voraus, welche unter anderem von bestimmten Modellen der Stringtheorie vorhergesagt werden.

 

Diese Schwarzen Löcher wären allerdings deutlich kleiner als stellare Schwarze Löcher, die kosmologisch beobachtet werden. Ihre Ausmaße lägen in der Größenordnung von Elementarteilchen. Auf Grund von Quanteneffekten (siehe Hawking-Strahlung) würden sie sehr kurze Zeit nach ihrer Entstehung aller Wahrscheinlichkeit nach zerstrahlen. Die dabei entstehenden Elementarteilchen könnten mittels Teilchendetektoren nachgewiesen werden. Gemäß dem aktuellen Stand der Forschung auf diesem Gebiet wären die entstehenden Teilchenschauer (Jets) isotroper verteilt als diejenigen, die beim Zusammenstoß hochenergetischer Teilchen entstehen und daher von diesen zu unterscheiden.

 

 

Die Vorhersage der Hawking-Strahlung beruht auf der Kombination von Effekten der Quantenmechanik und der allgemeinen Relativitätstheorie sowie der Thermodynamik. Da eine Vereinheitlichung dieser Theorien bisher nicht gelungen ist (Quantentheorie der Gravitation), sind solche Vorhersagen immer mit einer gewissen Unsicherheit behaftet

 

Mit isotroper Strahlung ist in der Regel eine solche Strahlung gemeint, die in alle Richtungen des 3-dimensionalen Raumes gleichmäßig abgestrahlt wird

 

Letzte Forschungsergebnisse

 

Gefunden im "Tevatron"- Teilchenbeschleuniger am berühmten Fermilab bei Chicago

 

Die Messergebnisse könnten die wichtigste Entdeckung der Physik seit Jahrzehnten begründen. Seit Monaten rätseln Wissenschaftler weltweit, was sie da vor sich haben. Es könnte ein neues Elementarteilchen sein - oder sogar eine fünfte Grundkraft der Natur.

 

Jetzt wird auch im LHC danach gesucht.

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Vergangenheit und Zukunft

 

 

 

Bauwerke

 

Vor ca. 7000 Jahren entstand der Kreisgrabenanlage von Goseck es ist das bisher älteste entdeckte Sonnenobservatorium der Welt.

 

Stonehege wurde vor ca. 5000 Jahren erbaut. Die Ausrichtung erfolgte so, dass am Morgen des Mittsommertags, wenn die Sonne im Jahresverlauf am nördlichsten steht, die Sonne direkt über dem Fersenstein aufging und die Strahlen der Sonne in gerader Linie ins Innere des Bauwerks, zwischen die Hufeisenanordnung, eindrangen.

Es ist unwahrscheinlich, dass eine solche Ausrichtung sich zufällig ergab. Der nördlichste Aufgangpnkt der Sonne ist direkt abhängig von der geografischen Breite. Damit die Ausrichtung korrekt ist, muss sie für Stonehenges geografische Breite von 51° 11' genau errechnet oder durch Beobachtung ermittelt worden sein. Diese genaue Ausrichtung muss für den Plan der Anlage und die Platzierung der Steine in zumindest einigen der Phasen von Stonehenge grundlegend gewesen sein. Der Fersenstein wird nun als ein Teil eines Sonnenkorridors gedeutet, der den Sonnenaufgang einrahmte.

 

Die Bearbeitung der Steine setzt man auf etwa 20 Millionen Arbeitsstunden an, insbesondere in Anbetracht der in dieser Zeit mäßig leistungsfähigen Werkzeuge. Der allgemeine Wille zur Errichtung und Pflege dieses Bauwerks muss dementsprechend ausgesprochen stark gewesen sein und erforderte weiterhin eine stark ausgeprägte Sozialorganisation. Neben der höchst aufwändigen Organisation des Bauvorhabens (Planung, Transport, Bearbeitung und genaue Aufstellung der Steine) verlangt dieses zudem eine hohe jahrelange Überproduktion von Nahrungsmitteln, um die eigentlichen „Arbeiter“ während ihrer Tätigkeit für das Vorhaben zu ernähren.

 

Pyramiden

 

Die Pyramiden sind ca. 4500 Jahre alt. An dem Bau einer Pyramide waren mehrere tausend Arbeiter beschäftigt. So halfen beim Bau der Cheops-Pyramide vor Gizeh laut Überlieferung 70.000–100.000 Arbeiter, was allerdings nach heutigen Nachforschungen logistisch unmöglich erscheint. Es ist dagegen ziemlich sicher, dass in den Steinbrüchen und an der Pyramide „nur“ rund 8.000 Arbeiter beschäftigt waren. Alle Pyramiden des Gizeh-Plateaus wurden während der 4. Dynastie (2630 – 2525 v. Chr.) errichtet.

 

Die gesamte Literatur über Pyramiden schwärmt von deren exakter Orientierung nach Norden und die Fragen rund um die Technik der Ausrichtung der Pyramiden nach den Himmelsrichtungen sind ein Dorado für Spekulationen. Jede bisher vorgebrachte Theorie scheitert jedoch entweder an den damals möglichen technischen Hilfsmitteln oder an hinreichender Präzision.

 

Deshalb bedarf die selten vermessene Ausrichtung der Pyramiden genauerer Untersuchung unter der Perspektive, was technologiehistorisch denn denkbar und möglich war. Als absolutes Kriterium steht hier wieder die Durchführbarkeit auch auf der noch unfertigen Pyramide, dem Pyramidenstumpf, im Vordergrund. Jedes Verfahren, das umfangreiche bauliche Voraussetzungen benötigt, um zu einem exakten Ergebnis zu kommen, scheidet daher aus. Bei der enormen Höhe, sowohl der Cheops- als auch der Chefrenpyramide, sind ständige Kontrollmessungen der Ausrichtung unabdingbar. Wir müssen uns hier drei Fragen stellen:

 

1.Wie war es mit der damaligen Technologie möglich, die Himmelsrichtungen derart präzise zu bestimmen?

 

2.Wie wurden die Himmelsrichtungen im Fall der Einmessung der Pyramiden bestimmt? Wir werden sehen, dass die grundsätzliche Bestimmung der Himmelsrichtungen relativ einfach möglich ist, im Fall der Pyramiden aber auf Schwierigkeiten stößt, die weitere technische Lösungen verlangen.

 

3.Wollten die Ägypter die Pyramiden grundsätzlich nach den Himmelsrichtungen orientieren?

 

Wir wissen zwar, dass die Pyramiden einigermaßen genau nach den Himmelsrichtungen orientiert sind, wir wissen aber nicht, ob das die ursprüngliche Intention der Ägypter war. Es ist daher genauso möglich, dass die Pyramiden nach ganz anderen Zielsetzungen eingemessen wurden.

 

In der Literatur werden grundsätzlich zwei Vorschläge für die Einmessung der Himmelsrichtungen vorgebracht, die im Folgenden kurz umrissen und auf ihre Realisierbarkeit hin analysiert werden sollen:

 

•die Orientierung nach der Sonne

 

•die Orientierung nach den Sternen

 

Eine Orientierung am magnetischen Nordpol erscheint äußerst unwahrscheinlich, da es zum einen damals kein Eisen gab, schon gar kein magnetisches, zum anderen stimmt der magnetische Nordpol bekanntermaßen nicht mit dem geographischen überein. Und das war auch vor 4500 Jahren nicht anders

 

 

Teleskope

 

Bereits im 13. Jahrhundert war die vergrößernde Wirkung konkaver Spiegel bekannt und Leonardo da Vinci beschrieb 1512 deren Verwendung zur Beobachtung des Sternenhimmels

 

In den Jahren 1668–1672, entwickelte Isaac Newton ein verbessertes Teleskop und führte es der Öffentlichkeit vor

 

1721 gelang es den Brüdern John, Henry und George Hadley, den ungleich schwieriger zu fertigenden parabolischen Hauptspiegel herzustellen. Auf dieser Grundlage wurden dann in den nachfolgenden 150 Jahren immer größere Teleskope gebaut, bis hin zu dem 183 cm durchmessenden Leviathan

 

Das Prinzip der aus massiven Glasspiegeln gebauten Ritchey-Chrétien-Cassegrain-Teleskope wurde bis zu einem Spiegeldurchmesser von etwa 5 m erfolgreich beibehalten. Das 1975 gebaute BTA-6 mit sechs Meter Durchmesser zeigte jedoch dessen Grenzen. Der 42 Tonnen schwere Glasspiegel verbog sich unter seinem eigenen Gewicht und lieferte keine scharfen Bilder mehr.

 

 

Des Weiteren fand man in den 1980ern Verfahren, wie man große dünne Glasspiegel durch einen Schleuderguss oder mit stützenden Hohlstrukturen, meist in Wabenform, herstellen konnte. Voraussetzung hierfür sind extrem präzise Halterungen der Spiegel, die die Segmente auf den Bruchteil der Wellenlänge des Lichtes zueinander ausrichten bzw. die Verformung der dünnen Spiegel mit der gleichen Genauigkeit verhindern. Aufgrund der hierfür notwendigen aktiven Elemente in der Halterung werden solche Systeme auch als aktive Optik bezeichnet. Mit diesen Techniken gelingt es, Teleskope bis etwa zehn Meter Spiegeldurchmesser herzustellen.

 

 

Die Raumfahrt

 

 

Die Solarzelle

 

Solarzellen wurden für die Energieversorgung von Raumflugkörpern wie Satelliten entwickelt. Wissenschaftler standen vor dem Problem, dass Treibstoffe und Batterien viel Platz brauchen, schwer sind recht schnell aufgebraucht sind, Satelliten die Erde aber über einen langen Zeitraum umkreisen sollen. Da kam die rettende Idee: Sonnenlicht ist als Energiequelle immer vorhanden

 

 

Der Klettverschluss

 

KlettverschlussKlettverschlüsse kennst du von Turnschuhen, Taschen und Jacken. Aber es gibt sie noch gar nicht so lange - und sie kommen aus der Weltraumforschung: In der Schwerelosigkeit des Weltraums kann man nichts einfach so ablegen. Alle losen Teile schweben durch die Gegend. Das ist unpracktisch, da die Astronauten nichts wiederfinden könnten. Deshalb wurde an jedes Teil an Bord eines Raumschiffes ein Stück Klettverschluss aufgeklebt, mit dem man es an die überall im Shuttle angebrachten Gegenstücke anheften kann

 

Neue Materialien für Flugzeug- & Automobilbau

 

Die Raumfahrt kostet viel Geld - und jedes Kilogramm mehr, das ins All befördert werden muss kostet Millionen von US-Dollar. Daher arbeiten Wissenschaftler immer daran, Raumfähren leichter zu machen. Dabei wurden immer neue, leichtere Stoffe wie Karbon, Kevlar und Glaskeramik ausprobiert und erfolgreich eingesetzt. All diese Stoffe werden dann mit ein paar Jahren Verspätung auch in Flugzeugen und in Autos eingebaut. Denn auch die verbrauen weniger, wenn sie leichter sind.

 

Wettervorhersagen

 

Satellit im ErdorbitWenn du im Fernsehen den Wetterbericht anguckst, dann siehst du Satellitenbilder der Erde. Wettersatelliten wie Meteosat zeigen mit anschaulichen Bildern Wolken und Wirbelstürme, aber auch Warm- und Kaltwetterfronten. Auf die Wettervorhersagen kann man sich erst wirklich verlassen, seitdem Meteorologen (Wetterkundler) sich auf die Daten von Satelliten stützen können. Das hat auch zur Folge, dass viele Menschenleben gerettet werden können, da Wirbelsturmwarnungen frühzeitig möglich sind

 

Kommunikation: Fernsehen, Internet & Telefon

 

Ohne Fernsehsatelliten wie ASTRA oder EUTELSAT könnten viele Menschen kaum ein Fernsehprogramm empfangen. Besonders in Gegenden, in denen kein Kabelanschluss gelegt wurde, gäbe es kaum private Fernsehsender. Und die Fernsehübertragungen aus aller Welt werden mittlerweile alle über Satellitenstrecken in die Sendezentren der Fernsehanstalten gesendet. Ohne Satelliten gäbe es auch keine Live-Übertragung von Fußball-Weltmeisterschaften oder Popkonzerten aus aller Welt

 

Auto-Navigationssysteme

 

AutonavigationsgerätNavigationssysteme in Autos helfen vielleicht auch deinen Eltern, sicher zum Ziel zu kommen. Dabei wird die Position von eurem Auto über einen GPS-Empfänger von etwa 30 GPS-Satelliten aus dem Weltraum aus überwacht. Dadurch können zum Beispiel auch Staus automatisch umfahren werden.

 

Die Superkachel

 

Eine Superkachel, die für ein deutsch-japanisches Weltraumprojekt entwickelt wurde, übersteht Temperaturen bis zu 2.700 Grad Celsius. Dabei kann man sie bei ihrer Entstehung leicht in jede Form bringen. Bald wird sie als Bremsscheibe von ICE-Zügen deren Sicherheit erhöhen. Und auch Gebäude können in Zukunft mit diesen Kacheln vor Feuer geschützt werden

 

Cern und der LHC

 

Das bekannteste Beispiel ist wohl das World Wide Web ( entstanden in Cern). Für die Physiker und Ingenieure, die über die Welt verteilt an einem Projekt arbeiten, ist es einfach eine praktische Notwendigkeit.

 

Detektortechnologie die am CERN entwickelt wurde um elementare Prozesse sichtbar und messbar zu machen haben in der bildgebenden Diagnostik Anwendung gefunden. Beispielsweise wurde 1977 das erste Positron Emissions Tomographie (PET) Bild am CERN angefertigt. Heute ist PET ein essentielles Werkzeug in der Krebsdiagnose.

 

 

Was möchte ich euch damit sagen. Seit Anbeginn der Erforschung der Sterne wurde die Technologie weiterentwickelt, um Dinge für die Sternenbeobachtung zu bauen. Es entstanden verschiedene Berufe wie z.B. Architekt oder Statiker. Die Mathematik musste weiter entwickelt werden sowie die Logistik. All das wurde aus diesen Projekten übernommen und dann für den normalen Gebrauch genutzt.

 

Wenn ihr das nächste mal lest, dass wieder XXX Milliarden für Grundlagenforschung ausgegeben werden und wir keinen direkten Nutzen davon haben. Nach dem Motto, was sollen wir schon mit Elementarteilchen anfangen.

 

Denkt bitte daran, dass der Weg das Ziel ist.

 

 

Die Sterne haben und treiben, immer noch, unseren

 

technologischen Vortschitt vorran.

 

 

 

MFG

 

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Das gemeine Photon

 

 

Potonen können in verschiedenen stärken auftreten. Das heisst nicht das sie unterschiedlich schnell sind, ihre Geschwindigkeit ist immer die Lichtgeschwindigkeit. ( Wie schnell das ist hängt natürlich von dem Medium ab indem sie sich bewegen )

Aber jeder von uns hatte ja schon mal einen Sonnenbrand und derjenige der sich beim Lichtbogenschweißen die Augen verblitzt hat weiss wovon ich rede

 

Also muss es was anderes sein was diesen Unterschied bewirkt. Sehen wir uns erst mal das Lichtspektrum an.

 

Wie ihr seht ist die Wellenlänge, Energie pro Photon, Wellenzahl und die Frequenz der entscheidene Fakor, wie gefährlich ein Photon werden kann.

 

Frequenzen

 

Niederfrequenz

 

Extremely Low Frequency / 10 Mm - 100 Mm / 3 Hz - 30 Hz / Bahnstrom

Super Low Frequency /1 Mm -10 Mm / 30 Hz - 300 Hz / Netzfrequenz

Ultra Low Frequency / 100 km - 1000 km / 300 Hz

Very Low Frequency / 10 km -100 km / 3 kHz / U-Boot-Kommunikation

 

Radiowellen

 

Langwelle / 10 km / 30 kHz - 300 kHz

Mittelwellenrundfunk /180 m / 1,7 MHz

Kurzwellenrundfunk /10 m / 30 Mhz -300 MHz

 

Mikrowellen

 

Dezimeterwellen / 10 cm -1 m / 300 Mhz - 3 GHz / Radar

Zentimeterwellen / 1 cm -10 cm / 3 Ghz - 30 GHz / WLAN

Millimeterwellen / 1 mm -1 cm / 30 GHz 300 GHz / Richtfunk

Terahertzstrahlung / 30 µm - 3 mm / 0,1 THz 10 THz / Radioastronomie

 

Infrarot

 

Fernes Infrarot / 50 µm - 1 mm / 300 GHz / Infrarotspektroskopie

Mittleres Infrarot / 2,5 µm - 50 µm / 6 THz / Thermografie

Nahes Infrarot / 780 nm - 2,5 µm / 120 THz / Fernbedienung,

 

Licht

 

Rot / 640 nm - 780 nm / 384 THz 468 THz 1,6

Orange / 600 nm - 640 nm / 468 Thz - 500 THz

Gelb / 570 nm - 600 nm / 500 Thz - 526 THz

Grün / 490 nm - 570 nm / 526 Thz - 612 THz

Blau / 430 nm - 490 nm / 612 Thz - 697 THz

Violett 380 nm - 430 nm / 697 Thz - 789 Thz

 

UV-S-trahlen

 

schwache UV-Strahlen / 200 nm - 380 nm / 789 Thz - 1500 THz / Banknotenprüfung

Starke UV-Strahlen / 50 nm - 200 nm / 1,5 Phz - 6 PHz

 

Röntgenstrahlen /10 Pm -1 nm / 300 Phz - 30000 PHz / medizinische Diagnostik,

 

Gammastrahlen / 10 pm / 30 EHz / medizinische Strahlentherapie

 

kleine Strahlenkunde

 

http://www.youtube.com/watch?v=rh-uG9Yadaw Teil 1

 

http://www.youtube.com/watch?v=b3IQmCvFqaE Teil 2

 

http://www.youtube.com/watch?v=BjA_zHiK0Kc Teil 3

 

Gemäß der speziellen Relativitätstheorie besitzt ein Photon zwar keine Ruhemasse, transportiert aber eine Energie, der eine Masse zugeordnet werden kann.

 

Ruhemasse später dazu mehr

 

Die hier auftretende Masse m hat einen festen, für das Teilchen charakteristischen, positiven Wert. Sie wurde historisch Ruhemasse genannt. Die Energie und der Impuls eines Teilchens hängen stets durch die Energie-Impuls-Beziehung mit der Masse zusammen. Die Ruhemasse eines Teilchens ist diejenige Masse, die ein relativ zu diesem ruhender Beobachter misst

 

Ein im Mittelpunkt der Sonne erzeugtes Photon benötigt etwa 10.000 bis 170.000 Jahre, um sie zu verlassen.

 

Gammastrahlung

 

Atomenergie Video für die Schule Alles über die Stahlen, Röntgen Geräte wie viel man erträgt

 

 

Radiowellen

 

Die unaufhaltsame Ausbreitung unserer Radiowellen (Quarks & Co)

 

 

Was ist Licht

 

Teil 1

 

Teil 2

 

Das wars mal wieder nach ca. 2,5 Std Arbeit an diesem Post :D

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Ich bin gerade auf diesen Thread gestossen (Habe ihn bis jetzt zu 1/3 durch) und muss meinen Respekt aussprechen.

Die Menge an Arbeit. Mit dem Thema "Universum" und allem was dazu gehört beschäftige ich mich selbst schon sehr lange und stosse dabei immer wieder an meine Grenzen.:o

Aus deinem Thread werde ich sicher viele Dinge mitnehmen können die ich so noch nicht

kenne und mein bescheidenes Verständniss der Materie erweitern.

 

Ich werde gespannt denn Thread weiter verfolgen.

Top Arbeit, weiter so. Vielen Dank dafür!

Edited by TalamonX
Link to comment
Share on other sites

Ruhemasse

 

 

Die Ruhemasse eines Körpers ist seine relativistische Masse wenn er relativ zum Beobachter ruht. Ein anderer Begriff hierfür ist invariante Masse weil sie – im Gegensatz zur relativistischen Masse – nicht vom Bezugssystem abhängt also lorentzinvariant ist

 

Die Lorentz-Transformationen, verbinden in der speziellen Relativitätstheorie und der lorentzschen Äthertheorie die Zeit- und Ortskoordinaten, mit denen verschiedene Beobachter angeben, wann und wo Ereignisse stattfinden. Dabei handelt es sich um gradlinig gleichförmig bewegte Beobachter und um Koordinaten, in denen kräftefreie Teilchen gerade Weltlinien durchlaufen

 

Unter einer Weltlinie versteht man die eindimensionale Trajektorie eines punktförmigen (nulldimensionalen) Objekts in der Raumzeit.

In der klassischen Newtonschen Mechanik versteht man unter einer Trajektorie die drei Raumkoordinaten eines Punktteilchens, welche durch einen Parameter t parametrisiert sind. Jedem Zeitpunkt wird somit ein Punkt des Raumes (der momentane Aufenthaltsort des Teilchens) zugeordnet. Wird die Zeit jedoch als weitere eigenständige Dimension der sog. Raumzeit aufgefasst, so entspricht die gesamte Trajektorie einer eindimensionalen kontinuierlich zusammenhängenden Teilmenge der Raumzeit.

 

Im Alltag wird nicht zwischen Masse und Ruhemasse unterschieden. Auch in der modernen theoretischen Physik wird der Begriff "Masse" normalerweise für die Ruhemasse verwendet.

 

Gemäß Einsteins Relativitätstheorie nimmt die relativistische Masse eines Körpers allerdings mit seiner Geschwindigkeit zu. Bei Körpern die sich mit einem nennenswerten Anteil der Lichtgeschwindigkeit fortbewegen bedeutet dies dass man bei der Angabe einer Masse die Geschwindigkeit für die diese gilt angeben muss. Aus diesem Grunde wird insbesondere für Elementarteilchen als Bezugsgröße ihre Ruhemasse angegeben als die Masse die sie im Zustand der Ruhe haben.

 

Lichtteilchen selbst haben also eine Ruhemasse von null.

 

Die Überlegungen die zu der Relativitätstheorie geführt haben leiten sich aus der Beobachtung ab dass Licht immer die gleiche Geschwindigkeit hat egal ob man sich auf das Licht zubewegt oder ob man sich davon wegbewegt. Es lässt sich also kein Bezugssystem angeben bei dem sich Licht in Ruhe befindet.

 

Licht breitet sich aber nur im Vakuum mit der Geschwindigkeit c aus ansonsten langsamer. Sobald die Ausbreitungsgeschwindigkeit kleiner als c ist lässt sich aber ein Bezugssystem angeben demgegenüber sich Licht in Ruhe befindet. In so einem Bezugssystem hat Licht die Masse null.

 

Die Entwicklung der Physik ist ja nicht stehen geblieben und schreitet immer weiter vorran. Die Frage nach der Bezugssystem Abhängigkeit der Masse scheint aus der Sichtweise der modernen Physik ein für alle mal geklärt zu sein.

 

Masse ist eine fundamentale Eigenschaft von Materie und als solche naturgemäß eine Invariante; sie ist von der Wahl des Bezugssystemes unabhängig. Der Begriff „ Ruhemasse“ ist daher überflüssig, wenn nicht irreführend: für den Begriff einer davon zu unterscheidenen „ bewegten Masse „ ist in der Physik kein sinnfoller Platz

Den Text konnte ich leider nicht bearbeiten da er im PDF Format ist. Er ist aber gut geschrieben

 

Für die Fachleute unter euch

 

http://www.itp.uni-bremen.de/~noack/masse.pdf

 

 

An alle Threadleser : Frohe ÖSTERN :D

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Überlichtgeschwindigkeit

 

 

 

Laut ART ( Allgemeine Relativitäts Theorie ) kann nichts schneller als das Licht reisen.

Wenn es Masse hat, nicht mal annähernd so schnell. Masselos .... mit Lichtgeschwindigkeit ... aber nicht schneller.

Selbst Gravitationswellen breiten sich nur mit Lichtgeschwindigkeit aus.

 

 

Was Einstein gesagt hat (verkürzt):

 

1) Man kann nichts mit einer Ruhemasse >0 auf Lichtgeschwindigkeit beschleunigen.

2) Die Lichtgeschwindigkeit ist in jedem Bezugssystem identisch, sie ist ist eine kosmische Konstante.

 

Das heißt eben nicht, dass nichts schneller als Licht sein kann.

 

 

Einstein hat 1911 die allgemeinen Relativitätstheorie aufgestellt. Seitdem ist sie wieder und wieder und wieder getested worden und das seit 100 Jahren, mehere 1000 mal.

 

Wenn die ART falsch sein sollte, dann ist sie verdammt gut falsch. Eine neue Erkenntniss die, die ART in Frage stellt, muss 100 Jahre des Testens überstehen und genau so gut überprüfbar sein.

 

Aber es gibt wohl Ausnahmen.....´

 

Superluminares Tunneln

 

In der Universität Köln unter der Leitung von Günter Nimtz wurde der quantenmechanische Effekt des Superluminaren Tunnelns von Mikrowellen-Photonen, dem der Tunneleffekt zu Grunde liegt, als erstes nachgewiesen.

 

Tunneleffekt ist in der Physik eine veranschaulichende Bezeichnung dafür, dass ein atomares Teilchen eine Potentialbarriere von endlicher Höhe auch dann überwinden kann, wenn seine Energie geringer als die Höhe der Barriere ist. Nach den Vorstellungen der klassischen Physik wäre dies unmöglich, nach der Quantenmechanik ist es möglich. Mit Hilfe des Tunneleffekts wird unter anderem der Alpha-Zerfall von Atomkernen erklärt. Technische Anwendungen des Tunneleffekts sind beispielsweise das Rastertunnelmikroskop und der Flash-Speicher

 

Alpha Centauri - Tunneleffekt

 

http://www.youtube.com/watch?v=KQ0H0FK9dpc Teil 1

 

http://www.youtube.com/watch?v=NN-vMWdXsLA&feature=relmfu Teil 2

 

 

Experimente vom Nimtz-Typ mit Photonen anderer Wellenlänge, insbesondere mit sichtbarem Licht, durch andere Gruppen haben stattgefunden und haben die Beobachtungen von Nimtz bestätigt werden von den Experimentatoren wie Chiao und Steinberg aber anders interpretiert. In allen Experimenten wird festgestellt, dass sich eine superluminare Geschwindigkeit dann einstellt, wenn sich zwischen der Quelle und dem Detektor eine Barriere befindet, welche die Photonen erst überwinden (durchtunneln) müssen.

 

Medienwirksam wurde dort 1994 mit frequenzmodulierten Mikrowellen ein Teil einer Mozart-Sinfonie mit übertragen, wobei Nimtz nach eigenen Angaben für das Maximum und die Anstiegsflanke des Wellenpakets eine 4,7-fache Lichtgeschwindigkeit maß. Nimtz behauptet, damit die Möglichkeit der Übertragung von Information mit Überlichtgeschwindigkeit gezeigt zu haben, was aber bestritten wurde. Definiert man die Geschwindigkeit der Informationsübertragung über die Ansprechzeit eines Detektors, gibt es keine Informationsübertragung mit Überlichtgeschwindigkeit: Ein Detektor auf einer gleich langen Vergleichsstrecke ohne „Tunnel“, auf der sich die gleiche Information (Pulsform) mit Lichtgeschwindigkeit ausbreitet, spricht zuerst an, da das Signal auf der Tunnelstrecke viel schwächer ist und zwar unabhängig von der Empfindlichkeit des Detektors.

 

Diese Experimente stehen nach allgemeiner Ansicht in völliger Übereinstimmung mit einem der Axiome der Relativitätstheorie, nach dem keine Informationsausbreitung mit Überlichtgeschwindigkeit stattfindet. So kann man z. B. zeigen, dass ein Wellenzug beim Tunneln stärker im hinteren Teil gedämpft wird als im vorderen, so dass sich sein Intensitätsmaximum nach vorne verlagert. Definiert man die Lage des Maximums als Position des Wellenzuges, so kann man eine Überlichtgeschwindigkeit errechnen, ohne dass irgendein Teil des Wellenzuges mit Überlichtgeschwindigkeit vorangeschritten wäre.

 

Bei Tunnelexperimenten mit einzelnen Photonen wurde bereits überlichtschnelles Tunneln nachgewiesen, siehe zum Beispiel Experimente der Chiao-Gruppe. Da beim Tunneln jedoch ein großer Teil der tunnelnden Photonen und damit der Information verloren geht, ist auch hier die Möglichkeit einer überlichtschnellen Informationsübertragung umstritten.

 

Alpha Centauri - Gibt es Überlichtgeschwindingkeit

 

http://www.youtube.com/watch?v=5DsBsz4I7Co

 

 

Hier wird klar gesagt das die Informationsweitergabe unmöglich ist.

 

Neutrinos

 

Neutrinos sind elektrisch neutrale Elementarteilchen mit sehr kleiner Masse. Im Standardmodell der Elementarteilchenphysik existieren drei Neutrinos: das Elektron-Neutrino, das Myon-Neutrino und das Tau-Neutrino

 

Selbst eine Bleiplatte von einem Lichtjahr Dicke würde ein Neutrino nicht aufhalten

 

Die Kerngössen in Relation zu der Elektronenwolke wurde schon in diesem Thread erleutert.

 

Schaut euch noch mal an wie gross ein Neutrino ist

 

http://www.newgrounds.com/portal/view/525347

 

Neutrinos - Geheimschrift des Kosmos

 

Teil 1

 

http://www.youtube.com/watch?v=KbhQMagCdVUTeil 2

 

Teil 3

 

 

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Top 10 der verloren gegangenen Technologien

 

 

 

Ich habe gestern eine super Doku gesehen und dachte mal .... schreib mal einen Artiker darüber :D

 

Der Text wurde mit dem Googel Übersetzer verarbeitet ... meine Rechtschreibung ist zwar schlimm ... aber nicht sooo schlimm

 

Die Welt war noch nie so technologisch als sie es jetzt ist, aber das bedeutet nicht, dass einige Dinge nicht auf dem Weg verloren gegangen sind. Viele der Technologien, Erfindungen und Herstellungsverfahren der Antike sind einfach im Laufe der Zeit verschwunden, während andere noch nicht vollständig durch moderne Wissenschaftler verstanden worden sind. Einige wurden inzwischen wieder entdeckt (innen Sanitär-, Straßen- Gebäude), aber viele der mysteriösen verloren Technologien haben das Zeug um zur Legende zu werden. Hier sind zehn berühmte Beispiele:

 

 

10. Stradivari-Geigen

 

Eine verlorene Technik des 17 Jahrhunderts ist der Prozess, durch den die berühmten Stradivari-Geigen und andere Streichinstrumente gebaut wurden. Die Geigen, zusammen mit verschiedenen Bratschen, Celli und Gitarren wurden von der Stradivari-Familie in Italien von etwa 1650-1750 gebaut. Die Geigen wurden in ihren Tagen geschätzt, aber sie sind inzwischen weltweit berühmt dafür, eine beispiellose und nicht zu reproduzieren-Klangqualität zu haben. Heute gibt es nur rund 600 der Instrumente , und die meisten sind im Wert von mehreren hunderttausend Dollar. In der Tat hat der Name Stradivari, so ein Synonym für Qualität, dass er nun ein beschreibender Begriff für alles als das beste in seinem Gebiet zu sein.

 

 

Wie ging es verloren?

 

Die Technik für den Bau Stradivari-Instrumenten war ein Familiengeheimnis nur durch Patriarchen Antonio Stradivari und seine Söhne, Omobono und Francesco bekannt. Nachdem sie starben, starb auch der Prozess mit ihnen, aber das hält nicht etwa von dem Versuch ab, den versuch zu starten es zu reproduzieren. Forscher haben alles aus probiert. Pilze im Wald, die die einzigartige Gestaltung der Körper verwendet wurde, um die berühmten Resonanz von der Stradivari-Sammlung zu erreichen. Die führende Hypothese scheint zu sein, dass die Dichte der verwendeten Holz-Komponenten für den klang verantwortlich sind. In der Tat, schloss zumindest eine Studie, dass die meisten Menschen nicht einmal einen Unterschied feststellen in der Klangqualität zwischen einer Stradivari Geige und ein modernes Gegenstück.

 

9. Nepenthe

 

Die schiere Komplexität der Technologie von den alten Griechen und Römern ausgeübt wird ist oft ganz erstaunlich, vor allem wenn es um Medizin ging . Unter anderem wurden die Griechen bekannt, die Hinterbliebenen von verstorbenen mit Nepenthe, eine primitive Anti-Depressiva, zu versorgen. Die Droge wird häufig in der griechischen Literatur, wie Homers Odyssee erwähnt. Einige behaupten, dass es vielleicht fiktiven ursprung hat, aber andere haben argumentiert, dass das Medikament echte ürsprünge hat und weit in das antike Griechenland verwendet wurde. Es wird behaupted das Nepenthe in Ägypten entstanden sei und seine Wirkung als "eine Droge des Vergessens" .

 

Wie ging es verloren?

 

Oft gibt es die "verlorenen" Technologien noch, und es ist nur unsere Unfähigkeit, ihre moderne Entsprechung, die sie geheimnisvoll macht zu identifizieren. Angenommen, dass es wirklich existiert, ist dies wahrscheinlich der Fall mit Nepenthe. Das Medikament wird wahrscheinlich heute noch verwendet, aber Historiker sind nicht nur was die moderne Substanz die Griechen damit meinten genau zu bestimmen.Opium ist definitiv die beliebteste Wahl, aber auch andere Spitzenreitern zählen Wermut -Extrakt und Scopolamin.

 

8. Der Antikythera-Mechanismus

 

Einer der geheimnisvollsten aller archäologischen Artefakten ist, was als der Antikythera-Mechanismus, eine Bronze-Maschine, die von Tauchern vor der Küste der griechischen Insel Antikythera in den frühen 1900er Jahren entdeckt wurde, bekannt. Der Mechanismus besteht aus einer Reihe von über 30 Gänge, Kurbeln, und wählt, die manipuliert werden, um die astronomischen Positionen der Sonne, des Mondes und anderer Planeten . Das Gerät wurde unter den Resten eines Schiffswracks, dass Wissenschaftler auf der 1. oder 2. Jahrhundert v. Chr. datiert gefunden. Seine wahre Absicht ist noch nicht vollständig bekannt, und das Geheimnis hinter seiner Konstruktion und Einsatz ,hat Forscher seit Jahren verwirrt. Der Konsens scheint zu sein, dass der Antikythera-Mechanismus eine Art primitive Uhr, die Mondphasen und Solar-Jahre zeigt.

 

Wie ging es verloren?

 

Die Raffinesse und Präzision deutlich in der Gestaltung des Mechanismus lässt vermuten, dass es nicht das einzige Gerät seiner Art war und viele Wissenschaftler haben spekuliert, dass seine Verwendung weit verbreitet gewesen sein mag. Dennoch ist die Existenz von anderen Geräten wie der Antikythera-Mechanismus nicht auf den historischen Aufzeichnungen angezeigt, bis im 14. Jahrhundert, was bedeuten würde, dass die Technologie für fast 1400 Jahre verloren ging. Warum und wie wird wohl ein Geheimnis bleiben, zumal der Mechanismus ist immer noch als die einzige alte Entdeckung seiner Art bekannt.

 

die besagte Doku

 

Die Wundermaschine von Antikythera - Arte 2012

 

http://www.youtube.com/watch?v=JPoXpxx3oys

 

Wie Erich von Daneken die Welt sieht....

 

Die Grossen (ungelösten) Rätsel dieser Welt - EvD

 

http://www.youtube.com/watch?v=uzaHl41-Z4k

 

also ich binn dann eher für die ARTE Doku ;)

 

 

7. Die Telharmonium

 

Oft als das weltweit erste elektronische Musikinstrument bekannt, war das Telharmonium eine große Orgel-ähnliches Gerät, dass Tonräder kreative synthetische Noten hatte, die dann durch Drähte zu einer Reihe von Lautsprechern übertragen wurden. Das Telharmonium wurde von dem Erfinder Thaddeus Cahill im Jahr 1897 entwickelt, und zu der Zeit war es eines der größten Instrumente jemals gebaut wurde. Cahill hat schließlich drei Versionen davon gebaut, von denen eines angeblich rund 200 Tonnen wiegen und genügend Platz brauchte, um einen ganzen Raum zu füllen war. Seine Einrichtung bestand aus einer Sammlung von Tastaturen und Fußpedale, die der Benutzer zu bedienen musste, um die Klänge der anderen Instrumente, vor allem Holzblasinstrumente wie Flöten, Fagotte und Klarinetten zu reproduzieren. Die erste öffentliche Ausstellungen der Telharmonium wurde ein großer Erfolg. Die Leute kamen in Scharen, um öffentliche Auftritte der primitiven Synthesizer zu sehen.

 

Wie ging es verloren?

 

Nach ihren ersten Erfolgen entwickelt Cahill große Pläne für seine Telharmonium. Aufgrund seiner Fähigkeit, ein Signal über Telefonleitungen zu übertragen, hatte er eine Vision Telharmonium Musik aus der Ferne als Hintergrund-Sound in Orten wie Restaurants, Hotels und private Haushalte zu bauen. Leider erwies sich das Gerät als seiner Zeit weit voraus. Sein massiver Energieverbrauch belastete die frühen Stromnetze und bei einem Preis von satte $ 200.000, war das Instrument einfach zu teuer, um es im großen Maßstab zu bauen. Musik über das Telefon zu senden waren katastrophal, der Klang war grauenhaft. Nach einer weile ließ die Faszination an dem Gerät nach, und die verschiedenen Versionen davon wurden schließlich verschrottet. Auch heute noch ist nichts von der ursprünglichen drei Telharmoniums vorhanden, nicht einmal Tonaufnahmen.

 

 

6. Die Bibliothek von Alexandria

 

Obwohl ...es war keine Technologie, die legendäre Bibliothek von Alexandria garantiert einen Platz auf dieser Liste, wenn auch nur, weil ihre Zerstörung bedeutete, dass so viel von dem gesammelten Wissen der Antike für immer verloren war. Die Bibliothek wurde in Alexandria, Ägypten in etwa 300 v. Chr., wahrscheinlich während der Herrschaft von Ptolemäus Soter gegründet. Es war der erste ernsthafte Versuch, alle bekannten Informationen über die Außenwelt an einem Ort zu sammeln. Die Größe seiner Sammlung ist nicht bekannt (obwohl die Zahl geschätzt wurde, ca. Million Schriftrollen), sondern die Bibliothek zog einige der großen Geister seiner Zeit, darunter Zenodot und Aristophones von Byzanz nach Alexandria. Die Bibliothek wurde so wichtig, dass es auch eine Legende entsand, dass alle Besucher der Stadt müssten bei ihrer Einreise ...Bücher abgeben , so dass eine Kopie für die Lagerung in der großen Bibliothek gemacht werden könnte.

 

Wie ging es verloren?

 

Die Bibliothek von Alexandria und alle Inhalte verbrannten irgendwann um den ersten oder zweiten Jahrhundert nach Christus. Wissenschaftler sind noch unsicher, wie das Feuer begonnen hatte, aber es gibt ein paar konkurrierenden Theorien. Die erste, die durch historische Dokumente gesichert ist, lässt vermuten, dass Julius Caesar versehentlich die Bibliothek abbrannte. Andere Theorien behaupten, dass die Bibliothek geplündert und niedergebrannt wurde ,durch Eindringlinge, mit dem Kaiser Aurelian, Theodosius I, und die arabischen Eroberer Amr ibn al 'Aas, die als die wichtigsten Konkurrenten galten. Doch als die Bibliothek von Alexandria zerstört wurde, gibt es wenig Zweifel daran, dass viele der Geheimnisse des Altertums zusammen damit verloren gingen. Wir werden nie ganz sicher wissen, was verloren gegangen ist.

 

5. Damaskus-Stahl

 

Damaszener Stahl war eine unglaublich starke Art des Metalls, die weit in den Nahen Osten von 1100-1700 n. Chr. benutzt wurde. Es ist sehr stark mit Schwertern und Messern verbunden. Schwerter die aus Damaszener Stahl geschmiedet wurden, sind für ihre erstaunliche Kraft und Schneiden Fähigkeit bekannt und waren so in der Lage , Felsen und anderen Metallen einschließlich der Klingen der schwächeren Schwerter-sauber in zwei Hälften zu schneiden. Die Klingen sind vermutlich erstellt mit Wootz-Stahl, der wahrscheinlich aus Indien und Sri Lanka importiert wurde und geformt und vermischt, um eine gemusterte Klinge zu schaffen.

 

Wie ging es verloren?

 

Das besondere Verfahren zum Schmieden Damaszener-Stahl war irgendwann um 1750 n. Chr. verschwunden. Die genaue Ursache für den Verlust der Technik ist unbekannt, aber es gibt mehrere Theorien. Am beliebtesten ist, dass die Lieferung von Erzen für die spezielle Rezeptur für Damaszener Stahl die benötigt wurde zur Neige ging. Die Entscheidungsträger waren gezwungen, andere Techniken zu entwickeln. Stattdessen fingen sie an einfach Schwerter en masse herzustellen und testen sie, um zu bestimmen, ob die zur Erfüllung der Standards der Damaszener-Stahl erreichten. Unabhängig von der Technik ist Damaszener-Stahl eine Technologie, die modernen Experimentatoren nicht vollständig reproduzieren können.

 

4. Apollo / Gemini Space Program Technologie

 

Nicht alle verlorenen Technologie stammen aus der Antike,schnell ist etwas so veraltet, dass es nicht mehr kompatibel ist. Die Apollo-und Gemini-Raumfahrtprogramm der 50er, 60er und 70er Jahre waren für die größten Erfolge der NASA verantwortlich, darunter auch einige der ersten bemannten Raumflüge und die erste Reise zum Mond. Gemini, die von 1965 bis 66 lief, war verantwortlich für die viel von der frühen Forschung und Entwicklung in der Mechanik der bemannten Raumfahrt. Apollo, die kurz darauf folgte, war mit dem Ziel der Landung eine Crew auf der Oberfläche des Mondes, die i im Juli 1969 ins Leben gerufen wurde.

 

Wie ging es verloren?

 

Die Apollo-und Gemini-Programme sind nicht wirklich verloren. Es gibt noch ein oder zwei Saturn V Raketen die herumliegen, und es gibt viele Teile aus dem Raumschiff Kapseln die weiterhin zur Verfügung stehen. Moderne Wissenschaftler können die Teile nicht deuten, sie haben nicht das Wissen es zu verstehen, wie oder warum sie funktionieren, oder wie sie es taten. In der Tat sind nur sehr wenige Schaltpläne oder Datensätze aus der Original-Programme immer noch da. Dieser Mangel an Aufzeichnungen ist ein Nebenprodukt der frenetische Tempo, mit dem das amerikanische Raumfahrtprogramm voran ging ( Kalter Krieg). Nicht nur das, sondern in den meisten Fällen waren private Unternehmer in der Produktion. Sobald die Programme beendet waren, gingen diese Ingenieure, zusammen mit all ihren Wissen woanders hin. Nichts davon wäre ein Problem, aber jetzt, plant die NASA eine Reise zum Mond. Eine Menge Informationen darüber, wie die Ingenieure der 1960er Jahre machte, ist von unschätzbarem Wert. Erstaunlicherweise bleiben die Datensätze so unorganisiert und unvollständig, dass die NASA zurückgegriffen Engineering bestehender Raumsonde Teile machen muss, die sie herumliegen haben auf Schrotthalden, als eine Möglichkeit der Verständigung, wie der Gemini-und Apollo-Programme so gut funktionieren konnte umgekehrt.

 

 

3. Silphium

 

Verlorene Technologien sind nicht immer die Folge von zu viel Geheimhaltung oder schlechte Buchführung, manchmal bricht die Natur einfach zusammen. Dies war der Fall mit Silphium, ein pflanzliches Wundermittel, dass die Römer als eine der frühesten Formen der Geburtenkontrolle eingesetzten. Es wurde auf die Frucht einer bestimmten Gattung der Fenchel-Anlage, eine blühende Pflanze, die nur entlang einer bestimmten Küste im heutigen Libyen aufgewachsen ist . Die herzförmige Frucht des Silphium Anlage wurde bekannt, dass so etwas wie ein Allheilmittel sein, und wurde benutzt, um Warzen, Fieber, Verdauungsstörungen und eine ganze Reihe von anderen Erkrankungen zu behandeln. Aber Silphium war auch als Verhütungsmittel bekannt, dass es so als eines der wertvollsten Substanzen in der römischen Welt bekannt wurde. Mit dem Kraut würde sogar kündigen eine bestehende Schwangerschaft, wenn richtig eingesetzt, die machen Silphium eine der ältesten Methoden der Abtreibung würde.

 

 

Wie ging es verloren?

 

Silphium war einer der begehrtesten Medikamente der alten Welt zu suchen, und seine Verwendung breitete sich rasch in ganz Europa und in Asien. Aber trotz seiner bemerkenswerten Effekte gedieh die besondere Gattung der Pflanze nur in einem Bereich entlang der Mittelmeerküste in Nordafrika. Seine Knappheit, mit einer überwältigenden Nachfrage kombiniert, mehr als wahrscheinlich, um über die Ernte, die die Pflanze zum Aussterben trieb geführt haben.

 

2. Roman Cement

 

Moderner Beton wurde in den 17 Jahrhundert entwickelt, und heute ist die einfache Mischung aus Zement, Wasser, Sand und Felsen ist das am häufigsten verwendete Baustoff der Welt. Aber das Rezept wurde im 18. Jahrhundert entwickelt und nicht zum ersten Mal konkret erfunden wurde. In der Tat war Beton weit über der Antike durch die Perser, Ägypter, Assyrer und Römer bekannt. Die Römer in allem, machte umfangreiche Verwendung von Beton, und sie waren verantwortlich für die erste Vervollkommnung der Rezeptur durch Mischen von Branntkalk mit Schotter und Wasser.Ihre Beherrschung der Nutzung erlaubte ihnen, viele ihrer berühmtesten Strukturen aufbauen, darunter das Pantheon, das Kolosseum, die Wasserleitungen und die Römischen Bäder.

 

Wie ging es verloren ?

 

Wie so viele Technologien der Griechen und Römer war das Rezept für Beton während des Abstiegs in das dunkle Mittelalter verloren, warum blieb es ein Geheimnis. Die populärste Theorie ist, dass das Rezept so etwas wie ein Geschäftsgeheimnis unter Steinmetze war und dass die Verfahren zur Herstellung von Zement und Beton, starb zusammen mit denen, die sie kannte. Vielleicht noch interessanter als das Verschwinden der römischen Zement sind die besonderen Qualitäten, die sie getrennt von moderner Portland Zement, der die häufigste Form von Zement das heutzutage verwendet wird. Strukturen mit römischen Zement, wie das Kolosseum, dort ist es gelungen tausende von Jahren den Elementen zu trotzen und stehen zu bleiben. Gebäude die mit Portland-Zement gebaut werden sind bekannt dafür zu zermürben.

 

1. Griechisches Feuer

 

Vielleicht ist der berühmteste von allen verloren Technologien ist, was als griechische Feuer bekannt ist. Eine Brandbombe Waffe, die von den Militärs des Byzantinischen Reiches verwendet wurde. Eine primitive Form von Napalm war die griechische Feuer eine Art "immer brendendes Feuer", dass weiterhin brennen konnte auch im Wasser. Die Byzantiner... am berühmtesten wurde es während des 11. Jahrhunderts , als es mit half von zwei Belagerungen von Konstantinopel durch die arabischen Eindringlinge abzuwehren. Griechisches Feuer konnte auf viele verschiedene Arten eingesetzt werden. In seiner frühesten Form wurde es in Gläser gegossen und auf Gegner geworfen wie eine Granate oder einen Molotow-Cocktail. Später wurden riesige Bronze Röhren auf Kriegsschiffen montiert und Siphons sprühten das Feuer auf feindliche Schiffe. Es gab sogar eine Art tragbare Siphon, die von Hand in den Stil eines modernen Flammenwerfer betrieben werden könnte.

 

Wie ging es verloren?

 

Die Technologie hinter griechischem Feuer ist sicherlich nicht völlig fremd. Immerhin haben moderne Armeen nun mit ähnlichen Waffen seit Jahren. Dennoch war der nächste Gegenstück zu griechischem Feuer, Napalm, nicht bis in die frühen 1940er Jahre, was bedeuten die Technologie für mehrere hundert Jahre verloren war. Die Waffe scheint nach dem Untergang des Byzantinischen Reiches verschwunden zu sein, aber gerade deshalb ist nichts bekannt. Inzwischen hat man die mögliche chemische Zusammensetzung des griechischen Feuers weithin von Historikern und Wissenschaftlern untersucht. Eine frühe Theorie war, dass die Mischung einer starken Dosis von Salpeter, die es chemisch ähnlich Schießpulver würde enthalten. Diese Idee wurde inzwischen abgelehnt, weil Salpeter nicht in Wasser brennet. Stattdessen schlagen modernen Theorien vor, dass die Waffe eher ein Cocktail aus Erdöl und andere Chemikalien, eventuell auch Kalk, Salpeter oder Schwefel war.

 

 

Es gibt noch mehr Technologien die verlohren gingen aber das sollte ja nur ein Beispiel sein was so alles verloren gegengen ist ..... gehe ich später noch mal genauer drauf ein.....

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Der Schlund....

 

 

Der Schlund war die Heimat einer streng geheimen, imperialen Forschungseinrichtung. Die Station bestand aus mehreren, miteinander verbundenen, ausgehöhlten Felsbrocken, die genau in der Mitte zwischen mehreren schwarzen Löchern in der Schlundballung in den Randsystemen lag.

 

Was man alles über ein Schwarzes Loch wissen sollte

 

Geburt eines Monsters

 

Ein Schwarzes Loch entsteht, wenn Materie eine bestimmte Dichte überschreitet. Die Allgemeine Relativitätstheorie besagt, dass massive Objekte durch ihr Gravitationsfeld den Raum um sich herum krümmen.

 

Stellare Schwarze Löcher sind der Endzustand der Entwicklung schwerer Sterne ab der etwa zehnfachen Sonnenmasse. Sie explodieren am Ende ihres Lebens als Supernova und stoßen dabei einen Teil ihrer Materie als Gaswolke ab. Der Rest stürzt unter dem Einfluss der Schwerkraft in sich zusammen, bis sich all seine Atomkerne berühren. Dieses extrem verdichtete Gebilde nennt man Neutronenstern. Es ist noch kein Schwarzes Loch. Ab einer bestimmten Masse jedoch werden die Atomkerne selbst von der Gravitation immer weiter zusammengepresst, und der Radius des Neutronensterns nimmt weiter ab. Schließlich kollabiert der Stern zu einem Schwarzen Loch. Der ganze Prozess vom Zusammenstürzen des Sternrests bis zur Entstehung eines Schwarzen Lochs geht sehr schnell vor sich, in Minuten bis Sekunden.

 

Ein fiktives nichtrotierendes Schwarzes Loch von 10 Sonnenmassen aus 600 km Abstand gesehen, wobei dem Schwarzen Loch mit der 400-millionenfachen Erdbeschleunigung entgegengehalten werden muss, damit der Abstand konstant bleibt. Im freien Fall würde sich durch die Aberration ein anderes Bild ergeben. Die Milchstraße im Hintergrund erscheint durch die Raumzeitkrümmung verzerrt und doppelt.

 

Dies macht sich dadurch bemerkbar, dass Lichtstrahlen in der Nähe eines solchen Objekts nicht mehr geradlinig verlaufen. Sie werden wie von einer Sammellinse in Richtung des Objekts abgelenkt.

 

Vorbeiziehendes schwarzes Loch mit dem Linseneffekt

 

http://www.youtube.com/watch?v=2-My9CChyBw

 

Was sind eigentlich Schwarze Löcher?

 

http://www.youtube.com/watch?v=ZcieWZHEbOE

 

Dieser Effekt macht sich bereits bei unserer Sonne bemerkbar, ist aber bei Neutronensternen oder noch dichteren Objekten entsprechend stärker. Ist das massive Objekt sehr klein, kann es das Licht auf eine Kreisbahn zwingen und den Raum komplett 'abschnüren'.

 

Die Sonne Krümmt den Raum und biegt das Licht

 

http://www.youtube.com/watch?v=T884m5_QzWM

 

Ein Schwarzes Loch ist entstanden. In seinem Zentrum befindet sich eine Singularität, ein Punkt unendlicher Dichte und Gravitation.

 

Die Größe, unterhalb der ein Objekt zu einem Schwarzen Loch wird, nennt man den Schwarzschild-Radius (nach dem Physiker Karl Schwarzschild). Er hängt von der Masse des Objekts ab. Bei unserer Sonne – die allerdings wegen ihrer zu geringen Masse nicht zu einem Schwarzen Loch werden kann – beträgt der Schwarzschild-Radius 3 Kilometer. Bei einem Objekt von der Masse der Erde würde er etwa 9 Millimeter betragen.

 

Der Schwarzschild-Radius ist zugleich der Ereignishorizont des Schwarzen Loches, die Grenze, innerhalb derer keine Materie oder Strahlung das Schwarze Loch mehr verlassen kann. Man kann ihn nur in eine Richtung durchschreiten. Er wirkt daher als eine Art Kausalgrenze: Ereignisse außerhalb dieses Horizonts können keine Ursache innerhalb des Horizonts haben (abgesehen von dem Schwarzen Loch selbst), umgekehrt jedoch schon.

 

 

Was ist in einem schwarzem Loch

 

 

Ein Schwarzes Loch hat, ebenso wie ein Elementarteilchen, keinerlei individuelle Merkmale. Schwarze Löcher unterscheiden sich in nichts außer ihrer Masse, Ladung und Drehgeschwindigkeit. Sie sind übrigens keineswegs immer schwarz. Zum einen zeigte der Physiker Stephen Hawking 1981 anhand theoretischer Berechnungen, dass ihr Ereignishorizont aufgrund des extrem starken Gravitationsfeldes selbst eine geringfügige Strahlung aussendet (Hawking-Strahlung). Zum anderen wird die von der Gravitation angezogene Materie vor dem Sturz ins Loch durch Reibung so stark erhitzt, dass dieses – wenn sich genügend Materie in seiner Nähe befindet - nach außen hell leuchtet.

 

Der Ereignisshorizont

 

Einfallzeit für einen außenstehenden Beobachter

 

Für einen außenstehenden Beobachter, der aus sicherer Entfernung zusieht, wie ein Objekt auf ein Schwarzes Loch zufällt, hat es den Anschein, als würde sich das Objekt asymptotisch dem Ereignishorizont annähern. Das bedeutet, ein außenstehender Beobachter sieht niemals, wie das Objekt den Ereignishorizont erreicht, da aus seiner Sicht dazu unendlich viel Zeit benötigt wird.

 

Einfallzeit für einen frei fallenden Beobachter

 

Für einen Beobachter, der sich im freien Fall auf das Schwarze Loch zu bewegt, ist dies freilich anders. Dieser Beobachter erreicht den Ereignishorizont in endlicher Zeit. Der scheinbare Widerspruch zu dem vorherigen Ergebnis rührt daher, dass beide Betrachtungen in verschiedenen Bezugssystemen durchgeführt werden. Ein Objekt, welches den Ereignishorizont erreicht hat, fällt (vom Objekt selbst aus betrachtet) in endlicher Zeit in die zentrale Singularität.

 

Es sei noch angemerkt, dass der Ereignishorizont keine gegenständliche Grenze ist; ein frei fallender Beobachter könnte daher nicht direkt feststellen, wann er den Ereignishorizont passiert

 

Die hellsten unter ihnen nennt man Quasar

 

Quasare gehören wie die schwächeren Seyfertgalaxien zur Klasse der aktiven Galaxien. Die Trennung anhand der Leuchtkraft ist rein historisch bedingt. Nach heutiger Annahme befindet sich im Zentrum aller Galaxien mit einem Bulge ein sehr massereiches Schwarzes Loch, das mehrere Millionen bis Milliarden Sonnenmassen umfassen kann. Aktive Galaxien unterscheiden sich von normalen Galaxien dadurch, dass dieses Schwarze Loch mit der Zeit an Masse zunimmt, da Materie aus der umgebenden Galaxie (Interstellares Gas oder zerrissene Sterne) durch die Gravitation des Schwarzen Loches angezogen wird. Dieser Vorgang des Ansammelns von Materie wird in der Astronomie Akkretion genannt. Aufgrund der Drehimpulserhaltung bei der einfallenden Materie kann diese nicht direkt in das Schwarze Loch fallen, so dass sich um es herum eine Akkretionsscheibe bildet. Durch Reibung heizt sich diese Scheibe auf, wobei gleichzeitig Teile der Materie Drehimpuls verlieren und so in das Schwarze Loch fallen können. Die Emission der aufgeheizten Akkretionsscheibe ist das, was man als typische Strahlung des Quasars beobachtet. Sie kann eine Leuchtkraft ähnlich der von vielen Milliarden Sternen erreichen und somit mehr Licht abstrahlen als die gesamte umgebende Wirtsgalaxie.

 

Die leuchtkräftigsten Quasare erreichen bis über 10 hoch 14 Sonnenleuchtkräfte

 

Sofern die Akkretionsscheibe über ein starkes Magnetfeld verfügt, wird ein kleiner Anteil des Materiestromes in zwei Teile gerissen und in Bahnen entlang der Feldlinien des Magnetfeldes gezwungen. Anschließend werden beide Ströme senkrecht zur Ebene der Akkretionsscheibe (einer auf jeder Seite) mit relativistischer Geschwindigkeit in die umgebende Galaxie und den weiteren Weltraum abgestoßen. Diese sogenannten „Jets“ können dann im Radiowellenlängenbereich beobachtet werden. Man unterscheidet in diesem Zusammenhang Quasare in „radio-laute“ und „radio-leise“ Klassen, je nach Stärke der Radiostrahlung. Allerdings hat sich herausgestellt, dass es vermutlich keine wirklichen Klassen, sondern einen kontinuierlichen Übergang innerhalb der Radioeigenschaften gibt.

 

Bad Astronomy: Black Hole Death Rays

 

http://www.youtube.com/watch?v=MD5lOpxDElI&feature=fvst

 

 

Quasare sind mit die grössten Einzelobjekte im Universum. Sie können mit ihren Jets bis zu 100.000 Lj in das Interstellare Medium hinausreichen.

Doch im Fall von HE0450-2958 trifft der Strahl (ein sogenannter Jet) auf eine etwa 22 000 Lichtjahre entfernte Galaxie, die viele helle junge Sterne enthält. Wie Messungen zeigten, entstehen darin pro Jahr bis zu 350 neue Sonnen. Das ist das 100-Fache der Menge, die für Galaxien dieses Typs zu erwarten wäre.

 

Tod eines schwarzen Lochs

 

Kommt kein Material mehr nach, könnten sich Schwarze Löcher nach einer Theorie von Hawking über einen Zeitraum von vielen Milliarden Jahren langsam wieder auflösen. Diesen Vorgang nennt man "Hawking-Strahlung". Sie beruht auf einem quantenmechanischen Effekt

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

So bin wieder da ^^

 

Endlich mal einer, der so wie ich argumentiert zum Thema Außerirdische auf der Erde. Es ist extrem unwahrscheinlich, dass wir Menschen es jemals schaffen unser Sonnensystem zu verlassen und nen Menschen zu Alpha Centauri schicken. Und dort ist quasi nix. Viel unwahrscheinlicher ist es, dass irgendjemand uns besucht hatte oder besucht. Und schon gar nicht mit so kleinen raumschiffchen die da bei Ufosichtungen gesehen werden.

 

Sollten uns wirklich Aliens besuchen, dann kommen die mit nem Generationsschiff ala Independence Day oder Krieg der Welten.

 

Wie schon gesagt würde sind nur riesige Schiffe in der Lage die Probleme zu lösen, die man lösen muss um interstellar reisen zu können. Allerdings brauchts ne Typ 2 Zivilisation um so nen Raumschiff bauen zu können. Und nunja die Ressourcen in unserem Sonnensystem würden nicht aussreichen um ne Dyson Sphäre zu bauen, selbst wenn es möglich wäre so ein Ding zu bauen.

Link to comment
Share on other sites

Dunkle Materie

 

Das Universum hat sich nach dem Urknall mit sehr großer Geschwindigkeit ausgedehnt, Astrophysiker sprechen sogar von inflationärer Ausdehnung, das ist nach heutigen Modellen des Kosmos auch die Erklärung für die großräumigen Strukturen, die im Weltall beobachtet werden.

 

Aber leider scheint die beobachtete Masse nicht auszureichen, um diese Ausdehnung in den letzten 15 Mrd. Jahren auf das heute beobachtete Maß abzubremsen. Es muss also etwas geben, das für die verlangsamte Ausdehnung des Universums verantwortlich ist - die Dunkle Materie.

 

Damit verbunden ist auch die Frage, ob sich unser Universum immer weiter ausdehnen wird, oder ob sich die Bewegung irgendwann wieder umkehrt und das Universum in einem Endknall - dem "Big Crunch" - vergeht.

 

Dies wird durch die kosmologische Konstante Omega beschrieben, wenn sie kleiner als 1 ist dehnt sich das Universum bis in alle ewig weiter aus, ist Omega größer eins stürzt es in ferner Zukunft wieder zusammen - Omega gleich eins entspräche einem Gleichgewichtszustand dem sich das Universum annähert. Derzeitige Berechnungen für Omega liegen weit unter eins, für ein zyklisches Universum muss deshalb noch Materie gefunden werden.

 

Und schließlich ist da noch die Bewegung der Sterne um das Zentrum ihrer Galaxien. Eigentlich sollten sich die Sterne am Rand viel langsamer bewegen als Berechnungen der Rotverschiebung schließen lassen, eine mögliche Lösung dieses Dilemmas ist die Existenz Dunkler Materie in einem kugelförmigen Halo, das sich weit über die sichtbare Galaxie hinaus in den Weltraum erstreckt.

 

Im Grunde heißt das aber nur, dass diese Materie nicht leuchtet und das trifft sowohl auf Planeten und Staub zu, als auch auf Sterne, die nicht genug Masse haben, um die Kernfusion in ihrem inneren zu zünden oder schon lange ausgebrannt sind, sogenannte Braune Zwerge. Aber auch schwarze Löcher sind in der Regel nicht so ohne weiteres zu entdecken.

 

Diese normale Materie könnte nach aktuellen Schätzungen etwa 10% der fehlenden Masse des Universums ausmachen. Auf der Suche nach den restlichen 90% interessieren sich die Astronomen deshalb für die Objekte, die mit bisherigen Methoden noch nicht entdeckt worden sind und einen eher exotischen Charakter haben könnten.

 

Astrophysiker unterscheiden auf ihrer Suche nach der fehlenden Masse zwischen heißer und kalter dunkler Materie. Kalt ist sie, wenn sie sich nur langsam bewegt und mit heiß bezeichnet man Teilchenstrahlung, die sich mit nahezu Lichtgeschwindigkeit ausbreitet.

 

Diese Trennung könnte allerdings zum Problem werden, denn die kalte langsame Dunkle Materie (KDM) würde sich auf kleineren Skalen auswirken und vielleicht das Verhalten von Galaxien erklären. Die heiße (HDM) auf der anderen Seite kann nur großräumige Strukturen erklären, wie Galaxienhaufen und ihre Verteilung im Universum. Möglicherweise wird man sich letztendlich nicht auf eine der beiden Sorten festlegen können.

 

Ein vielversprechender Kandidat für HDM könnten Neutrinos sein, deren Masse ist zwar verschwindend klein, aber sie kommen in schier unvorstellbaren Mengen vor - 10 hoch 14 Neutrinos durchströmen unsere Körper in jeder Sekunde. Aktuelle Experimente konnten zeigen, dass Neutrinos wirklich eine kleine Masse besitzen - etwa ein zehn Milliardstel der Masse eines Wasserstoffatoms. Deshalb könnten Neutrinos trotzdem bis zu 20% der Masse des Universums ausmachen.

 

Andere Physiker suchen nach sogenannten WIMPs (Weakly Interacting Massive Particles - schwach wechselwirkende massive Teilchen) die eine Masse von zehn bis 100 Protonenmassen haben könnten.

 

Die Superstringtheorie sagt diese Teilchen als supersymmetrische Partner der bekannten Teilchen voraus. Leider konnten diese WIMPs aber bisher mit keinem Detektor nachgewiesen werden, da die Energien derzeit noch nicht ausreichen um so hohe Energie zu erreichen, das könnte sich aber ändern, wenn neue Teilchenbeschleuniger wie Tesla und der LHC in Betrieb gehen.

 

Und auch MACHOs (Massive Compact Halo Objects - Massive Kompakte Objekte im Halo der Galaxien) könnten einen Teil der Dunklen Materie erklären. Diese MACHOs sind aber weit weniger seltsam, es handelt sich um KDM wie verloschene Sterne oder schwarze Löcher, die nicht ohne weiteres nachgewiesen werden können. Seit 1991 suchen Astronomen vom Lawrence Livermore National Laboratory nach diesen MACHOs.

 

Der Trick dabei besteht nicht darin, die Objekte direkt beobachten zu wollen, statt dessen versucht man ihren Einfluss auf den umgebenden Raum nachzuweisen. Wenn das Objekt vor einem Stern vorbeizieht, verzerrt seine Anziehungskraft den Weg des Lichts des verdeckten Objekts diesen Effekt der Gravitationslinse versucht man bei der Durchmusterung des Sternenhimmels nachzuweisen.

 

Bei einem Stern aus der Magellanschen Wolke konnte dabei zum Beispiel eine Helligkeitsveränderung nachgewiesen werden, die auf den beschriebenen Effekt zurückzuführen sein könnte. Insgesamt hat das MACHO-Projekt über 400 Objekte nachweisen können, die zu dieser Kategorie Dunkler Materie gehören.

 

Astrophysiker schätzen, dass WIMPS und MACHOs zusammen aber auch nur etwa 6% der fehlenden Masse erklären können. Es bleiben also noch etwa Zweidrittel der Masse des Universums unerklärt, was weitere Nachforschungen erforderlich macht.

 

Die Forschungsgruppen von Claude Canizares und Taotao Fangvom am Massachusetts Institute of Technology (MIT) gehen hingegen davon aus, dass sich nach dem Urknall nicht alle entstandene Materie in Galaxien zusammengeballt hat, sondern dass ein Teil in extrem heißen sogenannten Filamenten immernoch den Raum zwischen den Intergalaktischen Strukturen füllt - Der Große Attraktor, auf den sich die Milchstraße mit der Lokalen Gruppe und der Virgo-Cluster zubewegen könnte so ein Objekt sein.

 

Dieses Gas wäre so heiß, dass es noch nicht einmal mit Radioteleskopen nachgewiesen werden kann. Allerdings muss die Strahlung ferner Galaxien diese Filamente passieren, dabei wird ein Teil der Energie absorbiert, so dass es möglich wäre, quasi den Schatten dieser Dunklen Materie zu sehen.

 

Der Röntgensatellit Chandra und die Auswertung von Beobachtungen im Ultravioletten Spektrum von Fabrizio Nicastro am Center for Astrophysics in Cambridge haben kürzlich erste Hinweise geliefert, die im Sinne dieser Hypothese interpretiert werden können.

 

Aber vielleicht kommt man auch ohne aus, man könnte nämlich auch das Gravitationsgesetz etwas anpassen, so dass es bei sehr großen Massen ein wenig von der Newtonschen Dynamik abweicht. Diese modifizierte Newtonsche Dynamik (MOND), die 1989 von Mordehai Milgrom am Weizmann Institut in Israel vorgeschlagen wurde, würde im Größenordnungen von einigen Astronomischen Einheiten nichts ändern, so dass wir auf der Erde nichts von MOND merken.

 

Allerdings gibt es für MOND keinerlei physikalische Grundlage, sie passt nur die Formel an die beobachteten Daten an. Das ist nicht unbedingt ein Grund, die These zu verwerfen, aber viele Astrophysiker stehen dieser Vorgehensweise skeptisch gegenüber. Dazu kommt, dass die Theorie zwar für den Bereich für den sie entwickelt wurde gute Ergebnisse liefert, aber im Rahmen von Experimenten nicht auf der Erde überprüft werden kann.

 

Neueste Forschungsergebnisse scheinen der MOND-Theorie jedoch zu wiedersprechen, weil die beobachtete Bewegung der Sterne sehr gut mit dem Halo aus dunkler Materie erklärt werden kann.

 

Das Rätsel der Dunklen Materie ist ein weißer Fleck auf der Landkarte der Wissenschaft, dessen Größe nur sehr langsam mit immer neuen Erkenntnissen der modernen Astrophysik abnimmt. Spekulation und wenige harte Fakten dominieren derzeit die Forschung auf diesem Gebiet, dass trotzdem - oder vielleicht gerade deswegen - von großer Bedeutung für unser Verständnis des Universums und seiner zukünftigen Entwicklung.

 

Der Link zur Seite....

 

http://wissenschaft.marcus-haas.de/weltraum/schwarzesloch.html

 

Harald Lesch - Dunkle Materie, Schwarze Löcher & Co

 

Teil 1

 

Teil 2

 

Rätsel Dunkle Materie

 

http://www.youtube.com/watch?v=_WMWh-s3oSE&feature=related

 

Dunkle Materie / Dunkle Energie

 

http://www.youtube.com/watch?v=2abuJ9K0rbg&feature=related Teil 1

 

http://www.youtube.com/watch?v=fIgGBt3MRzo&feature=relmfu Teil 2

 

http://www.youtube.com/watch?v=ItJypG5IKn4&feature=relmfu Teil 3

 

http://www.youtube.com/watch?v=LXf_GMhIg4M&feature=relmfu Teil 4

 

http://www.youtube.com/watch?v=NFErSsnI0t4&feature=relmfu Teil 5

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Hoi,

zum Thema wir Menschen werden unser Sonnensystem nicht verlassen oder Ausserirdische haben die Erde nie besucht.

 

Wie Bakhtosh schon vorher geschrieben hat gibt es genügend Technologien und Erfindungen die verschwunden sind. Die Ägypter hatten sogar schon eine Art elektrische Lampe. Wenn wir wirklich 1969 auf dem Mond waren, was ich glaube, warum fahren wir dann heute noch immer mit einem Ottomotor der um 1898 zum ersten mal in einem Automobil zum Einsatz kam. In den 40er Jahren gab es schon Düsenflugzeuge und die V2 (deren Antrieb heute noch verwendet wird). Sogar eine Atombombe gab es in der Zeit. Seit der Mondlandung hat sich nicht wirklich viel getan außer das die Benzinpreise immer weiter steigen ;). Fast 50 Jahre gab es nicht mehr so einen großen Sprung wie vom Pferd zum Mond. Woran liegt das? hrm..

 

Warum sollen uns andere Lebensformen noch nie besucht haben? Ich gehe mal davon aus das es noch andere Lebensformen in unserem Universum gibt, die auch technisch weiter entwickelt sind als wir. So arrogant können wir Menschen nicht sein um zu behaupten das wir die intelligentesten Lebewesen im Universum sind. Und wenn WIR es nicht schaffen dann bestimmt niemand anders. Wenn so eine hoch entwickelte Spezies es schafft diese Entfernungen zurück zu legen, weshalb sollten Sie sich uns dann auch zeigen? Wir Menschen beschäftigen uns eher damit uns wegen irgendwelcher Gründe gegenseitig abzuschlachten, sei es wegen Ressourcen oder Religion oder anderer belangloser Dinge. Erst wenn wir Erdbewohner lernen zusammen zu halten wird es in der Zukunft auch möglich sein unser Sonnensystem zu verlassen. Ist für unser Hirn vielleicht unwahrscheinlich aber bestimmt nicht unmöglich.

 

Und warum ein Generationsraumschiff, vielleicht geht es auch viel einfacher als Jahrhunderte durch das Weltall zu tuckern. Nur wir wissen es noch nicht.. hehe

Wie wäre es mit Raumkrümmung? Fliege nicht die Strecke von A nach B sondern krümme den Raum und schwups bist du da :)

 

Hier noch ein Link http://www.ag-naturwissenschaften.de/bosen/ftl.htm#dinge%20ftl siehe Punkt 2) und 6)

 

Viele Fragen aber eventuell kann ja Bakhtosh bisschen Licht ins Dunkle bringen :D

 

Mach weiter so Bakhtosh, sehr interessanter Thread *Daumen hoch*

 

Liebe Grüße

 

Parzi

Link to comment
Share on other sites

Raumkrümmungen könnten helfen. Nur wird kein Mensch und auch kein Alien, Aliens sind auch nur Menschen, in der Lage sein den Raum zu manipulieren. Dafür braucht es nämlich Massen. Und einer der fundamentalsten Prinzipien ist: Energie, Masse ist kondensierte Energie, lässt sich weder erzeugen noch vernichten. Man kann sie nur transformieren.

 

Und nunja an unserem verdammten Sonnensystem siehst du doch, dass die Masse, respektive Energie, nicht aussreicht um den Raum soweit zu krümmen um irgendwie ne Abkürzung durch den Raum zu schaffen. Und selbst wenn man die Sonne auf nen schwarzes Loch schrumpft und mal ganz hypothetisch angenommen, es gibt weiße Löscher respektive Masse mit negativer Energiedichte, dann haben wir zwar nen Wurmloch geschaffen, was irgendwohin führt nur die Erde kann net mehr existieren, weil nunja Erde ohne Sonn ist nicht gut.

 

Die Energie und die Ressourcen innerhalb eines Sonnensystems reichen einfach nicht aus um irgendsowas zu basteln. Generationsschiffe sind die einzige Lösung und auch die ist nunmal nicht realisierbar, weil auch für die Dinger die Energie und die Ressourcen nicht ausreichen.

 

Das hat alles nichts mit technischer Realisierbarkeit zu tun. Es hat was damit zu tun ist, dass es net genug Energie gibt. Das wäre etwa so, wie wenn du nen Wolkenkratzer aus nem Sandkorn bauen willst. Es geht einfach nicht.

Link to comment
Share on other sites

Centerpoint Station

 

 

 

In viele Sci - Fi Filmen haben Raumschiffe künstliche Gravitation. Der Harald hatte ja schon erklärt das Gravitation nur dur eine Masse erreichbar ist und so wiederrum die Raumschiffe ungeheuer schwer würden.

Man kann Gravitation auch mit Rotation erreichen, da die Fliehkaft einen gegen die Wand drückt.

 

Technische Daten

 

Die Station bestand aus einer zentral, zwischen zwei langen, dicken Zylindern gelagerte Kugel. Aufgrund ihres Alters und der bei der Entstehung verfügbaren Technologie war es notwendig, die Station rotieren zu lassen, um Schwerkraft zu erzeugen. Je weiter man sich von der Achse entfernte, desto stärker war die Rotation und führte zu einer höheren Gravitation. Die Zentralkugel allein besaß einen Durchmesser von 100 km. Insgesamt hatte die Station eine Länge von 300 km. Äußerlich gesehen bestand die Station aus gepanzerten Toren und halbkugelförmigen Erhebungen, langen zylindrischen Objekten auf Untersätzen, die wie Zielplattformen aussahen und mit komplizierten Rohr- und Kabelwerken verbunden waren. Es gab in der Centerpoint-Station über 2000 Ebenen, Decks oder Schalen genannt. Als Schale wurden Decks mit einer über 20 Meter hohen Decke bezeichnet. Die Centerpoint-Station war ein Hyperraum-Repulsor, mit dessen Hilfe das Corellia-System erschaffen worden war. Ihre Aufgabe war es, Tunnel durch den Hyperraum zu öffnen und fünf Planeten ins Corellia-System zu bewegen. Lando Calrissian beschrieb ihre Wirkungsweise eher als die eines Traktorstrahls. Außerdem war es möglich, den dazu genutzten Repulsorstrahl so zu verändern, dass er einen Stern zur Explosion brachte. Darüber hinaus konnte Centerpoint Abfang- und Störfelder erzeugen, die das gesamte System umfassten.

 

Was ist machbar und die Technischen Hindernisse

 

O’Neill-Kolonien sind hypothetische Weltraumkolonien, die vom Physiker Gerard K. O’Neill vorgeschlagen wurden

 

Aufbau

 

Form Kugel oder Zylinder

 

Länge bis zu 30 km

 

Durchmesser bis zu 6,5 km

 

Einwohnerzahl zwischen 100 000 und mehreren Millionen

 

geschätzte Kosten 100 Milliarden bis 100 Billionen Dollar (alte Schätzung)

 

Kosten der ISS

 

Wie viel das Projekt insgesamt kosten wird, ist umstritten. Nachdem die NASA beim Anfangsbetrag von 40 Milliarden US-Dollar diverse Korrekturen nach oben vornehmen musste, gibt sie heute keine neuen Kostenschätzungen mehr heraus. Nach Angaben der ESA werden sich die Gesamtkosten auf etwa 100 Milliarden Euro belaufen. Darin enthalten sind Entwicklung, Aufbau und die ersten zehn Jahre der Nutzung. 8 Milliarden Euro davon entfallen auf die Länder der ESA. 41 Prozent der europäischen Kosten werden von Deutschland getragen. Die Schweiz trägt 2,5 Prozent und Österreich weniger als 0,4 Prozent

 

Derzeitige kosten um 1 Kg Material in die Umlaufbahn zu bringen breträgt ca. 10.000 $

 

Kosten einer Mondkolonie

 

colony supporting 1,000 people would cost ~$4 trillion to develop, $100 billion to deliver, and >$6 billion/year to

staff and supply. We estimate that an alternative architecture can create this 1,000 person lunar colony for a

development cost of ~$2 billion, transportation cost of ~$5 billion, and annual support cost of $1 billion.

 

Wenn man die Raumstation mit einem Antrieb versieht und es als Generationsraumschiff nimmt, kommt natürlich noch eine Menge Geld obendrauf.

 

 

Die Vorstellungen der O’Neill-Anhänger bezüglich der Größe dieser Stationen waren gigantisch, angefangen bei einer Hohlkugel für 100.000 Bewohner bis hin zu einem Zylinder von 30 km Länge und 6,5 km Durchmesser für Millionen von Menschen. Die Kolonien sollten ihren Bewohnern eine dauerhafte Heimat bieten. Deshalb ist es auch nicht verwunderlich, dass in der großzügigen Konstruktion neben landwirtschaftlichen Nutzflächen auch Parks, Seen und Häuser eingeplant waren.

 

Die Kolonien sollten riesige Fensterflächen besitzen, durch die dann mit Hilfe ebenso großer Spiegel das Sonnenlicht in das Innere der Kugel oder des Zylinders gelenkt werden würde. Damit ein dauerhaftes Leben im Weltall überhaupt möglich ist, muss eine künstliche Gravitation geschaffen werden. Diese sollte durch Rotation jeder Kolonie erreicht werden. Ein Mantel aus Mondgestein sollte zudem den notwendigen Schutz vor der im Weltraum gefährlichen Sonnenstrahlung gewährleisten.

 

Standort

 

Wichtiges Element in der Planung der O’Neill-Kolonien war die Versorgung mit Rohstoffen vom Mond aus, zum Einen als Ausgangsprodukt für die Herstellung von Bauteilen, zum Anderen aber auch für den erwähnten Mantel aus Mondgestein, der vor der Sonnenstrahlung schützen sollte. Hierzu, so war die Idee, könnte auf dem Mond ein sogenannter Massenbeschleuniger errichtet werden. Er würde die benötigten Rohstoffe zum Bauplatz der Kolonien schleudern.

 

Hierbei ist es natürlich von Bedeutung, dass die geschleuderten Objekte und natürlich auch das Konstrukt selber an Ort und Stelle bleiben. Deshalb hat sich O’Neill für seine Kolonien einen besonderen Standort ausgesucht: die Gleichgewichts-, Librations- oder Lagrange-Punkte L4 und L5. An diesen Punkten halten sich in einem System zwischen zwei Körpern – also in diesem Fall zwischen Erde und Mond – die Fliehkraft des rotierenden Systems und die Anziehungskraft der beiden Körper die Waage. Diesem Umstand ist es zu verdanken, dass ein an diesen Orten positioniertes Objekt an seiner Stelle bleibt.

 

Die Lagrange-Punkte oder Librations-Punkte sind die nach Joseph-Louis Lagrange benannten Gleichgewicht*****te des eingeschränkten Dreikörperproblems der Himmelsmechanik. An diesen Punkten im Weltraum heben sich die Gravitationskräfte benachbarter Himmelskörper und die Zentrifugalkraft der Bewegung gegenseitig auf, so dass jeder der drei Körper in seinem Bezugssystem kräftefrei ist und bezüglich der anderen beiden Körper immer denselben Ort einnimmt.

 

Kann man im All parken?

 

Teil 1

 

Teil 2

 

Leben in der O’Neill-Kolonie

 

Das Innere einer O’Neill-KolonieDas Leben in den O’Neill-Kolonien ist von Autarkie gekennzeichnet. Die Bewohner sollen sich mit allen lebensnotwendigen Dingen selbst versorgen können.

 

Zur Nahrungsversorgung werden Mais-, Sojabohnen- und Luzernefelder auf der mittleren Ebene angelegt. Die Wasserversorgung erfolgt aus künstlich angelegten Teichen auf der obersten Ebene. So kann es optimal zur Bewässerung der Felder verwendet werden. Mit dem Rest des Wassers könnten dann die Nutztiere versorgt werden, deren Ställe sich auf der untersten Terrasse befänden. Ausgehend von einer Bewohnerzahl von 10.000 Kolonisten könnten dort etwa 60.000 Hühner, 30.000 Kaninchen und eine beträchtliche Anzahl von Rindern gehalten werden.

 

Anschließend würde das Wasser in einer Aufbereitungsanlage gereinigt und dem Kreislauf erneut zugeführt werden. So wäre eine gesunde Mischdiät möglich, die die Bewohner jeden Tag mit etwa 2400 Kilokalorien versorgen würde. Die Felder und Parks hätten zudem die Aufgabe, einen Großteil des Kohlendioxids aus der Luft aufzunehmen und Sauerstoff sowie Wasserdampf freizusetzen. Den restlichen Bedarf müsste dann die Hochtechnologie leisten.

 

Die Chancen für eine Realisierbarkeit macht eine einfache Überschlagsrechnung deutlich: Bei der oben erwähnten Größe der Kolonie wöge alleine die Luft im Inneren ca 1,2 Milliarden Tonnen (normalen Atmosphärendruck vorausgesetzt).

 

Ein gutes Beispiel für eine Rotierende Raumstation ist auch Babylon 5

 

 

Mehr dazu kommt Morgen...

 

Hi Parzi

 

Die Ägypter hatten sogar schon eine Art elektrische Lampe.

 

Na ja .. man vermutet es aber als Fakt würde ich es nicht sehen.Danke für den Link...

 

 

Hi werjo

 

Die Energie und die Ressourcen innerhalb eines Sonnensystems reichen einfach nicht aus um irgendsowas zu basteln. Generationsschiffe sind die einzige Lösung und auch die ist nunmal nicht realisierbar, weil auch für die Dinger die Energie und die Ressourcen nicht ausreichen.

 

Ich denke / vermute das es doch realiesirbar wäre, wenn die Menschheit keine Wahl hätte so etwas zu bauen. Nehmen wir an in ca. 50 Jahren würde ein Asteroid oder Kleinplanetoid mit der Erde kollidieren. Wenn alle Staaten da mitmachen dann... eventuell, aber das wärs dann auch mit den planetarischen Ressourcen.

Zu werjo ... er studiert Physik und liest diesen Thread praktisch als korrektur durch...das ich nicht all zu viel blödsinn schreibe.

 

Ich habe in SWTOR ein wenig zu tun, da ich mich mit dem neuen Patch ein wenig verkalkuliert habe und nun Geld beschaffen muss und natürlich RL. Das heisst das ich nicht mehr täglich hier posten kann, aber es kommt bestimmt noch ne Menge... versprochen :D

 

Man kann nun Beiträge bewerten .... :D

 

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Es geht weniger um die Ressourcen sowas zu bauen. Man könnte vlt das Metall und so irgendwie rannschaffen aber es geht um die Ressourcen die nötig sind sowas sinnvoll anzutreiben. Also die Energie. Die ist nicht in ausreichender Menge vorhanden.

 

Und ich meine selbst Longshot war so ausgelegt, dass es am Jupiter gebaut wird. Und das ist ein Objekt was n paar Tonnen wiegt und bis Alpha Centauri fliegt und das ganze in in weniger als 100 Jahren. Komplett ubemannt und während der Reise quasi ohne nennenswerten Energieverbrauch.

 

Und das DIng selber wiegt zum Start 400 Tonnen. Davon 265 Tonnen ausschließlich Treibstoff. Also etwa das doppelte der Nutzlast ist Treibstoff in Form von Helium 3. Bei nem Raumschiff, was viel viel weiter fliegen soll und um Größenklassen schwerer ist. Wo soll denn der Treibstoff da denn herkommen. So viel gibts aufm Jupiter net, so viel gibts wie schon gesagt im ganzen Sonnensystem nicht. Es gäbe nur eine Möglichkeit ... Man muss zugriff auf die komplette Energie der Sonne haben. und das geht nur durch Konstruktionen die ebenso nicht realisierbar sind, weil für die das Metall fehlt. Man kommt bei allen Überlegungen immer in eine Endlosschleife, weil man irgendwie Ressourcen und Energie herbeischaffen muss. Und für die Anschaffung wird wieder Energie benötigt, die nicht vorhanden ist ... usw.

Link to comment
Share on other sites

Kernfusionsantrieb

 

Fusion von Deuterium und Helium-3 liefert Energie von mehreren Hundertmillionen Megajoule pro Kilogramm Brennstoff. Je nach Effizienz des Antriebs könnten damit irgendwann Ausströmgeschwindigkeiten um 5 Prozent der Lichtgeschwindigkeit erreicht werden. Wenn leichte Antriebe gebaut werden können und das Verhältnis von Startgewicht zu Leergewicht des Raumschiffs günstig ist, könnte damit als Endgeschwindigleit etwa 10 Prozent der Lichtgeschwindigkeit erreicht werden. Die Reisezeit zu unserem Nachbarsonnensystem Alpha Centauri (4,4 Lichtjahre) würde dann innerhalb der Spanne eines Menschenlebens liegen.

 

Schub.

 

Die Ausström- geschwindigkeiten chemischer Raketenantriebe liegen im Bereich von wenigen km/s. Für Fusionsantriebe werden zurzeit Ausströmgeschwindigkeiten im Bereich von bis zu 1.000 km/s als möglich angesehen bei einem Schub-Gewicht-Verhältnis des Antriebs von etwa 1 zu 1000. (Ein noch wirksamerer Fusionsantrieb wäre mit den heutigen Fusionstechniken auch schwerer.) Mit jedem Gramm Fusionstreibstoff, das pro Sekunde die Antriebsdüse verlässt, würde damit der Schub von 1.000 Newton erzeugt. Zum Vergleich: Um den Schub von etwa 5x7.000.000 Newton zu erzeugen, musste die erste Stufe der Trägerrakete Saturn V, der größten und stärksten bisher von Menschen gebaute Maschine, pro Sekunde etwa 13.400 Kilogramm Treibstoffmasse ausstoßen. Ein Fusionsantrieb könnte den gleichen Schub mit 35 Kilogramm pro Sekunde erzielen.

 

Die Fusion der beiden Wasserstoffisotope Deuterium und Tritium ist am einfachsten zu erzielen und wird gegenwärtig in Forschungsreaktoren untersucht. Ihr Nachteil ist, dass dabei Neutronen erzeugt werden. Sie sind elektrisch neutral, können daher nicht im Magnetfeld eingeschlossen werden und bombardieren die Wände der Plasmakammer, wodurch sie nach und nach beschädigt und radioaktiv werden. Das Tritium muss außerdem aus Lithium durch Neutronenbeschuss erzeugt werden. Denn es ist kurzlebig radioaktiv ist und kommt daher in der Natur kaum vor.

 

Die Fusion von Deuterium (D) und Helium-3 (He3) hat diese Nachteile weitgehend nicht. Einige Neutronen werden trotzdem durch nebenher stattfindende D-D-Fusionen erzeugt. Deuterium und Helium-3 verschmelzen etwas schwieriger als Deuterium und Tritium; der Wirkungsquerschnitt der D-He3-Fusion ist etwa 1/10 des Wirkungsquerschnitts der D-T-Fusion. Und: Helium-3 kommt in und auf unserem Planeten praktisch nicht vor, aber: beispielsweise auf dem Mond. Dort wird es vom Sonnenwind abgelagert und kann prinzipiell abgebaut werden.

 

Der mögliche Aufbau des Fusionsantriebes besteht aus einem großen zylinderförmigen Spulensystem, in der das Plasma magnetisch eingeschlossen wird. Da es eine Temperatur im Bereich von 100 Millionen °C besitzt, darf es mit materiellen Wänden nicht in Berührung kommen. Das Plasma kann beispielsweise durch magnetische Kompression oder Mikrowellenstrahlung auf die Zündtemperatur der Kernfusion aufgeheizt werde. An den Enden des Spulensystems sind weitere Spulen angebracht, die als magnetische Spiegel das Plasma in den Innenraum reflektieren. Der eine Spiegel ist jedoch teildurchlässig, so dass ständig ein Teil des Plasmas als Antriebsstrahl entweichen kann.

 

Ein weiterer Ansatz geht von dem reifenförmigen Tokamak-Reaktor aus, der eine Öffnung für den Antriebsstrahl besitzt. Mehr zum Thema Tokamak ...

 

Fusionsantrieb im Experiment. Bei der Nasa wird theoretisch und experimentell die Machbarkeit des Antriebsprinzips untersucht. Das Experiment des gasdynamischen Spiegels beispielsweise besteht aus einer langen, schlanken Spulenanordnung, die die Vakuumkammer mit dem Plasma umgibt. Es soll herausgefunden werden, wie sich das Plasma im Betrieb verhält und wie es stabil gehalten werden kann. Das Foto zeigt einen Ingenieur des Nasa Marshall Space Flight Center, der eine ringförmige Magnetspule begutachtet. Foto: Nasa Marshall Space Flight Center

 

Ausströmgeschwindigkeit

 

Überschlagsrechnung: Bei der Fusion von z. B. Deuterium und Helium-3 wird die Energie 18,3 MeV = 2,9x10-12 J frei (1 Joule = 1 Wattsekunde). Sie verleiht den Reaktionsprodukten, 1 Helium-4 + 1 Proton, eine gewisse Geschwindigkeit v. Die Gesamtmasse M der Reaktionsprodukte beträgt etwa 8x10-27 kg. Setzen wir die kinetische Energie ½Mv² gleich der freiwerdenden Energie, folgt v = 27000 km/s. D. h., theoretisch beträgt die Ausströmgeschwindigkeit des Antriebsstrahls etwa 9% der Lichtgeschwindigkeit. Wann das praktisch erreicht wird, bleibt abzuwarten.

 

Wir rechnen für die Ausströmgeschwindigkeit im Folgenden mit optimistischen 5% Lichtgeschwindigkeit (0,05c) und nehmen an, dass irgendwann der Erfindungsreichtum des Menschen für solch einen Antrieb schwere Magnetspulen überflüssig macht.

 

Endgeschwindigkeit

 

Die Endgeschwindigkeit, die das Raumschiff erreichen kann, hängt ab von der Ausströmgeschwindigkeit des Treibstoffs (hier die Reaktionsprodukte) und vom Verhältnis seiner Massen bei Triebwerkszündung und Brennschluss (Massenverhältnis), siehe auch Die Raketengrundgleichung. Prinzipiell sollten daher 10% Lichtgeschwindigkeit (0,1c) mit Fusionsantrieb erreichbar sein.

 

Weil's Spaß macht: eine interstellare Mission

 

Treibstoffbedarf

 

Das Raumschiff mit der Leermasse m=10.000 kg muss den Treibstoff mit der Masse M1 zur Beschleunigung und mit der Masse M2 zur Abbremsung mitführen. Für seine interstellare Reise, beispielsweise zum 4,4 Lichtjahre entfernten Alpha Centauri, soll es im freien Weltraum starten und nicht von der Erdoberfläche. Die Ausströmgeschwindigkeit des Antriebsstrahl setzen wir mit w=5% Lichtgeschwindigkeit (w=0,05c) an (siehe oben).

 

Das Raumschiff wird mit der Treibstoffmasse M1 von v1=0 auf v2=0,1c beschleunigt. Mit der Treibstoffmasse M2 muss vor der Ankunft noch die Leermasse m (+ verbliebenem Treibstoff) von v2=0,1c auf v1=0 abgebremst werden. Nach der Raketengrundgleichung, Δv=v1-v2=-w ln[(m+M2)/m], ist dafür M2=me2-m=63.891 kg nötig.

 

Um m+M2 von v1=0 auf v2=0,1c beschleunigen ist wegen Δv=v2-v1=w ln[(m+M1+M2)/(M2+m)] die Treibstoffmasse M1=(M2+m)e2-(M2+m)=472.094 kg nötig.

 

Die Gesamttreibstoffmasse ist daher M1+M2=535.985 kg.

 

Zum Vergleich: Treibstoffmasse der Saturn V mit chemischem Antrieb und Start vom Erdboden: 2.530.500 kg.

 

(Durch Abwerfen des Tanks für die Treibstoffmasse M1 kann der Treibstoffbedarf verringert werden, da entsprechend weniger Masse abgebremst werden muss. Wer allerdings wieder zurück will, sollte den Tank behalten und falls möglich an einem Gasplaneten auftanken.)

 

Leistungsbedarf

 

Die Leistung (Energie/Sekunde), die die Triebwerke liefern müssen, hängt davon ab, wie schnell beschleunigt werden soll. Wenn wir innerhalb von 0,5 Jahren von 0 auf 0,1c beschleunigen wollen, müssen wir die Treibstoffmasse M1 innerhalb dieses Zeitraums T durch die Reaktoren jagen und in Schub umsetzen. Der Massendurchsatz ist demnach M1/T=0,03 kg/s. Pro Kilogramm Fusionstreibstoff können etwa 3,4x1014 Ws Energie freigesetzt werden. Die Leistung der Antriebsreaktoren muss daher etwa 1013 W oder 10.000 Gigawatt betragen.

 

Etwas bescheidener: Wir beschleunigen innerhalb von 10 Jahren auf 0,1c. Dann benötigen wir Antriebsreaktoren mit der Leistung 500 Gigawatt. Zum Vergleich: Für Fusionskraftwerke der Zukunft vom Typ Tokamak oder Stellerator werden als minimale thermische Leistung 30 Gigawatt angesehen (relativ großes Plasmavolumen, um Abstrahlverluste beim Aufheizen klein zu halten). Fusionsantriebe werden sich voraussichtlich einfacher und leichter bauen lassen als Fusionskraftwerke. Denn im Weltraum ist das nötige Vakuum schon vorhanden.

 

Die Abbremsphase ist deutlich kürzer, da die Masse des Raumschiffs dann schon wesentlich kleiner ist.

 

Die Überschlagsrechnung zeigt, interstellare Raumfahrt ist selbst mit Fusionsantrieb schwierig, allerdings auch nicht unmöglich. Besser wäre es, wenn man Antimaterie und Materie direkt in Energie umsetzen könnte (siehe Übersichtsartikel Interstellare Raumfahrt). Denn der Energieinhalt des Treibstoffs wäre dann etwa 100 Mal höher als bei der Kernfusion und die Reaktionsprodukte wären im Wesentlichen Strahlung. Die Ausströmgeschwindigkeit w wäre dann die Lichtgeschwindigkeit und der Treibstoffbedarf wesentlich geringer. Die Hauptprobleme: Antimaterie sicher handhaben und die mörderische Strahlung bändigen.

 

Oder andere Antriebe

 

http://www.technologyreview.com/computing/23120/

 

http://www.geek.com/articles/geek-cetera/nasa-engineer-proposes-new-fusion-engine-for-satellites-20110630/

 

 

wie dem auch sei werjo... wenn es darum geht vielleich ein paar hundert oder tausend Leute zu retten, wenn die völlige Vernichtung droht, halte ich es durchaus für machbar ein Generationsraumschiff zu bauen... muss ja nicht 30 Km lang sein ;)

In einem Post vorhei stand...das schon ca. 150 - 500 Menschen für eine neue Zivilisation ausreichen würden.

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

paar 1000 oder n paar 100 braucht man nicht mehr retten, da ist vergebene Liebesmühe. Ab 10000 könnte man mal darüber nachdenken. Bei allen Populationsgrößen die darunter liegen ist die Wahrscheinlichkeit, dass sie ohnehin aussterben viel zu groß. Ich weiß nicht wie groß die minimale überlebensfähige Pupulationsgröße beim Menschen ist aber irgendwo im Bereich 1000-10000 sollte sie mindestens liegen. Ich würde eher höher tippen.
Link to comment
Share on other sites

Hi werjo

 

paar 1000 oder n paar 100 braucht man nicht mehr retten, da ist vergebene Liebesmühe. Ab 10000 könnte man mal darüber nachdenken. Bei allen Populationsgrößen die darunter liegen ist die Wahrscheinlichkeit, dass sie ohnehin aussterben viel zu groß. Ich weiß nicht wie groß die minimale überlebensfähige Pupulationsgröße beim Menschen ist aber irgendwo im Bereich 1000-10000 sollte sie mindestens liegen. Ich würde eher höher tippen.

 

Ich kann auch nur schreiben was, irgendwo steht und muss mich darauf verlassen.

 

http://www.heise.de/tp/artikel/11/11899/1.html

 

http://www.uni-protokolle.de/Lexikon/Generationenraumschiffe.html

 

Und vergiss bitte nicht die Mutationsrate beim vererben der Gene. 20 bis 30 neue Mutationen pro Mensch.

 

Generationsraumschiff / Station

 

Die Idee einer Raumstation für 10 000 Menschen liegt im Bereich des schon jetzt technisch Möglichen. Zu diesem Schluß kam eine Gruppe von 28 Professoren und Technikern, die das Problem im Auftrag der Stanford University und der Nasa untersuchte.

 

http://meantimecafe.blogspot.de/2009/10/weltraumkolonienen-visionare.html

 

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Laut wissenschaftlichen Arbeiten die ich kenne liegen die Untergrenze bei Plflanzen im Bereich von 500-1000

 

Im Durchschnitt liegt die minimale Zahl bei 4700 oder so. Es geht nicht darum das solch kleine Populationen einige Generationen zeugen können. Sie sind einfach auf langfristige Sicht nicht überlebensfähig. 180 Menschen könnten niemals eine eigene neue Population gründen. Das würde nur gehen, wenn sie ast rein gesund sind, jeder mit jedem Kinder macht, streng darauf geachtet wird, das es nicht zu Inzest kommt und Mutaionen eben möglichst vermieden werden. Da schlechte Mutationen sich gerade hier schnell bemerkbar machen. Vor allem wenn sie dominant sind. Dazu kommen Krankheiten und alles mögliche, was bei kleinen Populationen ganz schnell zum Problem wird.

 

Und nein Oneill Kolonien sind technisch nicht realisierbar. Man kann vlt jedes Einzelteil irgendwie konstruieren. Aber die Teile sind riesig. Um das Zeug ins All zu bekommen was dafür nötig ist brauchste so viele Shuttelstarts, dass die Menschheit wohl ausgestorben ist, bevor das fertig ist. Und die Teile können nicht fliegen. Ergo raus ausm Sonnensystem gehts auch net.

 

Sie sind aber die realistischste Vision für die Zukunft. Sollten wir irgendwann ne Mondbasis haben und aufm Mond auch Bergbau und so betrieben wird und/oder sowas wie ein Weltraumfahrstuhl gebaut wird, dann könnte ich mir sowas in der Richtung vorstellen.

Link to comment
Share on other sites

Gendrift

 

 

Nun ein Thema dazu ...weil es mun mal auch interessiert was da nun richtig oder falsch ist....:confused:

 

Als Gendrift bezeichnet man in der Populationsgenetik eine zufällige Veränderung der Genfrequenz innerhalb des Genpools einer Population. Gendrift ist ein Evolutionsfaktor. Eine quantitative Erweiterung stellt die Genshift dar, bei der ganze Segmente von Genen zusammen ausgetauscht werden. Dies hat oft besonders ausgeprägte funktional-qualitative Änderungen zur Folge.

 

Gendrift und Genshift stellen eine Art Komplement zur natürlichen Selektion dar. Die natürliche Selektion hat keinen zufälligen Einfluss auf die Änderung der Genfrequenz einer Population, sondern ist direkt gekoppelt an den Überlebens- und Reproduktionserfolg von Individuen, also deren Angepasstheit an ihre Umwelt.[ Die genetische Drift bzw. Shift dagegen hat keine derartigen Ursachen, sondern ist rein zufallsbestimmt (stochastisch).

 

Da eine zufällige Änderung der Genfrequenz in kleineren Populationen statistisch mehr ins Gewicht fällt, stellen die Gendrift und Genshift einen wichtigen Faktor der Evolution von Gründerpopulationen und somit für die Artbildung dar. Sie basiert auf der Tatsache, dass eine abgeschnittene Zufallspopulation, die in einem bestimmten Gebiet lebt, nur einen kleinen Ausschnitt der möglichen Genfrequenzen besitzt, die außerdem in einem anderen Verhältnis zueinander stehen als in der Gesamtpopulation. Die evolutionäre Weiterentwicklung dieser Population ist abhängig von diesen verschobenen Genfrequenzen.

 

Als Flaschenhalseffekt wird eine besondere Art der Gendrift bezeichnet, bei der die Allelfrequenz durch ein zufälliges Ereignis, wie zum Beispiel einen Vulkanausbruch, stark vermindert und somit auch die in der Population vorkommende Variabilität verringert wird. Die Art wird nun den neuen Umweltgegebenheiten angepasst und bildet eine neue Vielfalt von Genen. Die Frequenzen unterscheiden sich dabei meist von der ursprünglich dort lebenden Population.

 

Genetischer Flaschenhals beim Menschen

 

Statistische Analysen der mitochondrialen DNA (mtDNA) des Menschen (**** sapiens) haben eine unerwartet geringe genetische Vielfalt ergeben und zur Annahme geführt, dass es vor rund 70.000 bis 80.000 Jahren auch beim Menschen einen genetischen Flaschenhals gegeben haben könnte.[2] Seinerzeit hätten demnach nur etwa 1000 bis 10.000 Individuen von **** sapiens, größtenteils in Afrika, gelebt.

 

Nach einer umstrittenen Hypothese des Anthropologen Stanley Ambrose (Toba-Katastrophen-Theorie) ist dieser genetische Flaschenhals zurückzuführen auf die Super-Eruption des Vulkans Toba auf Sumatra vor etwa 74.000 Jahren. Dieser Eruption sei eine extreme Kälteperiode gefolgt (vulkanischer Winter), die **** sapiens an den Rand des Aussterbens gebracht habe. Diese Hypothese verbindet zwei widerstreitende Befunde zur genetischen Entwicklung von **** sapiens: Zum einen ist, beginnend in Afrika, eine relativ zügige Ausbreitung des Menschen durch Fossilienfunde belegbar, die sich auch anhand von mitochondrialen Unterschieden nachweisen lässt. Beides kann herangezogen werden zur Erklärung der sehr geringen genetischen Variabilität der heute lebenden Menschen (vergl. mitochondriale Eva und Adam des Y-Chromosoms). Zum anderen besteht die Ansicht, dass nach der ersten Ausbreitung eine regional unterschiedliche, isolierte Entwicklung auftrat, in deren Folge sich das äußere Erscheinungsbild der Menschen zu differenzieren begann, was frühere Anthropologen zur Definition von diversen sogenannten Großrassen und Rassen veranlasste

 

Gendrift kann auch in größeren panmiktischen Populationen auftreten, nach Aufteilung in kleinere Teilpopulationen. Voraussetzung sind zufällige Veränderung von Genen und Weitergabe der veränderten Gene. Gendrift kann dabei phänotypische Veränderungen bewirken, muss es aber nicht.

 

Bedeutungserweiterung: Als Gendrift wird auch die Verbreitung solcher Veränderungen in größere Populationen bezeichnet. Heute bezeichnet man als Gendrift auch das Eindringen bewusst oder zufällig veränderter Gene in andere Bereiche.

 

Genfrequenzen

 

Aus der Sicht der Populationsgenetik ist die Gendrift ein Wahrscheinlichkeitseffekt. Die Gene, die an die nachfolgende Generation weitergegeben werden, sind keine vollständige Kopie der Gene der erfolgreichen Mitglieder der Elterngeneration. Sie sind eine zufällige (stochastische) Auswahl, eine Stichprobe mit zufälligen Schwankungen. Durch zufällige statistische Schwankungen weicht die Zusammensetzung der Genfrequenz in der Elternpopulation von der in der Kinderpopulation ab. Die Genfrequenzen im Genpool sind gedriftet. Gendrift ist umso stärker bemerkbar, je kleiner eine Population ist. Dies hat statistische Ursachen. Beispiel: Beim Werfen von Münzen erscheint Kopf oder Zahl im Durchschnitt mit der gleichen Wahrscheinlichkeit. Doch bei nur wenigen Würfen ist es unwahrscheinlich, dass Kopf und Zahl exakt mit derselben Häufigkeit erscheinen. Je größer die Zahl der Würfe, desto näher kommt man einem Verhältnis von 50 : 50. Deshalb sind bei kleinen Populationen die Fluktuationen bei den Genfrequenzen größer als bei Populationen mit vielen Individuen (effektive Populationsgröße).

 

Driftende Allele haben oft eine begrenzte Lebenszeit. Wenn die Häufigkeit eines Allels in den aufeinanderfolgenden Generationen stark zu- oder abnimmt, dann kann ein Allel in der Population ganz verschwinden oder es wird das einzige Allel in der Population (Fixierung). Die genetische Vielfalt wird verringert, der Genpool verarmt.

 

Gendrift und Genshift gegen natürliche Selektion

 

Gendrift bzw. Genshift und natürliche Selektion sind Evolutionsfaktoren und wirken gleichzeitig. Durch sie ändert sich die Zusammensetzung des Genpools. Die Häufigkeit von Allelen (Genvariationen) und damit die vorherrschenden phänotypischen Merkmale in einer Population werden über die Zeit geändert. Bei Gendrift und Genshift ist die Veränderung in der Häufigkeit der Allele unabhängig davon, ob sie vorteilhaft oder nachteilig auf den Phänotyp sind. Gendrift ist zufallsbedingt und ist unabhängig von der genetischen Fitness. Im Gegensatz dazu werden bei der natürlichen Selektion diejenigen phänotypischen Merkmale und damit diejenigen Allele bevorzugt, welche die genetische Fitness erhöhen. In großen Populationen, in denen die Gendrift klein ist, wird die natürliche Selektion selbst bei niedrigem Selektionsdruck den größeren Betrag zur Veränderung der Genfrequenzen haben. In kleinen Populationen dagegen werden die größeren statistischen Schwankungen durch die Gendrift die Änderungen durch die Selektion überlagern.

 

Evolutionsfaktor

 

Als Evolutionsfaktor bezeichnet man in der Biologie Prozesse, durch die der Genpool – das ist die Gesamtheit aller Genvariationen in einer Population – verändert wird. Eine exakte Definition des Begriffs liefert die Populationsgenetik: Evolutionsfaktoren sind Prozesse, die zu Veränderungen der Allelfrequenzen im Genpool einer Population führen oder Allele auf den Chromosomen neu kombinieren. Nach der Synthetischen Evolutionstheorie sind diese Prozesse Ursache aller evolutionären Veränderungen.

 

Die wesentlichen Evolutionsfaktoren sind Rekombination, Mutation, Selektion und Gendrift.

Durch Rekombination, die durch die Meiose bei der Keimzellenbildung und die Kernverschmelzung bei der Befruchtung erfolgt, werden die Erbanlagen der Eltern neu kombiniert, so dass Nachkommen mit individuellen (einzigartigen) Kombinationen von Erbanlagen entstehen. Bei der Rekombination bleiben die relativen Häufigkeiten der Erbanlagen in einer Population unverändert, aber die (insbesondere phänotypische) Variabilität der Individuen in einer Population wird wirksam erhöht. Rekombination findet bei ungeschlechtlicher Fortpflanzung nicht statt und ist auch nicht wirksam zwischen eineiigen Zwillingen, die aus einer gemeinsamen befruchteten Eizelle entstehen.

Durch Mutationen, spontane Veränderungen der Basensequenzen der DNA, entstehen fortwährend neue Erbanlagen. Findet eine Mutation in einer Zelle statt, aus der später Keimzellen hervorgehen, so wird die veränderte Erbanlage über die befruchtete Eizelle auf die Nachkommen übertragen und verändert damit den Genpool der Population. Die neue Erbanlage führt zu Merkmalsausprägungen, die bisher in der Population nicht vorkamen. Ob es zu einer nachhaltigen Veränderung des Genpools kommt, hängt entscheidend davon ab, wie die Selektion auf die neue Merkmalsausprägung wirkt. Erbanlagen, die zu nachteiligen Merkmalsausprägungen führen, verschwinden wieder aus dem Genpool oder bleiben selten.

 

Die Selektion ist die natürliche Auslese durch die Umwelt. Eine Voraussetzung für Selektion ist die durch Rekombination und Mutation verursachte Variabilität in einer Population. In den meisten Populationen werden viel mehr Nachkommen erzeugt, als in ihrem Lebensraum überleben können. So sterben viele Individuen einer Generation, bevor sie sich fortpflanzen können, oder bekommen weniger Nachkommen als andere Individuen mit vorteilhafteren Merkmalsausprägungen. Die Individuen leisten also einen unterschiedlichen Beitrag zum Genpool der Folgegeneration. Die relativen Häufigkeiten der Erbanlagen mit günstigen Merkmalsausprägungen nehmen in der Population zu, während die relativen Häufigkeiten der Erbanlagen mit ungünstigen Merkmalsausprägungen abnehmen.

 

Unter Gendrift versteht man eine zufallsbedingte Änderung des Genpools. Sie ist in kleinen Populationen wirksamer als in großen. So kann zum Beispiel bei einer Naturkatastrophe oder einer Seuche eine Gruppe von Trägern bestimmter Merkmale plötzlich aussterben. Es breitet sich der überlebende Teil der Population mit etwas anderer genetischer Zusammensetzung aus, beim zufälligen Überleben von Individuen mit nachteiligen Erbanlagen breiten sich sogar diese aus. Ein weiteres Beispiel für Gendrift ist die Besiedlung eines neuen Lebensraums durch eine kleine Gründerpopulation. Die neue Population weist die Häufigkeitsverteilung der Erbanlagen der Gründerpopulation auf, die sich zufallsbedingt von der der Stammpopulation unterscheiden.

 

Evolutionsfaktoren im weiteren Sinne sind auch

Migration,

Genfluss,

Isolation,

Horizontaler und Vertikaler Gentransfer und

Hybridisierung.

 

 

 

Gendrift und Genshift in Populationen

 

Genshift und Gendrift können tiefgreifende und oft bizarre Auswirkungen auf die Evolutionsgeschichte einer Population haben. Dies kann sogar zum Aussterben einer Population führen. Wenn eine Population auf eine geringe Größe zusammenschrumpft und dann wieder wächst (man nimmt an, dass dies während der menschlichen Evolutionsgeschichte geschehen ist), dann kann die Gendrift zu plötzlichen und dramatischen Änderungen in der Genfrequenz führen, unabhängig von natürlicher Selektion. Bei solchen Gelegenheiten können viele vorteilhafte Anpassungen verloren gehen (genetischer Flaschenhals).

 

Auf ähnliche Weise kommt der Gründereffekt bei zum Beispiel wandernden Populationen zustande, bei dem nur wenige Individuen mit einer seltenen Allelzusammensetzung den Ausgangspunkt einer neuen Population bilden. Hier können die Genfrequenzen im Widerspruch zur bisherigen natürlichen Selektion stehen. Der Gründereffekt wird manchmal für das gehäufte Auftreten von Erbkrankheiten verantwortlich gemacht.

 

50/500

 

Although most research on the subject of effective population size (including the above equations) has been based on an assumption of discrete generations, the case of overlapping generations has also been considered. Hill (1972, 1979), for example, showed that the above equations need only be adjusted for appropriate units in order to hold for the overlapping generation case, so long as population size, sex ratio, and age distribution remain constant. Under less restrictive assumptions, however, the distinction between discrete and overlapping generations can be complicated. Waples and Teel (1990) and Waples (in press) note that the life history of Pacific salmon is a special case that fits neither the discrete generation nor overlapping generation models (the exception being pink salmon, Oncorhynchus gorbuscha, which tends to exhibit discrete generations). In the case of Pacific salmon, the effective number of breeders in any given year (Nb) represents only a portion of the total effective population size. Waples (in press) suggests that multiplying Nb by the average age of reproduction gives a suitable estimate of Ne.

 

It should also be noted that effective population size can be defined either in terms of the decrease in homozygosity due to common ancestry ("inbreeding effective size") or the random drift in allele frequencies due to sampling variance ("variance effective size"). Crow and Kimura (1970), Ewens (1982), and Crow and Denniston (1988) provide formulae for looking at Ne within these different contexts. In general, distinguishing between the two types of effective size is a complicated exercise, although they converge in the special case where population size is constant.

 

http://www.nwfsc.noaa.gov/publications/techmemos/tm198/body.html

 

In 2002, the anthropologist John H. Moore estimated that a population of 150–180 would allow normal reproduction for 60 to 80 generations — equivalent to 2000 years.

 

Na ja .. hier steht das es unter optimalen Bedingungen funktionieren kann. Also... wenn ca. 200 Menschen für ca. 2000 Jahre reichen, sollten 1000 - 2000 Menschen für ca. 10.000 - mehr Jahre reichen.

 

Obwohl man unter anderem 10.000 Jahre für eine Grenze der Lebensspanne einer Zivilisation ansieht. :D

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

selbst wenn es so wäre, würde das ja nich viel bringen ^^

 

Ich kann mich nämlich noch gut daran erinnern wie du mal vorgerechnet hast, wie wahrscheinlich eine 2. Erde in unserer Milchstraße ist. Die Wahrscheinlichkeit ging da gegen 0. Nützt uns also alles nix, weil in ne andere Galaxie kommen wir ohnehin nicht.

Link to comment
Share on other sites


×
×
  • Create New...