Jump to content

Unser Universum erklärt von Bakhtosh


Bakhtosh

Recommended Posts

Wie viele Galaxien gibt es .....

 

Man schätzt ca. 100 Milliarden oder mehr .. wie kann ich mir so eine Zahl vorstellen.

Nehmt 100 getrocknete Erbsen. Die passen locker in eine Hand, ich dachte auch das wäre mehr.

Nun füllt ein Fußballstadion mit den Erbsen.

 

Das ist nun die ungefähre Anzahl an Galaxien im Universum

 

Wie viele Sterne gibt es im Universum ....

 

Wart ihr mal am Meer ? Nun ja ...

In eine Hand habt ihr ca. 7 bis 10 Millionen Sandkörner ( je nach Sand und Hand)

Nun stellt euch alle Strände dieser Welt vor ... mit all den Sandkörnern, dass sind sehr viel Sandkörner....

... aber es gibt immer noch mehr Sterne im Universum als Sand an diesen Stränden

 

Virgo

 

Der Virgo-Galaxienhaufen ist ein großer Galaxienhaufen mit mindestens 1300, vermutlich aber über 2000 Galaxien, dessen Zentrum sich in einer Entfernung von ca. 60 Millionen Lichtjahren von der Erde befindet.

 

Virgo Cluster: Located 54 million light years ago

 

 

nich sehr sektakulär und nun das ... bedenkt bitte das am Anfang die einzelnen Lichtpunkte Sonnen sind, die Lichtjahre entfernd zueinander stehen.

 

Journey through the Virgo supercluster

 

 

Cool was ....

 

später mehr .....

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

  • Replies 271
  • Created
  • Last Reply

Top Posters In This Topic

War ein wenig angep***t

 

Es hatte mich doch ziehmlich gestört solche Aussagen von meinem Kumpel Harald bei der Folge" Wird Licht müde ? " zu hören.

 

Es ging halt darum das er bestimmte Berichte wörtlich zerriss die vom müden Licht redeten, er hatte recht das als blödsinn zu bezeichnen . Gleichzeitig aber kam die Expansion des Raumes zur Sprache, wobei die Hubble Konstante gemeint war und eins der möglichen Enden des Universums.

 

Der Big Rip ist eines dieser möglichen Enden. Und in diesem Scenario werden Atome von der Ausdehnung des Raumes zerrisen. Es störte mich schon sehr das er so darüber herzog , also forsche ich ein wenig nach....und fand das hier.....

 

Hier geht er sachlicher an die Sache ran und berichted besser darüber....

 

Lafer, Lichter? - Lesch

 

http://www.youtube.com/watch?v=V2rlpaVBNLM

 

Kommt in der Sendung vor Ozilierendes Universum..... Dazu dieses Vid

 

Was geschah vor dem Urknall?

 

http://www.youtube.com/watch?v=TzKZCG2nj9s

 

 

Als Vergleich die alte Sendung

 

Wird Licht müde?

 

Teil 1

 

Teil 2

 

Wie ihr seht muss man schon drauf achtgeben wer... was sagt ....

 

Wie ich schon oft sagte ..... Das Thema ist nicht einfach

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Naja das war eine der Sendungen womit er auf die vielen vielen Mails von Spinnern reagiert. Als Wissenschaftler der so in der Öffentlichkeit steht wie Lesch wird man ständig von Spinnern behelligt die mit irgendwelchen hirnrissigen Theorien ankommen und zum Teil auch beleidigend werden.

 

Und es gibt haufend solcher Thorien wie die vom müden Licht. Das sind oft alte Theorien die wieder ausgegraben werden um irgendwas zu erklären was man gerne so hätte. In dem Fall wohl ein statisches Universum. Oft ist die Motivation religiös. Dann gibt es noch die ganzen Verschwörungstheorien und zu guter Letzt einfach Hochstapler die irgend nen Produkt verkaufen, was eigentlich nicht funktioniert aber durch solche Theoiren wird ergibt die Funktionalität dann doch wieder Sinn und es wird gekauft.

 

Durch das Internet verbreiten sich solche Theorien wie Unkraut. Das trifft vor allem auf Verschwörungstheorien zu. und die Urheber sind meistens Leute die dann Bücher, Seminare und sonstiges verkaufen wollen. Mir geht das auch sowas von auf die Eier. Irgendwann landet der Ranz dann auch noch in den Medien, weil die Reporter nicht mehr in der Lage sind den ganzen Müll auszusortieren und noch mehr Menschen fangen an daran zu glauben. Da wird dann sowas wie eine Erdexpansionstheorie oder die 9/11 Verschwörung oder Alienentführungen oder oder oder gezeigt. Am besten noch mit irgendwelchen Leuten, die eine Dr. oder prof. vor dem Namen stehen haben.

 

Das da Lesch mal der Geduldsfaden reißt ist verständlich.

Link to comment
Share on other sites

Woher wissen wir das alles ?

 

 

Nur weil jemand gut in Mathe ist muss er nicht intelligent sein. Es geht auch darum die richtigen Schlüsse ziehen zu können.

 

Und wie Intelligenz richtig definiert wird .... Na ja das ist ne andere Sache.

 

Seit es die Menschelt gibt, lernen wir aus dem Versuch und dem Fehlschlag.

Angefangen mit unseren Affenvorfahren ... Der eine denkt sich ich habe Hunger, dann probiere ich mal diese Beeren. Zackbumm Affe Tod ....

 

Der zweite Affe der das gesehen hat ...denkt sich ...auweia keine so gute Idee von diesen Beeren zu essen ich versuch den anderen Stauch da drüben.

 

Diese Sache hat sich bis heute nicht geändert.

 

Ingenieure bauen ein Schiff ... Sieht auf dem Plan super aus, sie bauen ein Modell. Das Modell schwimmt toll, aber bei der ersten großen Welle kentert es. Zurück an das Zeichenbrett.

 

Der Untergang der Vasa

 

Zuerst bugsierte man die Vasa von der Werft zum Ufer vor der königlichen Burg Tre Kronor. Der Flottenchef, Vizeadmiral Klas Fleming, ließ das Schiff einrichten und systematische Proben durchführen, die die Stabilität des Schiffes testen sollten. Eine der Proben bestand darin, dass 30 Mann der Besatzung von einer Seite des Schiffes zur anderen rannten. Das Schiff schwankte dabei so sehr, dass man sich zum Abbruch des Versuchs entschloss.

Trotz dieses Problems lichtete die Vasa am 10. August 1628 die Anker. Vier Segel wurden gesetzt und Salut geschossen. Eine der alten Quellen gibt an, dass das Schiff schon auf den ersten Metern trotz geringen Windes eine bedrohliche Schräglage hatte. Der erste stärkere Windstoß ließ das Schiff etwa 1.300 Meter nach dem Start kentern. Dabei starben schätzungsweise dreißig bis fünfzig Menschen. Insgesamt dauerte die Fahrt der Vasa nur etwa 20 Minuten.

 

Daraus hat man gelernt.......

 

Der Titanic Untergang......

 

Obwohl für die Evakuierung mehr als zwei Stunden Zeit zur Verfügung standen, starben zwischen 1490 und 1517 der über 2200 an Bord befindlichen Personen – hauptsächlich wegen der unzureichenden Zahl an Rettungsbooten und der Unerfahrenheit der Besatzung im Umgang mit diesen. Wegen der hohen Opferzahl zählt der Untergang der Titanic zu den großen Katastrophen der Seefahrt.

 

Folge des Untergangs waren zahlreiche Maßnahmen zur Verbesserung der Sicherheit auf See. Diese umfassten die ausreichende Ausstattung mit Rettungsbooten, Besetzung der Funkstationen rund um die Uhr, Errichtung der Internationalen Eispatrouille sowie den Abschluss des ersten Internationalen Übereinkommens zum Schutze des menschlichen Lebens auf See.

 

Die Exxon Valdes....

 

löste 1989 vor Alaska eine Ölpest und damit eine der größten Umweltkatastrophen der Seefahrt aus. Das Schiff befand sich im Besitz des Konzerns ExxonMobil

 

Exxon Valdez disaster

 

 

Valdez-Prinzipien

 

Vor dem Hintergrund der Katastrophe entwickelte die amerikanische Non-Profit-Organisation CERES folgende zehn Grundsätze, die zunächst als Valdez-Prinzipien und später als CERES-Prinzipien bezeichnet wurden. Einige große Aktiengesellschaften haben sich zur Einhaltung dieser Grundsätze verpflichtet.

 

1 Schutz der Biosphäre

2 Maßvoller Umgang mit natürlichen Rohstoffen

3 Reduzierung und Entsorgung von Abfällen

4 Effizienter Einsatz von Energie

5 Gesundheitsschutz für Arbeitsplatz und Umgebung

6 Sichere Produkte und Konsumentenschutz

7 Haftung und Schadenersatz

8 Transparenz und Veröffentlichung

9 Mindestens ein Umweltexperte im Management

10 Jährlicher Rechenschaftsbericht

 

Das Challenger-Unglück

 

Rekonstruktion des Unglücksherganges

 

Infolge der niedrigen Außentemperaturen während des Starts schlossen die O-Ringe aus Gummi, welche die Spalten zwischen den einzelnen Segmenten abdichten sollten, nicht oder nur unzureichend. Bereits während der ersten Sekunden des Starts ist im Bereich des Boosters, aus dem später die Stichflamme kommen würde, auf den Aufnahmen der meisten Kameras schwarzer Rauch zu erkennen. Genauere Aufnahmen dieser Stelle wurden jedoch von keiner der Kameras gemacht, da sich die Stelle in den meisten Blickwinkeln hinter dem Flügel des Orbiters befand.

 

Man geht davon aus, dass sich während der ersten Sekunden des Starts ein Pfropfen aus Schlacke gebildet hatte, welcher den entstandenen Spalt verstopft hatte, bis das Shuttle während des Starts durch eine starke Windscherung flog und sich dieser durch die Bewegungen des Boosters löste. Als sich der Pfropfen gelöst hatte, strömten mehrere tausend Grad Celsius heiße Abgase aus dem Spalt. Diese starke Scherung lässt sich auf dem Video des TV Van #2 ab 1:43 Minuten erkennen, da die Abgassäule nur Sekundenbruchteile nach dem Durchflug dieser Scherung weit verweht wurde.

 

Die heißen Abgase strömten aus dem Booster gegen den Außentank und die untere Verbindung, mit der der Booster am Außentank befestigt war. Als diese nachgab, riss der Booster ab und schlug so gegen den Außentank, dass beide Kammern des Außentanks beschädigt wurden, was zum Auseinanderbrechen des Tankes und schließlich auch der Raumfähre führte.

 

Challenger Disaster Live on CNN

 

 

Konsequenzen des Unglücks

 

Nach dem Unglück wurde ein generelles Startverbot für die Shuttle-Flotte ausgesprochen. Fast zweieinhalb Jahre lang arbeitete man an Verbesserungen, die den Start sicherer machen sollten. Die wichtigste Änderung war die weitgehende Überarbeitung der Feststoffbooster. Über 2.000 Änderungen wurden am Shuttle-System ausgeführt. Dazu gehörte beispielsweise eine ausfahrbare Teleskopstange, an der die Astronauten in einer Notsituation während des Landeanflugs den Orbiter durch die Einstiegsluke verlassen können. Ab sofort mussten die Astronauten bei Start und Landung wieder Druckanzüge tragen. Außerdem wurde das Shuttle aus dem kommerziellen Satellitengeschäft zurückgezogen, das wieder auf unbemannte Trägerraketen übertragen wurde. Im August 1987 wurde der Bau einer Ersatzfähre für die Challenger in Auftrag gegeben, und 1991 wurde die Endeavour fertiggestellt. Am 29. September 1988 startete mit der Discovery zum ersten Mal nach dem Unglück wieder ein Space Shuttle ins All (STS-26). Bis zum Februar 2003, als die Columbia beim Wiedereintritt auseinanderbrach, kam es zu keinen weiteren Shuttle-Unglücken.

 

Wie ihr seht lernen wir stetig dazu, das gleiche gilt natürlich auch in der Wissenschaft. Es werden Theorien aufgestellt, die eine Weile gelten. Wenn bessere Messmethoden da sind bestätigen sie die Theorie oder sie ist halt falsch.

 

Das Wissen was wir heute haben ist das Ergebnis von Tausenden von Jahren des Lernens und Verstehens.

 

Eines werden wir wohl niemals .....lernen .... Kriege zu beenden.

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Weisst du wieviel Sternlein stehen ......

 

Tjo ...wieviel eigentlich.... also mit dem bloßem Auge sieht man so ca. zwischen 5000 und 8000.

 

Hier eine Aufname ohne vergrößerung .....

 

Galactic Center of Milky Way Rises over Texas Star Party

 

 

Das gleiche Bild mal mit zoom

 

800 Megapixel Panorama of Milky Way

 

 

Jetzt zoomen wir ach noch mal hier rein.

 

Milky Way Center: VISTA Telescope Zoom In

 

 

Weiterer Zoom zum Adlernebel

 

Eagle Nebula - VLT, WFI & Hubble Observations

 

 

Helix Nebel

 

Zoom Into The Helix Nebula

 

 

Orion Nebel

 

Zooming on the Orion Nebula

 

http://www.youtube.com/watch?v=xy5bbw-wYJo

 

Tarantula Nebel

 

Into the Spider's Lair

 

 

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Ich habe euch nicht umsonst die Zoom Vid's gezeigt denn ....

 

 

Warum ist der Nachthimmel dunkel, wo es doch so viele Sterne gibt?

 

Diese Frage ist ein recht altes Problem, das schon im 17. Jahrhundert diskutiert und durch Heinrich Wilhelm Olbers (1758-1840) populär wurde. Das Olberssche Paradoxon fragt nämlich, warum der Nachthimmel nicht hell erscheint, wenn das Universum unendlich groß ist und es überall ähnlich viele Sterne gibt wie in unserer Umgebung.

 

Heute kennen wir die Antwort:

 

Das Universum ist nicht unendlich alt und wir können daher nicht alle Sterne sehen, leben also praktisch lediglich in einem "sichtbaren Universum", das nur ein Bruchteil des wirklichen Universums sein muss. Zudem wird durch die Expansion des Universums das Licht entfernter Sterne ins Rote verschoben und das - je nach Entfernung - in einen nicht-sichtbaren Bereich des Spektrums. Außerdem spielt eine Rolle, dass Sterne nur eine begrenzte Lebensdauer haben

 

Und ist die Ausdehnung großer als c ( Lichtgeschwindigkeit), wird uns das Licht eh nie erreichen können.

 

Was ist Unendlichkeit ? Sendung ist älter, dass Universum ist angeblich Negativ gekrümmt

 

Teil 1

 

Teil 2

 

Die grundlegendsten Beobachtungstatsachen, auf die unsere Vorstellung von Anfang und Geschichte des Weltalls aufbaut und die jedes Modell beinhalten muss, sind:

 

a) Die Distanz zwischen den Galaxienhaufen wird immer grösser (Rotverschiebung).

 

b) Aus allen Richtungen kommt gleichmässig eine Mikrowellenstrahlung, so wie sie ein „schwarzer“ Körper der Temperatur 2.7 Kelvin (-270 Grad) ausstrahlen würde (sogenannter Mikrowellenhintergrund).

 

c) Wasserstoff und Helium sind die häufigsten Elemente im Kosmos.

 

d) Die physikalischen Gesetze gelten mit grosser Genauigkeit im ganzen beobachtbaren Kosmos. Ob sich gewisse Naturkonstanten mit der Zeit ändern, wird gegenwärtig untersucht. Man muss da noch etwas Geduld haben, bis eindeutige Resultate vorliegen.

 

e) Sehr kleine Unregelmässigkeiten in diesem Mikrowellenhintergrund erlauben es, Kosmologien zu testen und sind Voraussetzung dafür, dass sich aus dem ursprünglich mit heissem Wasserstoff- und Heliumgas angefüllten Kosmos Galaxien bilden konnten.

 

f) Endlichkeit des beobachtbaren Weltalls (= endliches Alter). Galaxien kommen nur bis zu einer bestimmten Distanz vor.

 

 

Ich denke in diesem Kontext gerne an die Ballon-Metapher:

 

Wohin dehnt sich das Universum aus?

 

http://www.youtube.com/watch?v=BWr-zPYY_jI

 

Ein Flächenwesen auf einer Kugel wird diese als "ohne Ende" wahrnehmen und kommt doch scheinbar, wenn es immer in der gleichen Richtung unterwegs ist, wieder zum Anfang zurück.

 

Unendlich gekrümt

 

http://www.youtube.com/watch?v=IWJdEZ8tI_U Teil 1

 

http://www.youtube.com/watch?v=MPQ4F6xytJs&feature=relmfu Teil 2

 

http://www.youtube.com/watch?v=MrrLzYl9leM&feature=relmfu Teil 3

 

http://www.youtube.com/watch?v=L4nbLRbR6Os&feature=relmfu Teil 4

 

 

Die Bewohner des Ballons werden daher einige Vorstellungsprobleme haben wenn sie ihre empirisch gewonnenen geometrischen Gesetze im "Kleinen" auf ihr "Universum" anwenden wollen. Ihr evolutionär bedingter Empfindungsapparat ist für derartige Gedankengänge nicht vorgesehen, da es für das Überleben in einer kleinen und hinreichend euklidischen Umgebung irrelevant ist, die grossen Zusammenhänge anschaulich zu "begreifen".

 

Was bedeutet Unendlich?

 

http://www.youtube.com/watch?v=CvGwhc3j7hY

 

Genauso sehe ich unsere Situation:

 

Wir haben ja auch keine Vorstellung davon, was Vögel empfinden wenn sie durch das Magnetfeld der Erde navigieren, oder was der Sinneseindruck eines Elektrorochens auf Beutesuche ist.

 

Die Allgemeine Relativitätstheorie beschreibt zwar kosmologische Zusammenhänge recht ordentlich und konsistent, dies aber zum Preis der totalen Nicht-Anschaulichkeit.

 

Auch wenn du die ART für einige Semester ordentlich studierst, wirst du sie niemals “begreifen” können (wie alles andere in der Physik übrigens auch nicht….

 

Man muss nur genügend bescheiden sein um dies zu akzeptieren.

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Venustransit

 

Ja ich habs vergeigt euch drauf aufmerksam zu machen das der Venustransit kommt.....ich habs verpennt da keine Zeit.

Hier ein paar zusätzliche Infos was es damit auf sich hat....

 

Ein Venusdurchgang ist ein Vorbeiziehen des Planeten Venus vor der Sonne. Die mit Fernrohr, manchmal auch freiäugig (mit Filterbrille) beobachtbare Erscheinung tritt im Wechsel nach etwa 8 und nach 105 bis 122 Jahren auf, weil Venus- und Erdbahn um einige wenige Grade gegeneinander geneigt sind.

 

Nach den Venusdurchgängen der Jahre 1874, 1882 und 2004[1] fand der letzte am 6. Juni 2012 zwischen etwa 0:00 Uhr und 7:00 Uhr MESZ statt. Der nächste wird sich erst wieder am 11. Dezember 2117 ereignen

 

Grundlagen

 

Bei einem Venustransit stehen Sonne, Venus und Erde exakt in einer Linie. Das Prinzip dieser seltenen planetaren Konstellation ist dem einer Sonnenfinsternis gleich, bei der sich der Mond vor die Sonne schiebt und diese verdunkelt. Allerdings ruft ein Venustransit wegen der großen Distanz zwischen Erde und Venus keine merkliche Verdunkelung auf der Erde hervor. Die Venus deckt im Gegensatz zum Mond nur einen winzigen Bruchteil (ca. ein Tausendstel) der Sonnenfläche ab. Sie wandert scheinbar als winziges tiefschwarzes Scheibchen im Verlauf von mehreren Stunden westwärts über die Sonne.

 

http://upload.wikimedia.org/wikipedia/commons/d/de/2004_Venus_Transit_de.svg

 

Ein Venustransit ist ein sehr seltenes Ereignis, von dem es in 130 Jahren nur zwei gibt, und zwar abwechselnd nach einem kurzen Abstand von acht und einem langen Abstand von über 100 (je nach Knoten 105 bzw. 122) Jahren. Der Abstand zwischen fünf Transiten ist also periodisch und beträgt etwa 243 Jahre, 1 Tag und 22 Stunden.Der letzte fand am 5. und 6. Juni 2012 statt, der vorletzte am 8. Juni 2004, dessen Vorgänger war am 6. Dezember des Jahres 1882 zu beobachten. Im 20. Jahrhundert fand kein einziger Venusdurchgang statt. Ein Venustransit ist deshalb tatsächlich ein astronomisches Jahrhundertereignis und schon aufgrund seiner Seltenheit ein die Beobachtung lohnendes Himmelsschauspiel. Allerdings muss man dabei unbedingt geeignete, hitzesichere Sonnenfilter benutzen, da man ansonsten erblinden könnte.

 

Ursache für die Seltenheit des Venustransits ist die Neigung der Venusbahn gegenüber der Erdbahnebene um 3,4°. Daher steht die Venus nicht bei jeder unteren Konjunktion ausreichend genau zwischen Erde und Sonne, sondern läuft in 98–99 von 100 Fällen ober- oder unterhalb „vorbei“. Bei identischen Bahnebenen könnte man den Venusdurchgang alle 1,6 Jahre beobachten.

 

http://upload.wikimedia.org/wikipedia/de/7/7d/Venuskonstellation.png

 

Diese untere Konjunktion tritt in Abständen von 579 bis 589 Tagen ein, wenn die Venus auf ihrer sonnennäheren Bahn die Erde „überholt“. Dabei wechselt sie von der Rolle des Abendsterns zu der des Morgensterns. Neun Monate später steht sie dann hinter der Sonne (obere Konjunktion). Einen ähnlichen, nur viel rascheren Zyklus von 116 Tagen (synodische Umlaufzeit) hat der sonnennächste Planet Merkur.

 

Ablauf eines Venustransits

 

Der erste Kontakt ist die Berührung des Planetenscheibchens mit der Sonne. Wenige Sekunden später kann man bei Kenntnis der genauen Lage auf der Sonnenscheibe die Eindellung sehen. Als zweiten Kontakt bezeichnet man den Zeitpunkt, wenn das Scheibchen komplett vor der Sonne steht und noch kein Stück Sonne zwischen Planet und Scheibenrand zu sehen ist. Danach wandert der Planet scheinbar vor der Sonne her. Der dritte und vierte Kontakt ist die Umkehr des zweiten und ersten Kontaktes. Da man beim Austritt die genaue Lage des Planeten vor der Scheibe kennt, kann der Austritt immer genau bis zum Ende beobachtet werden.

 

http://upload.wikimedia.org/wikipedia/de/b/be/Tropfenkontakt.png

 

Kurz vor dem zweiten und nach dem dritten Kontakt ist der Lomonossow-Effekt zu beobachten, der auf eine Beugung der Sonnenstrahlen durch die oberen Schichten der Venusatmosphäre zurückzuführen ist.

 

http://upload.wikimedia.org/wikipedia/commons/1/17/1882_transit_of_venus.jpg

 

Unmittelbar nach dem zweiten und vor dem dritten Kontakt kann häufig das Tropfenphänomen beobachtet werden. Bei der Beobachtung durch ein Teleskop oder auf Fotos erscheint die Venus nicht kreisrund, sondern zum Sonnenrand hin wie ein Tropfen verformt. Die Ursache des Phänomens ist allerdings nicht – wie früher behauptet – der Nachweis der dichten Venusatmosphäre, sondern liegt in dem begrenzten Auflösungsvermögen einer jeden zum Beobachten nötigen optischen Anordnung, wie sie ein Fotoobjektiv oder ein Teleskop darstellen.

 

Bestimmung der Distanz Erde-Sonne (Astronomische Einheit AE)

 

In der Astronomie lernte man relativ früh, Winkelabstände zwischen astronomischen Objekten mit immer größerer Genauigkeit zu messen. Was man jedoch zunächst nicht messen konnte, waren Längendistanzen, die zum Beispiel in Kilometern angegeben werden. Sobald man erst einmal eine solche Distanz im Planetensystem bestimmt hatte, konnten damit und mit Hilfe der Keplerschen Gesetze die anderen Distanzen im Planetensystem ermittelt werden.

 

Der Venustransit war die historisch erste Möglichkeit, Längendistanzen im Planetensystem der Sonne zu bestimmen.

 

Dabei beobachtete man den Transit von verschiedenen Punkten auf der Erde aus, die möglichst weit in Nord-Süd-Richtung auseinanderliegen. Von den unterschiedlichen Punkten aus wurde beobachtet, dass die Venus verschieden nahe am Mittelpunkt der Sonne vorbeiläuft, vom Nordpol aus etwas tiefer, vom Südpol aus etwas höher. Die verschiedenen Winkel bei diesen Beobachtungen ließen sich bereits genügend genau messen. Der absolute Abstand zwischen den Beobachtungspunkten auf der Erde war auch bekannt.

 

Von dieser bekannten Länge und den Winkelmesswerten ausgehend, konnten mit dem Strahlensatz und mit trigonometrischen Rechnungen andere Distanzen in Dreiecken berechnet werden. Die Ergebnisse waren der Durchmesser der Sonne und die Radien der Planetenbahnen von Erde und Venus. Der mittlere Radius der Erdbahn wurde künftig als Astronomische Einheit AE vor allem bei Größenangaben innerhalb des Planetensystems verwendet. Mit einer der beiden bestimmten Planetenbahnen und den einfach und sicher bestimmbaren Umlaufzeiten der Planeten konnten mit Hilfe des dritten Keplerschen Gesetzes die Radien der anderen Planetenbahnen errechnet werden.

 

Um die Genauigkeit der Ergebnisse zu steigern, wurden Messungen nicht nur an zwei Punkten (und mangels Möglichkeit auch nicht direkt an den Polen) vorgenommen, sondern an mehreren, weit über die Erde verteilten.

 

Messungen bei Venustransiten im 18. Jahrhundert

 

Die Idee, durch Messung der exakten Dauer einer Venuspassage an möglichst weit voneinander entfernten Orten auf der Erde den Abstand zwischen Sonne und Erde und Sonne und Venus zu bestimmen, hatte Edmond Halley

 

Nach unbefriedigenden ersten Ergebnissen von 1761 sollte die nächste Möglichkeit im Jahre 1769 zu genaueren Beobachtungen und Ergebnissen genutzt werden. Das führte beispielsweise zur ersten Pazifikreise James Cooks und entsprechenden Beobachtungen. Gleichzeitig verfolgte der Wiener Hofastronom Maximilian Hell als nördlichster Beobachter den Transit von Vardø (Norwegen) aus. Christian Mayer beobachtete den Venusdurchgang von 1761 in Schwetzingen und von 1769 in Sankt Petersburg. Georg Moritz Lowitz vermaß letzteren Durchgang am Kaspischen Meer. Durch Auswertung aller Messungen beider Transite im 18. Jahrhundert errechnete Johann Franz Encke den Wert von 153,3 Millionen km für die Distanz Erde–Sonne (die astronomische Einheit), Hell errechnete 152,2 Millionen km.Tatsächlich ist diese Distanz 149,6 Millionen km.

 

Mit den Durchgängen im 19. Jahrhundert konnte der Wert nicht entscheidend verbessert werden. Im 20. Jahrhundert gab es keine Venustransite, man verfeinerte die Ergebnisse mit Hilfe des Transits des Kleinplaneten Eros. Seit 40 Jahren werden die Distanzen im Planetensystem auch mit Radar gemessen.

 

Die Venus - Doku German

 

http://www.youtube.com/watch?v=BS6nJT3d8Qo

 

Das Weltall - Venus

 

http://www.youtube.com/watch?v=2iikuGG1gqs&feature=related

 

NASA SDO - Erste Videos von Venustransit 2012

 

http://www.youtube.com/watch?v=nYsxUFCjMd0&feature=relmfu

 

James Cook - Seefahrer und Entdecker

 

http://www.youtube.com/watch?v=oFR3P4Ids9o Teil 1

 

http://www.youtube.com/watch?v=pZwGmQhm5eU&feature=relmfu Teil 2

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Der Todesstern

 

 

 

So Leute nehmen wir mal den Todessternlaser durch. Das wird ein hartes stück Arbeit denn ich muss da wirklich am Anfang anfangen, was Photonen eigentlich sind. Und das wird wirklich richtig schwer

 

Photon

 

Das Photon ist die elementare Anregung des quantisierten elektromagnetischen Feldes. Anschaulich gesprochen sind Photonen das, woraus elektromagnetische Strahlung besteht, daher wird in der Laiensprache auch der Begriff „Lichtteilchen“ verwendet. Dabei muss jedoch beachtet werden, dass alle Teilchen einschließlich der Photonen auch Welleneigenschaften besitzen. Diese Tatsache wird durch den Welle-Teilchen-Dualismus beschrieben. In der Quantenelektrodynamik, dem ältesten Teil des Standardmodells der Teilchenphysik, gehört das Photon als Vermittler der elektromagnetischen Wechselwirkung zu den Eichbosonen.

 

 

Auflösung des Welle-Teilchen-Dualismus in der Quantenmechanik

 

Jedes Teilchen wird in der Quantenmechanik durch eine Wellenfunktion beschrieben. Die Wellenfunktion eines Teilchens ist komplexwertig und somit keine Messgröße. Lediglich ihr Betragsquadrat kann als Aufenthaltswahrscheinlichkeit (genauer: als Volumendichte der Aufenthaltswahrscheinlichkeit) des Teilchens gedeutet und im Experiment bestimmt werden. Die zeitliche Entwicklung der Wellenfunktion des Teilchens und somit die Veränderung seiner Aufenthaltswahrscheinlichkeit wird durch die Schrödingergleichung beschrieben.

 

Die Schrödingergleichung ist neben der Bornschen Regel eine Grundgleichung für die Dynamik von Quantensystemen. Sie beschreibt die zeitliche Entwicklung des System-Zustands, solange das System sich selbst überlassen ist und keine Messung vorgenommen wird

 

Dr. Quantum erklärt das Doppel-Spalt-Experiment

 

http://www.youtube.com/watch?v=0MZLzdRCuOI

 

Quantenmechanik und statistische Physik

 

Im mikroskopischen Bereich dient der Welle-Teilchen-Dualismus als heuristische Erklärung für einige physikalische Phänomene. So hängt nach De Broglie die Wellenlänge eines Teilchens von seiner Geschwindigkeit und somit auch von seiner Temperatur ab. Bei niedrigen Temperaturen können die De-Broglie-Wellenlängen von Atomen größer werden als der Atomdurchmesser und sich überlappen, wodurch teilweise die Effekte der Suprafluidität von Helium-3 und Helium-4 erklärt werden können. Für eine vollständige und quantitative Behandlung dieser Themen muss jedoch die Quantenmechanik herangezogen werden.

 

Unter Heuristik versteht man die Wissenschaft, die die Gesetzmäßigkeiten und die Methodik der Rechercheprozesse bei einer Aufgabenlösung untersucht und die, indem sie die Anzahl der möglichen Lösungsansätze dieser Aufgabe auf ein Minimum reduziert oder in gewissem Maße einschränkt, die Lösungszeit im Vergleich zu den bekannten Methoden in der Forschertätigkeit verkürzt, z.B. durch die Methode der blinden Lösungswahl oder durch Methoden, die in den klassischen axiomatischen Kalkülen gebräuchlich sind

 

Makroskopische Betrachtung

 

Der Wellencharakter der Teilchen zeigt sich nicht bei makroskopischen Gegenständen, was zwei prinzipielle Ursachen hat:

 

Selbst bei langsamer Bewegung haben makroskopische Gegenstände aufgrund ihrer großen Masse eine Wellenlänge, die erheblich kleiner ist als die Abmessungen des Gegenstandes. In diesem Fall kann man nicht mehr den gesamten Gegenstand als ein quantenmechanisches Objekt behandeln, sondern muss seine Bestandteile separat beschreiben.

 

In makroskopischen Gegenständen laufen permanent thermodynamisch irreversible Prozesse ab und es werden Photonen (Wärmestrahlung) mit der Umgebung ausgetauscht. Beides führt zur Dekohärenz des Systems, was bedeutet, dass ein anfangs möglicherweise interferenzfähiger Zustand sich sehr schnell in einen nicht interferenzfähigen umwandelt, der sich dann wie ein klassisches Teilchen, also nicht wie eine Welle verhält.

 

Dekohärenz ist ein Phänomen der Quantenphysik, das zur unvollständigen oder vollständigen Unterdrückung der Kohärenzeigenschaften quantenmechanischer Zustände führt. Dekohärenzeffekte ergeben sich, wenn ein bislang abgeschlossenes System mit seiner Umgebung in Wechselwirkung tritt, wodurch sowohl der Zustand der Umgebung als auch der Zustand des Systems irreversibel verändert werden.

 

Das wars für heute ... lasst euch diese Sachen langsam durch den Kopf gehen ... denn es dauert einige Zeit bis man glaubt es zu verstehen

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Laser

 

So nun langsam zum Eingemachten, ich hoffe ihr versteht alles

 

Lichtverstärkung durch stimulierte Emission von Strahlung

 

Ist ein physikalischer Effekt, mit dem künstlich gerichtete Lichtstrahlen erzeugt werden können. Der Begriff Laser wird dabei nicht nur für den Verstärkungseffekt, sondern auch für die Strahlquelle verwendet.

 

Stimulierte Emission oder induzierte Emission heißt die Emission eines Photons, wenn sie nicht spontan erfolgt, sondern durch ein anderes Photon ausgelöst wird.

 

Sie ist eine der Voraussetzungen für das Funktionieren eines Lasers oder Masers.

 

Ablauf

 

Wird einem quantenmechanischen System − im einfachsten Fall einem Atom − Energie zugeführt, indem zum Beispiel ein Photon absorbiert wird oder das Atom mit anderen Atomen zusammenstößt, so geht das Atom in einen angeregten Zustand über.

 

http://imageshack.us/photo/my-images/831/laseraufbau.gif/

 

Trifft nun ein Photon, dessen Energie genau der Energiedifferenz zwischen dem aktuellen Zustand und einem Energieniveau mit geringerer Energie entspricht, auf das angeregte Atom, so kann das Atom in den Zustand niedriger Energie wechseln und die Energiedifferenz zusätzlich zu dem eingefallenen Photon als ein weiteres Photon abstrahlen. Dies geht jedoch in der Regel nur, wenn der betreffende Übergang durch die Auswahlregeln erlaubt ist.

 

http://imageshack.us/photo/my-images/17/laserabsorption.gif/

 

Das neu erzeugte Photon hat die gleiche Energie und − da Energie, Wellenlänge und Frequenz zusammenhängen − auch gleiche Wellenlänge und Frequenz wie das eingefallene Photon. Außerdem bewegt sich das neue Photon in die gleiche Richtung, besitzt gleiche Polarisationsrichtung und hat auch die gleiche Phasenlage, so dass es sich gewissermaßen wie eine Kopie des ursprünglichen Photons verhält, was als Kohärenz bezeichnet wird.

 

http://imageshack.us/photo/my-images/825/laseremission.gif/

 

Übrigens, ich stelle das Licht hier als kleine Teilchen dar, aber man kann es auch als Wellen auffassen. Dann ist das einfallende Licht eine Welle, und wenn diese das angeregte Atom trifft, gibt das Atom Energie ab, die die Welle ein bisschen größer werden lässt

 

Laserstrahlen haben Eigenschaften, die sie stark von Licht aus klassischen Lichtquellen (wie beispielsweise einer Glühlampe) unterscheiden. Hierzu gehören häufig:

 

ein sehr enges Frequenzspektrum, d. h. das Licht hat nur eine Farbe, ist also monochromatisch,

 

die Parallelität der Strahlung, die den Laserstrahl auch über große Entfernung kaum breiter werden lässt,

 

und eine extrem große Kohärenzlänge.

 

Die Kohärenzlänge ist der Weglängen- oder Laufzeitunterschied, den zwei Lichtstrahlen, die derselben Quelle entstammen, maximal haben dürfen, damit bei ihrer Überlagerung noch ein Interferenzmuster entsteht. Die Kohärenzlänge resultiert aus der zeitlichen Kohärenz und entspricht der optischen Weglänge, die das Licht während der Kohärenzzeit zurücklegt.

 

Physikalische Grundlagen

 

Überblick

 

Stimulierte EmissionFür die Funktion des Lasers sind die drei grundlegenden Prozesse der Wechselwirkung von Licht mit Materie bestimmend: Absorption bzw. Anregung (Pumpen), spontane Emission und stimulierte Emission.

 

Beim Pumpen des Lasers wird entweder ein Photon vom aktiven Medium (geeignete Materie, zum Beispiel Atome oder Moleküle in einem Festkörper, einer Flüssigkeit oder einem Gas) absorbiert, oder die Anregung erfolgt durch unelastische Stöße (Gasentladung, Teilchenstrahlung). Die Pumpleistung (Anregung) sorgt dafür, dass Elektronen der Atome oder Moleküle des aktiven Mediums in einen höheren Energiezustand, d. h. ein höheres Energieniveau gelangen.

 

Durch zunächst spontane Emission geht dieser angeregte Zustand spontan, das heißt zufällig und ohne äußere Einflüsse, wieder in einen niedrigeren Energiezustand über. Die Energiedifferenz wird in Form eines Photons abgestrahlt. Zeitpunkt der Aussendung und Richtung des Photons sind zufällig.

 

Bei der stimulierten Emission wird durch ein solches, bereits existierendes Photon die Aussendung eines weiteren Photons angeregt; dieses besitzt die gleichen Eigenschaften (Frequenz, Phase, Polarisation und Ausbreitungsrichtung). Es ergibt sich eine Verstärkung der Strahlung. Ein Resonator oder die Gestalt des aktiven Mediums sorgen dafür, dass diese Verstärkung rückgekoppelt und in einer bevorzugten Richtung erfolgt.

 

Was ist ein Laser?

 

 

Science vs. Fiction - Laser, Phaser und Photonentorprdos

 

 

Da kommt halt noch mehr ... ist halt ein schweres Thema

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Laser Teil 2

 

 

Beginn der Laseremisson

 

In einer Materieansammlung (Gas, Festkörper, …), die energetisch ausreichend angeregt ist, entstehen immer auch Photonen durch spontane Emission, die sich in irgend eine Richtung ausbreiten. Falls sie auf ihrem Weg zufälligerweise auf Atome im metastabilen Zustand treffen und die Energien zusammenpassen für eine stimulierte Emission, verstärkt sich die Intensität des Lichtes. Bei jedem energetisch „gemolkenen“ Atom kommt ein Photon zur bereits vorhandenen Menge dazu, die Lichtintensität steigt. Zum Glück kann auf dem weiteren Weg durch die Materieansammlung kein Photon durch Resonanzabsorption abhandenkommen, wie man beispielsweise beim Durchgang von Natriumlicht durch Natriumdampf oder bei Fraunhoferschen Linien beobachten kann.

 

Resonanzabsorption, auch resonante Absorption, bezeichnet die Übernahme der von einem Erreger stammenden Energie durch einen in einer Eigenfrequenz schwingenden Resonator.

 

Die Fraunhoferlinien oder Fraunhofer'schen Linien sind Absorptionslinien im Spektrum der Sonne. Sie entstehen durch Resonanzabsorption der Gase in der Sonnen-Photosphäre

 

Spektroskopie in der Astronomie

 

http://www.google.de/imgres?q=Fraunhoferlinien&start=97&hl=de&biw=1280&bih=843&gbv=2&tbm=isch&tbnid=fTczT7zRW6eoDM:&imgrefurl=http://www.astronomie.de/astronomische-fachgebiete/spektroskopie/spektroskopie-in-der-astronomie/&docid=4LFvPlaeC5rTiM&imgurl=http://www.astronomie.de/typo3temp/pics/8c5b6b4ca8.jpg&w=900&h=891&ei=h4zWT8WrFMnysga9trX0Bg&zoom=1

 

Ursache ist der verbotene Übergang: Wenn das Atom die im metastabilen Zustand gespeicherte Energie nicht so ohne weiteres emittieren kann, kann es diese Energie auch nicht absorbieren, auch wenn sich das Elektron im unteren Zustand befindet.

 

Keine auffallende Laserwirkung ergibt sich, wenn:

 

das Licht die Materieansammlung vorzeitig verlässt, beispielsweise durch seitlichen Austritt aus dem Entladungsrohr;

 

zu wenige angeregte Atome angetroffen wurden; man sagt dann, die Laserschwelle wird nicht erreicht.

 

Um eine hohe Intensität zu erzeugen, müssen sich also sehr viele Atome im metastabilen angeregten Zustand befinden. Bei den meisten Lasern wird das durch Spiegel erzwungen: Wenn ein Photonenbündel zufällig in Richtung senkrecht zu einem der Spiegel gestartet ist, muss es immer wieder in der Materieansammlung hin- und herlaufen, um möglichst sämtliche metastabilen Atome zu „melken“. Bei manchen Lasertypen wie He-Ne-Laser oder Laserdioden wird kontinuierlich Pumpenergie zugeführt, bei anderen Typen wie dem Rubinlaser wird zuerst kurzzeitig mit einer Blitzlampe optisch gepumpt, dann entsteht der Laserimpuls. Wenn es keine spontane Emission gäbe, würde in keinem Fall Laserlicht entstehen.

 

Der Laser

 

http://www.youtube.com/watch?v=UfPLlCBLk7w

 

Eigenschaften von Laserstrahlung

 

Die Strahleigenschaften eines Laserstrahles werden wesentlich durch die Art des Laser-Resonators bestimmt, insbesondere spielen dabei die Geometrie des aktiven Mediums und die Spiegelanordnung eine wichtige Rolle. Mit Lasern gelingt es, Licht in hohem Grade zu kontrollieren bzw. zu manipulieren (Brillanz, Intensität, Richtung, Frequenz, Polarisation, Phase, Zeit). Eine allgemeine Aussage über die Strahleigenschaften ist daher nicht möglich. Es ist auch nicht richtig, dass ein Laserstrahl immer ein enggebündelter Strahl mit geringer Frequenzbreite sein muss, wofür er allerdings oft gehalten wird. Je nach Zielsetzung ist eine Erzeugung derartiger Strahlen aber durchaus möglich. Eine herausragende, allgemeine Eigenschaft stellt jedoch die Möglichkeit zur starken Bündelung dar, mit der sehr hohe Leistungsdichten erzielt werden können.

Generell kann man zu den Strahleigenschaften sagen, dass Laserstrahlen sich gegenüber gewöhnlichen Lichtquellen durch viele Unterschiede auszeichnen, die im Folgenden genannt werden.

 

Kohärenz

 

Bei einer normalen Glühlampe werden Lichtwellen nicht nur mit unterschiedlicher Wellenlänge ausgesendet, sondern auch in unbestimmter Phasenlage zueinander. Bei einem Laser dagegen sind die Wellen jeweils fast phasensynchron zueinander. Die Wellen sind über mehr oder weniger lange Strecken (Kohärenzlänge) fast phasengleich, was man sich zum Beispiel in der Holografie zunutze macht.

 

Polarisation

 

Die Polarisation von Laserstrahlen ist aufgrund polarisierender optischer Bauteile im Resonator (schräge Umlenkspiegel und Flächen (Brewster-Fenster), geringe Höhe des Resonators bei Halbleiterlasern) meistens linear. Oft ist das erwünscht, um polarisationsabhängige Kopplung und Strahlteilung durchführen zu können. Beim Schneiden von Metallen tritt jedoch insbesondere bei der linear polarisierten CO2-Laserstrahlung im Schnittspalt eine polarisationsabhängige Absorption auf, was eine schlechte und richtungsabhängige Schnittkantenqualität zur Folge hat. Daher wird beim Metallschneiden mit zirkularer Polarisation gearbeitet, die durch phasendrehende Verzögerungsplatten im Strahlengang des Laserstrahles erzielt wird.

 

Frequenz, Wellenlänge

 

Die Frequenz von Laserstrahlung wird durch das aktive Medium und dessen zum Lasern geeignete Energieübergänge bestimmt. Es gibt Stoffe, die auf vielen Wellenlängen zum Lasern angeregt werden können – jedoch meistens bei einer Wellenlänge besonders gut. Laser können sehr schmalbandige Strahlquellen sein, die Verstärkungsbandbreite (beim Kohlenstoffdioxidlaser zum Beispiel 9 bis 11 µm) ist jedoch meist höher als die Bandbreite der abgegebenen Strahlung – entweder schwingt der Laser von selbst im Maximum der Verstärkungsbandbreite (beim Kohlendioxidlaser zum Beispiel 10,6 µm) an oder man sorgt durch frequenzbestimmende Elemente für eine schmalbandige Emission auf einer einzigen Frequenz. Extreme Schmalbandigkeit ist z. B. bei der interferometrischen Längenmessung mittels Lasern von Bedeutung. Bei extremer Breitbandigkeit spricht man von Superkontinuum-Lasern, welche z. B. in der optischen Kohärenztomographie und zur Erzeugung von Frequenzkämmen eingesetzt werden. Die minimal erreichbare Bandbreite wird durch das Schawlow-Townes-Limit beschrieben.

 

Lasertypen nach der Signalform

 

Laserstrahlung von Dauerstrich-Lasern ist im Idealfall schmalbandig (monochrom, einfarbig), das heißt, es besteht nur aus Strahlung einer Wellenlänge. Insbesondere ist Dauerstrich-Laserstrahlung aus stabilen Laserresonatoren aufgrund des Vielfachumlaufes zeitlich beziehungsweise longitudinal (entlang seiner Ausbreitungsrichtung) kohärent, was bedeutet, dass die ausgesandten Wellenzüge nicht nur mit der gleichen Frequenz schwingen, sondern auch in der Phase über eine lange Strecke (die Kohärenzlänge) konstant sind. Dadurch zeigt ein solches Licht besonders ausgeprägte Interferenzerscheinungen. Während des Einschwingvorgangs des Dauerstrich-Lasers tritt zunächst oft Spiking, das heißt eine unregelmäßige Abgabe von Laserpulsen, auf. Dieses Verhalten nutzt ein modengekoppelter Laser gezielt aus, indem er die Spikes z. B. triggert oder synchronisiert.

 

Pulse

 

Im Gegensatz zum Dauerstrich-Laser erzeugt ein gepulster Laser pulsierende Strahlung. Pulse können durch gepulste Anregung oder auch durch Maßnahmen im Laser selbst (Güteschaltung) erzeugt werden. Bei sehr kurzen Pulsen benötigt das aktive Medium prinzipiell eine größere Verstärkungsbandbreite, innerhalb derer die beteiligten Frequenzen gekoppelt sind (Modenkopplung) und sich zu einem Impuls zusammensetzen. Je kürzer die Pulsdauer, desto breiter ist entsprechend den Gesetzen der Fourier-Analyse das erzeugte Spektrum und umso breiter muss das Frequenzband sein, innerhalb dessen das aktive Medium verstärken kann. Die geringsten erzielbaren Pulsdauern liegen in der Größenordnung von Femto- und Attosekunden. Bei derart kurzen Pulsen (Länge des Strahlungspaketes < 30 µm, also ein Bruchteil einer Haarbreite) muss das verstärkende (aktive) Lasermedium eine große Verstärkungsbandbreite besitzen.

 

Laser können sich auch selbst zur Abgabe einer Pulsfolge synchronisieren, wenn im Resonator zum Beispiel ein nichtlinearer (sättigbarer) Absorber vorhanden ist. Die Wiederholfrequenz, mit der die Pulse in einem solchen Laser erzeugt werden, hängt u. a. bei der instantanen Kerr-Linsen-Modenkopplung von der Resonatorlänge ab: Bei einem Resonator mit einer Länge von einem halben Meter beträgt diese etwa 300 MHz – die Periodendauer entspricht einem Hin- und Herlaufen (Umlauf) des Pulses im Resonator. Die Spitzenleistung wird bei jedem Umlauf größer, die Pulsdauer bleibt von allein sehr gering. Aus solchen Pulslasern werden zum Beispiel einzelne Pulse mittels optischer Schalter herausgelassen und weiterverstärkt. Mit weiteren Maßnahmen gelingt es, Spitzenleistungen bis in den Petawatt-Bereich zu erzeugen, die nur im Vakuum ungestört übertragen und fokussiert werden können. Luft wird von der hohen elektrischen Feldstärke des Lichts ionisiert.

 

Die Gütemodulation des Resonators mit akustooptischen Güteschaltern oder Pockelszellen sind weitere Techniken zur Erzeugung energiereicher Laserpulse mit geringer Dauer: Dabei wird die stimulierte Emission zunächst unterbunden, um sie dann bei inzwischen durch das Pumpen gestiegener Besetzungsinversion (hohe, im aktiven Medium gespeicherte Energie) schlagartig zu ermöglichen.

 

Ein paar Einsatzgebiete

 

MTHEL (THEL) - Mobile Tactical High Energy Laser

 

http://www.youtube.com/watch?v=cCBwLJjzDJQ

 

Funktionsprinzip

 

Funktionsprinzip des THEL (Grafik)Das THEL-System besteht hauptsächlich aus vier Teilen: dem eigentlichen Laser, einem Zielverfolgungssystem (pointer-tracker), einem Kontrollzentrum (command, control, communications and intelligence center, C3I) sowie einer Radareinheit (fire control radar).

 

Ein feindliches Geschoss wird durch den Radar entdeckt und erfasst, Position, Geschwindigkeit, Richtung usw. werden dem THEL-Hauptsystem mitgeteilt, welches mittels seiner Sensoren das Ziel optisch erfasst und verfolgt und eine Feinjustierung vornimmt. Der optimale Zeitpunkt zum Beschuss wird errechnet und im günstigsten Zeitpunkt das Geschoss durch einen Laserpuls bestrahlt und dadurch so stark erhitzt, dass es explodiert. Die Kosten pro 'Laserschuss' werden mit 3000 US-Dollar angegeben, wobei jedes Mal giftige Gase in die Atmosphäre entweichen, da die benötigte hohe Energie durch einen chemischen Prozess gewonnen wird. Durch die Mengen an toxischen Chemikalien sowie seiner Sperrigkeit ist das System nur bedingt in bewohntem Gebiet einsetzbar.

 

HiPER

 

http://www.hiper-laser.org/pressandpr/multilinvideo.asp

 

World's Most Powerful Handheld Laser - Review & Giveaway!

 

 

Laserharp II Jean Michel Jarre

 

Die Laserharp fängt ab 3:40 an

 

 

Mit diesem Konzert, das im Pariser Hochhausviertel La Défense stattfand und die gesamte Architektur einschließlich der Grande Arche mit in die Lichtshow einbezog, überbot Jarre seinen eigenen Rekord – im Guinness-Buch der Rekorde wurde die Zahl von 2.000.000 Zuschauern eingetragen, manche Schätzungen sprechen gar von 2.500.000. Der Platz, den das Publikum einnahm, reichte zurück bis zum Pariser Triumphbogen.

 

Wer Paris kennt, weiss was das für eine Strecke ist. Asche auf mein Haupt das ich nicht dort war :(

 

Das ganze Konzert

 

http://www.youtube.com/watch?v=V7lePUxe2p8

 

Leschs Universum Folge 33

 

http://www.youtube.com/watch?v=ZGNx5ZHgiBs

 

So das wars erst mal mit dem Laser, ich hoffe das es euch geholfen hat diese Technologie besser zu verstehen

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Der grosse Zusammenstoß

 

 

Das Schicksal unserer Heimatgalaxie ist besiegelt: Die Milchstraße wird mit der benachbarten Andromeda-Galaxie zusammenstoßen und dabei völlig umgekrempelt - allerdings erst in vier Milliarden Jahren. Über entsprechende Messungen des Weltraumteleskops "Hubble" berichtete die US-Raumfahrtbehörde NASA in Washington.

 

Die beiden Spiralgalaxien werden demnach zu einer großen elliptischen Galaxie verschmelzen. Unser Sonnensystem werde dabei voraussichtlich an einen völlig anderen Platz weiter am Rand der verschmolzenen Galaxie katapultiert, jedoch nicht zerstört, hieß es.

 

"Nach fast einem Jahrhundert Spekulationen über das Schicksal der Andromeda-Galaxie und unserer Milchstraße haben wir endlich ein klares Bild davon, was während der kommenden Milliarden Jahre passieren wird", sagte Sangmo Tony Sohn vom Space Telescope Science Institute (STScI) in Baltimore.

 

Seit langem wissen Astronomen, dass sich die Andromeda-Galaxie und die Milchstraße annähern. Beide rasen mit etwa 400.000 Kilometern pro Stunde aufeinander zu. Unklar war bislang aber, ob sie miteinander kollidieren, sich nur streifen oder sogar verfehlen werden, weil sich die genaue Flugrichtung der Andromeda-Galaxie nicht feststellen ließ.

 

Mit dem "Hubble"-Teleskop sei es nun erstmals gelungen, auch die seitwärts gerichtete Bewegung der Andromeda-Galaxie zu messen, betonte STScI-Teamleiter Roeland van der Marel. Dazu nahmen die Astronomen mit "Hubble" unsere Nachbargalaxie über sieben Jahre immer wieder ins Visier. Die hochauflösenden Bilder des Teleskops erlaubten den Forschern, die seitliche Bewegung der Galaxie zu messen.

 

Die Präzisionsmessungen beseitigten jeden Zweifel, dass Andromeda mit der Milchstraße kollidieren und verschmelzen werde, betonte die NASA. "Unsere Beobachtungen sind statistisch konsistent mit einem Frontalzusammenstoß zwischen der Andromeda-Galaxie und unserer Milchstraße", unterstrich van der Marel.

 

Kollidierende Galaxien fliegen - anders als zusammenstoßende Autos - im Wesentlichen durcheinander hindurch. Direkte Zusammenstöße von Sternen kommen dabei in der Regel nicht vor. Die Galaxien werden jedoch durch ihre Schwerkraft aneinander gefesselt und verschmelzen dadurch schließlich.

 

Daher werden sich die Andromeda-Galaxie und die Milchstraße in vier Milliarden Jahren zunächst gegenseitig durchqueren und zwei weitere Milliarden Jahre später erneut treffen, um zu verschmelzen. Vermutlich werde auch eine etwas kleinere Galaxie, der Dreiecksnebel, von dem verschmolzenen Paar eingesogen.

 

Im Laufe der Galaxienkollision werde sich auch der irdische Nachthimmel dramatisch ändern, führten die Forscher aus. So werde das schwache Band der Milchstraße zunächst ergänzt durch die immer größer werdende Andromeda-Spiralgalaxie. Während der Kollision könnten künftige Betrachter dann ein Feuerwerk der Sternentstehung beobachten, das in den aufgewirbelten Gas- und Staubmassen zündet.

 

Nach dem Verschmelzen der Galaxien wird nach Angaben der Forscher die resultierende elliptische Galaxie einen Großteil des Nachthimmels einnehmen. Allerdings steht unsere Sonne - und damit voraussichtlich auch die Erde - in vier bis fünf Milliarden Jahren am Ende ihrer Existenz, weil sie ihren Brennstoff weitgehend verbraucht haben wird.

 

Crash of the Titans: Milky Way and Andromeda Galaxy

 

http://www.youtube.com/watch?v=2WEI8WBJ***

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Schwarzes Loch wird durch Kollision aus Galaxie katapultiert

 

 

Astronomen vermuten, dass ein gigantisches Schwarzes Loch mit hoher Geschwindigkeit aus seiner Galaxie geschleudert wurde. Das berichtet das Portal astronews.com. Nach Kollision und Verschmelzung von zwei Schwarzen Löchern hätten Gravitationswellen das entstandene Masse-Monster auf eine unvorstellbare Geschwindigkeit von vier Millionen Kilometer pro Stunde katapultiert. Das astronomische Schauspiel hat das NASA-Röntgenteleskop Chandra in einer Entfernung von etwa vier Milliarden Lichtjahren aufgezeichnet.

 

"Das ist schon schwer zu glauben, dass ein supermassereiches Schwarzes Loch mit der vielmillionenfachen Masse unserer Sonne sich überhaupt bewegen kann, geschweige denn mit hoher Geschwindigkeit aus einer Galaxie gekickt wird", zitiert der Online-Dienst für Astronomie, Astrophysik und Raumfahrt die Leiterin der Untersuchung, Francesca Civano vom Harvard-Smithsonian Center for Astrophysics (CfA).

 

Von der Kollision hätten aber sehr starke Gravitationswellen vorwiegend in eine Richtung abgestrahlt, so dass das größer gewordene Schwarze Loch durch eine Art Rückstoß stark beschleunigt wurde.

 

Außerdem stimmten die neuen Daten mit der Idee überein, das Gravitationswellen eine sehr starke Kraft ausüben können, so Civano weiter. Es handele sich dabei und Kräuselungen in der Raumzeit, die Albert Einstein als Erstes vorhergesagt hatte, die aber noch nie direkt gemessen wurden.

 

Schwarze Löcher sind Orte der Extreme: Die Materie ist in ihnen so stark zusammengepresst, dass nichts ihrer enorm hohen Anziehungskraft entkommt. Die Fluchtgeschwindigkeit liegt im Inneren eines Schwarzen Lochs über der Lichtgeschwindigkeit, daher dringt nicht einmal das Licht selbst nach außen. Schwarze Löcher sind unsichtbar, was ihnen ihren Namen gab.

 

Es gibt sie in fast jeder Größe im Kosmos - von der einfachen Masse unserer Sonne bis zu Milliarden Sonnenmassen. Sie können zum Beispiel aus ausgebrannten Sonnen entstehen.

 

Ein Stern mit mehr als der dreifachen Masse unserer Sonne kann am Ende seiner Existenz unter der eigenen Schwerkraft zu einem Schwarzen Loch zusammenstürzen.

 

HD Black Holes Probe & Hubble Telescope

 

http://www.youtube.com/watch?v=aF84gWn_KNg

 

NASA: sound of a black hole

 

 

Hubble Black Hole Probe

 

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

thx Bakhtosh für die Arbeit die du dir gemacht hast ich hoffe es wissen die anderen auch zu würdigen und lesen sich deinen beitrag durch und schauen sich auch die Bilder und Videos an die du eingestellt hast.
Link to comment
Share on other sites

Künstliche Intilligenz.....

 

Diese Diskussion habe ich vor ca. 2 Jahren mit jemanden gehabt, der wirklich Ahnug von der Materie hat....

 

Die Robotergesetze nach Isaac Asimov

 

Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.

 

Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.

 

Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

 

wurde ergänzt

 

Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.

 

Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.

 

Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.

 

Ein Roboter muss seine eigene Existenz schützen, solange dieses sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.

 

Diskussion Anfang Ich bin der blaue

 

Wir kennen Ki's aus etlichen Sf Filmen oder Spielen... gute wie böse... meine Meinung nach ist Ki eine wirklich grosse Gefahr. Sie kann so unglaublich schnell Dinge überlegen oder berechnen. Sie könnte sich schneller weiterentwickeln als gewünscht ... u.s.w

 

Wie denkt du darüber ?

 

Meiner Meinung nach kann sowas nicht passieren. Ich hatte in der Schule KI als Schwerpunkt und wir haben da viel über künstliche neuronale Netze gelernt und auch einige Problemme über solche gelöst. Der KI fehlt etwas entscheidendes, was jedes Kind besitzt, Fantasie. Ohne dieses ist es einer KI unmöglich nur im entferntesten über ihr Aufgabenfeld hinauszugehen. Eine KI eines Schachkomputers wird nie was anderes machen können als Schach spielen, obwohl sie mit der Zeit lernt dich zu besiegen. In Filmen und Büchern wird uns vorgegaukelt dass Machinen wie Menschen denken, aber das tun die nicht. Ein selbsständiges Handeln setzt die Vorstellung des Ergebnisses der Handlung vorraus und das ist nun mal Fantasie. So, und nun versuch mal dem Computer beizubringen dass die Wolke da wie ein Schaaf aussieht...

 

ich gebe zu das du dich auf diesem Gebiet wohl besser auskennst.... und jetzt mal wieder mein ABER

 

Ein Schachkomputer ist für mich keine KI. Er geht einfach ein Programm durch und sucht nach der besten möglichkeit.

 

. Ich meinte hier wirkliche KI auf Silikon Basis oder noch Bio Biochips mit dabei falls es solche KI's mal wirklich geben wird dann in 50 oder 100 jahren wenn überhaupt..... Eine Ki die von sich aus Dinge erschaffen kann ohne Anleitung. Nur ein kleiner Programmfehler und schon hast du Schwierigkeiten.. In der Zeit wo wir uns überlegen was wir zu Frühstück essen hat so eine KI 1 Milliarde überlegungen angestellt. Und die lernrate wäre enorm und nicht mehr zu kontrollieren. Siehe den Film Collossus , Des Teufels Saat und 2001

 

Oder nimm deinen Kumpel Marvin ... so einem Roboter ist nicht ohne Grund sterbenslangweilig

 

Siehst du, du machst den selben Fehler, du siehst die KI als eine Kopie einens Menschlichen Gehirns, das wird es aber nie geben, du kannst das Gehirn eines Lebewesens nicht in Algorythmen packen, volkommen unmöglich. Unser Gehirn arbeitet ganz anders als ein Computer.

 

Und nein, eine KI unterscheidet sich nicht viel von einem lernbaren Schachcomputer. Beite benutzen Neuronale (simuliert natürlich) Netze und Regeln. Nur sind die Regeln eben an bestimmte Bedürfnisse angepasst. Ein Mensch lernt nach dem Try&Error Prinzip. Wenn ein Kind sich die Hand verbrennt, so weis er dass er das nächste mal die heiße Herdplatte nicht anfassen darf. Einer KI fehlen aber solche mächtigen Entscheidungsregeln wie wir menschen die schon von Geburt an haben. Du müsstest jede einzelne Regel einprogramieren, damit das Neuronale Netzt überhaupt lernen kann, ansonsten bleibt das teil strohdumm. So, und jetzt programier mal für jede mögliche Situation eine Regel, richtig, es gibt unendlich davon.

Eine Möglichkeit währe es natürlich die Regeln synthetisch erstellen zu lassen, sprich LearningByDoing, aber soweit sind wir noch lange nicht... Und da hapert es wieder an der Fantasie, bzw. Neugier, warum sollte eine Machine eine bestimmte Bewegung machen? Der fällt es im Traum nicht ein...

 

So habe mal ein wenig nachgeforscht und das hier rausgefunden....

Das was wir heute als KI bezeichnen wird als schwache KI bezeichnet.

 

Das was eine starke KI sein sollte muss diese kriterien erfüllen.

 

1 Die Fähigkeit zur Verarbeitung beliebiger Symbole (nicht nur Zahlen).

2 Der Aufbau eines inneren Modells der äußeren Welt.

3 Die Fähigkeit zu einer zweckentsprechenden Anwendung des Wissens.

4 Die Fähigkeit, die im gespeicherten Wissen enthaltenen Zusammenhänge aufzudecken, d. h. logisch schlussfolgern zu können.

5 Die Fähigkeit zur Verallgemeinerung (Abstraktion) und zur Spezialisierung (d. h. zu Anwendung allgemeiner Zusammenhänge auf konkrete Sachverhalte).

6 Das Vermögen, erworbenes Wissen und vorhandene Erfahrung auf neue, bisher unbekannte Situationen zu übertragen.

7 Die Fähigkeit, sich planvoll zu verhalten und entsprechende Strategien zum Erreichen der Ziele bilden zu können.

8 Anpassungsfähigkeit an verschiedene, u.U. sich zeitlich ändernde Situationen und Problemumgebungen.

9 Lernfähigkeit, verbunden mit dem Vermögen, partiellen Fortschritt oder Rückschritt einschätzen zu können.

10 Die Fähigkeit, auch in unscharf bzw. unvollständig beschriebenen oder erkannten Situationen handeln zu können.

11 Die Fähigkeit zur Mustererkennung (Besitz von Sensoren) und zur aktiven Auseinandersetzung mit der Umwelt (Besitz von Effektoren).

12 Die Fähigkeit, über ein Kommunikationsmittel von der Komplexität und Ausdrucksfähigkeit der menschlichen Sprache zu verfügen.

 

wie schon beschrieben ist das eher dein Gebiet. Aber wir reden hier von Sci - Fi. Wenn wir es wirklich irgendwann, irgendwie schaffen sollten eine stake KI zu erschaffen..... würdest du das nicht für gefährlich halten ?

 

Auch dann nicht. Eine KI handelt immer noch logisch... Unser Drang uns selbst zu zerstören wird von hormonellen Schwankungen beeinflusst, einer KI fehlt das. Und wenn in der Logik genau festgehalten ist, dass das Wohl der Menscheit über der KI geht, dann wird diese auch nie jemanden schaden. Es sei denn wir reden vom Terminator, der genau für diesen Zweck gebaut wurde.

 

Eine KI hat keinen Selbsterhaltungstrieb, da sie in dem Sinne nicht sterben kann. Und wenn sie einen haben soll, dann kann man genau definieren wie weit sie dabei gehen soll. Unklar wird es natürlich was passiert wenn man einer KI erlaubt ihren Grundcode ihren Bedürfnissen anzupassen, sowas macht man aber nicht, da das Lernen einer KI nur durch die Gewichtung des Neuronalen Netzes von statten geht..

 

Ich gehe davon aus .... was gemacht werden kann wird irgend wann gemacht. Aber das ganze geht von ger Grundfrage ab ... ob KI's gefährlich sind oder nicht. Und nicht ob sowas möglich wäre , wir reden hier ja von Sci Fi,

 

Und was ist nun, wenn eine KI ihren Grundcode den entsprechenden Bedürfnissen anpasst. ? Ich halte das für zu gefährlich. ..

 

Habe schon seit einiger Zeit einen sehr interessanten Film bei mir zuhause, der sich mit dem Universum und all den Zusammenhängen, Quanten, etc. befasst. Nennt sich Bleep - Down the rabbit hole. Ist auch etwas einfacher gemacht, um ein breites Publikum zu erreichen

 

Bleep - Down the Rabbit Hole

 

Wie funktioniert Realität, wer erschafft sie? Was sind Gedanken? Wo kommen Sie her? Haben wir Einfluss auf das, was in unserem Leben passiert, oder sind wir Opfer unserer Umstände?

Down The Rabbit Hole dringt noch viel tiefer ins Mysterium des Lebens ein und beantwortet essentielle Fragen, die sich der "bewusste Mensch" stellt, wenn er einmal ins Mysterium eingetaucht ist.

Zu den bereits bekannten Wissenschaftlern, BewusstSeinsforschern und Dozenten, deren Interviews nun ausführlich gezeigt werden, sind hier weitere sehr wichtige Interviewpartner enthalten, die das Verständnis für das Wesen dieser, unserer Realität verdeutlichen helfen.

 

http://www.youtube.com/watch?v=Sh2SRBy_wx4 Teil 1

 

Erster Teil ..dann bitte die folgenden Schnipsel anklicken....;)

 

 

So habe mich mal schlau gemacht ... ist aber noch viel zu lesen .. aber es sieht so aus als ob du recht hast

 

Gödelscher Unvollständigkeitssatz

 

http://de.wikipedia.org/wiki/G%C3%B6delscher_Unvollst%C3%A4ndigkeitssatz

 

 

So siehts num mal aus ......mit der KI....

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Was ist jetzt mit den Hologrammen? Ist Dir das zu hoch? Schade. Aber das würde vlt mal jemanden interessieren.

 

Tja ..was soll ich dazu schreiben.

 

Googel ist dein Freund.:D

 

Wenn du da was nicht verstanden hast, dann frag bitte nach. Ich bin nicht eure persönliche Googelmaschiene.

Und ausserdem habe ich mehere Berichte über elektromagnetische Strahlung b.z.w. Licht geschrieben.

 

Wenn du diese Artikel verstanden hast , dann würdest du so eine Frage nicht stellen.

 

MFG

 

Bak

Link to comment
Share on other sites

Ich bin nicht eure persönliche Googelmaschiene.

 

Er spricht nicht für "uns". "Wir" finden dich nämlich klasse! Und ICH lese sehr gerne deine Beiträge.

Dieser Thread hier ist übrigens der einzige Thread den ich sogar abonniert habe. Mit Emailbenachrichtigung.

 

:ph_cheers:

Edited by PfAndy
Link to comment
Share on other sites

Beam me up Scotty

 

Ja ja ja ich weiss das ist Star Trek und nicht Star Wars, aber diese Frage wird halt immer wieder gerne gestellt

 

Wieviele Atome hat ein Durchschnittsmensch überhaupt

 

Für eine erste grobe Abschätzung wird davon ausgegangen, dass der Mensch die Masse 70 kg hat (Normmensch) und er zu 80% (Gewichtsprozent) aus Wasser und zu 20% aus Kohlenstoff besteht. Die anderen Elemente werden für die Grobabschätzung vernachlässigt.

 

Masse des Kohlenstoffs beim Normalmenschen: mkohlenstoff = 0,20·70 kg = 14 kg

 

Masse des Wassers beim Normalmenschen: mwasser = 0,80·70 kg = 56 kg Wasser (H2O) besteht aus Wasserstoff (relative Atommasse 1) und Sauerstoff (relative Atommasse 16). Somit gilt für die Masse des Wasserstoffs und des Sauerstoffs beim Normalmenschen:

 

und

 

Berechnung der Zahl N der Atome in einem Element mit der relativen Atommasse Ar mit Hilfe der Avogadrozahl Na:

 

Abschätzung der Zahl der Wasserstoffatome:

 

Abschätzung der Zahl der Sauerstoffatome:

 

Abschätzung der Zahl der Kohlenstoffatome:

 

Insgesamt hat nach dieser Abschätzung der Normalmensch ca. 6,7·10 hoch 27 Atome.

 

Geht man davon aus, dass im Mittel jedes Atom den Durchmesser 10 hoch -10 m besitzt, so ergibt sich bei einer Aneinanderreihung der Atome des Normalmenschen eine Kettenlänge von 6,7·10 hoch 17 m. Da die Entfernung Erde-Sonne etwa 1,5·10 hoch 11 m ist, kann die Strecke zwischen Erde und Sonne mit den Atomen etwa mal ausgelegt werden.

 

Was haben wir bis jetzt gelernt ?

 

Das aufgrund der Heisenbergschen Unschärferelation niemals der Ort und die Geschwindigkeit eines Quantenteilchens ( Elementarteilchens) gleichzeitig gemessen werden kann.

 

Es gibt hier nur ein entweder oder... niemals beides ...

 

Und das Materie in der mikroskopischen Einzelbetrachtung auch Welleneigenschaften haben kann, wissen wir ja nun auch.

 

Das Beamen in der Sci - Fi

 

Wir wollen jetzt einen Menschen beamen. Dazu müssen wir wissen wo sich jedes Molekül und die dazugehörigen Atome mit den Elektronen aufhalten. Das es nicht geht wissen wir ja, aber nur mal angenommen.

Jetzt brauchen wir von jedem Atom die Ortsangabe ( Länge, Höhe,Breite) zu einem bestimmten Bezugpu***t.

 

Nehmen wir mal so eine Koordinate, also ein Atom im menschichen Körper

 

1,00003425 m von Punkt Null der auf dem Boden ist.

0,00000032 m nach links

0,00001834 m nach hinten

 

Das ganze mal dieser Zahl, bis alle Atome erfasst sind.

 

67000000000000000000000000000

 

und das sind noch nicht alle Daten :D

 

Dann hätten wir alle Atome in einem Durchschnittskörper.

 

Datenspeicher

 

5 Terrabyte = 5000 Gigabyte ist glaube ich zur Zeit grösster Einzelfestplattenspeicher.

Welche die grösser sind, sind natürlich Festplatten im Verbund.

So nun stapel diese Festplatte bitte 5 Lichtjahre hoch ( schätzung, vor 15 Jahren waren es noch ca. 100 Lj)

Das Licht alleine brauch 5 Jahre um diese Strecke zurück zu legen, vom auslesen der Festplatte ganz zu schweigen.

 

 

Science vs. Fiction - Das Beamen

 

 

SPIESSER im Ideenpark - Kann man beamen?

 

 

Sci Xpert: 004 Wird Beamen möglich sein?

 

http://www.youtube.com/watch?v=F6WSldxcUdk

 

Quantensprung

 

http://www.youtube.com/watch?v=iRjgDtrIN4w Teil 1

 

http://www.youtube.com/watch?v=M133w0XFGGU&feature=relmfu Teil 2

 

 

Ich weiss selber das niemals ein sehr entgültiger Begriff ist, aber es liegt nun mal in der Natur der Dinge das es nicht funktionieren kann. Auch eine Zivilisation die 3 Millionen Jahre älter ist als wir, auch die werden daran nichts ändern können.

 

An die übrigen Leser

 

Ich entschuldige mich erstmal für die Verallgemeinerung. Ich möchte euch halt zeigen wie spannent Wissenschaft sein kann. Man bekommt halt im Leben selten was geschenkt, wenn euch was interessiert.... schaut nach....lest nach ....macht euch schlau. Und geht nicht immer den einfachen Weg ....

Wie ich schon geschrieben habe ist das hier Hobby und es steckt wirklich viel Arbeit drinn und das ich deshalb nicht alle Keinigkeiten beantworten kann oder will, wenn ich es eigentlich schon gemacht habe. Na ja wie auch immer.

Ich danke euch allen für das lesen dieses Threads und das wir es so weit geschafft haben......

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Tja ..was soll ich dazu schreiben.

 

Googel ist dein Freund.:D

 

Wenn du da was nicht verstanden hast, dann frag bitte nach. Ich bin nicht eure persönliche Googelmaschiene.

Und ausserdem habe ich mehere Berichte über elektromagnetische Strahlung b.z.w. Licht geschrieben.

 

Wenn du diese Artikel verstanden hast , dann würdest du so eine Frage nicht stellen.

 

MFG

 

Bak

 

 

Ja Danke für Die Antwort, Bak. Ich frag mich halt nur warum Google ein besserer 'Freund' sein soll als eine echte Person die hier schreibt ? Naja, mußt Du wissen. Ich Find deine zusammenfassungen ja interessant. Aber etwas oberflächlich bzw unvollständig und teils arg unkritisch. Das mit den Hologrammen ist interessant. Und die funktionsweise richtig zu verstehen (was sehr schwer ist) würde viele Fragen in Bezug auf die beschaffenheit der Realität, der Wahrnehmung und des Zussamenhangs zwischen Materie und Energie beantworten. Hier gehts um Erklärungen nicht um Dogmen oder?

 

 

 

Und Leute. Seht mal davon ab mir weiterhin PMs zu senden, Das ist nämlich echtes getrolle was ihr da macht und nicht die Art von Dialog die ich hier führe.

 

schaut nach....lest nach ....macht euch schlau. Und geht nicht immer den einfachen Weg ....

Wie ich schon geschrieben habe ist das hier Hobby und es steckt wirklich viel Arbeit drinn und das ich deshalb nicht alle Keinigkeiten beantworten kann oder will, wenn ich es eigentlich schon gemacht habe. Na ja wie auch immer.

 

Zieh doch mal in Betracht, das andere auch viel Arbeit in ihre Gedanken zu diesen Themen investiert haben und das vlt sogar als mehr als ihr hobby betrachten? Warum nicht jede Kleinigkeit erklären? Warum nicht mit anderen die eigenen Meinungen und Ansichten diskutieren? .. warum immer den einfachen Weg wählen?

 

In diesem Sinne, Besten Gruß

Edited by Hitomo_x
Link to comment
Share on other sites

Die ewige Diskussion

 

 

 

Es kommt immer wieder die Frage auf was die Zukunft bringt. Und da war natürlich der Podcast von Qctacun der sehr viel Anklang gefunden hat.

 

Ich

 

Es wird keine vernünftigen neuen Elemente mehr geben , und wenn zerfallen sie praktisch sofoer wieder.

 

Gildenkollege

 

Du kannst nicht wissen was man in 1000 Jahren hat

 

Ich

 

Auch in 1000 Jahren gelten die Naturgesetze und neue Elemente kann man zwar erschaffen und die können es in das Periodensystem schaffen, aber die sind so was von instabil das sie sofort wieder zerfallen, weil der Atomkern die Protonen nicht halten kann ( Starke Wechselwirkung)

 

Gildenkollege ( studiert Metallurgie )

 

Als man Stahl schmiedete, hat mal einer den brüchigen Stahl in Kohle gehalten und er wurde fester. Wie du siehst geht es doch, das man Materialien verändern kann. Das heißt nicht das man so ein neues Element in der Schublade findet und es wird schwer sein es herzustellen aber die Möglichkeiten bestehen.

 

Ich ( beiss schon so langsam in mein Keyboard )

 

Du vergleichst chemische Ablaufe mit quantenmechanischen. Das ist wie Obst mit Gemüse zu vergleichen. Quantenmechanische Abläufe lassen sich nicht beeinflussen. Mit was sollte das gehen ? Das kleinste Energiespektrum ( was ich kenne ) sind Gammastrahlen und die sind einfach zu groß für Quanten ( Elementarteilchen )

 

Gildenkollege

 

Vielleicht gibt es in 1000 Jahren Energieformen die wir heute noch nicht haben

 

 

 

So .... diese Diskussion kann man ewig so weiterführen. Einige Leute wollen einfach nicht zuhören oder verstehen oder mich einfach nur in den Wahnsinn treiben.

 

Natürlich habe ich auch eine feste Meinung über die Physik und bin schwer von meinem Standpunkt abzubringen.

 

Ich sage immer das Wissenschaft nicht in Stein gemeißelt ist, aber bestimmte Dinge werden sich halt auch in der Zukunft nicht ändern.

 

Dazu gehört für mich das quantenmechanische Abläufe sich nicht beeinflussen lassen ( wenns nicht stimmt haut mir principat oder werjo auf die Finger)

 

Radioaktive Halbwertszeit

 

Beim radioaktiven Zerfall ist die Halbwertszeit diejenige Zeitspanne, in der die Menge und damit auch die Aktivität eines gegebenen Radionuklids durch den Zerfall auf die Hälfte gesunken ist.50% der Atomkerne haben sich unter Aussendung von ionisierender Strahlung in ein anderes Nuklid umgewandelt; dieses kann seinerseits ebenfalls radioaktiv sein oder nicht. Für jedes Nuklid ist die Halbwertszeit eine feste Größe, die sich nicht (nur in Ausnahmen ganz geringfügig) beeinflussen lässt.

 

Nun habe ich zufällig bei einem Interview mit dem Lesch was gehört, dass man die Halbwertzeiten von radioaktivem Material doch verkürzen kann.

 

Harald Lesch bei Pelzig

 

http://www.youtube.com/watch?v=BWnSnrKPcYs

 

Man umgeht die quantenmechanischen Abläufe und bedient sich eines Tricks....

 

 

Gibt es Ansätze, die Halbwertszeit von Atommüll zu verkürzen?

Lässt sich Atommüll zur Energiegewinnung nutzen, kann man also eine Art Atommüllrecyclingkraftwerk bauen?

 

Ja, es gibt Ansätze, hochradioaktiven langlebigen Abfall so zu behandeln, dass seine Strahlung deutlich schneller abklingt. Das Verfahren heißt Abtrennung und Umwandlung, im Fachjargon „Partitioning und Transmutation“: Die hochradioaktiven Bestandteile werden zunächst aus den abgebrannten Brennstäben herausgelöst, zu neuen “Brennelementen“ umgearbeitet und dann durch Beschuss mit sehr energiereichen Neutronen in andere Stoffe umgewandelt. Diese haben kürzere Halbwertszeiten oder sind sogar stabil, also nicht mehr radioaktiv.

 

Im Labor konnten alle wesentlichen Schritte dieses Verfahrens bereits durchgeführt werden. Ob es auch in der großtechnischen Anwendung funktioniert, soll in einer experimentellen Pilotanlage (MYRRHA) im belgischen Kernforschungszentrum in Mol erprobt werden. Das Verfahren könnte nach Meinung vieler Wissenschaftler die Menge des hochradioaktiven Abfalls aus Kernkraftwerken, der sicher endgelagert werden muss, reduzieren und die Dauer der Endlagerung drastisch verkürzen.

Hochradioaktive Atome in Brennstäben

 

In heute üblichen Kernkraftwerken wird das Isotop Uran 235 für die Energiegewinnung genutzt. Isotope sind Atome einer Elementsorte. Sie haben alle die gleiche Anzahl an positiv geladenen Teilchen (Protonen) in ihren Kernen, unterscheiden sich aber durch die Zahl der neutralen Teilchen (Neutronen) dort. Der Kern des Uran 235 etwa enthält 92 Protonen und 143 Neutronen, bei Uran 238 sind es ebenfalls 92 Protonen, aber 146 Neutronen. Dringt ein weiteres Neutron in den Kern des Uran 235 ein, wird das Isotop instabil und zerfällt. Es entstehen zwei leichtere Atomkerne und zwei bis drei einzelne Neutronen. Die ebenfalls frei werdende Wärmeenergie wird zur Stromerzeugung genutzt.

 

Treffen die losgelösten Neutronen auf ein weiteres Uran 235, läuft erneut eine Kernspaltung ab. Es kommt zur Kettenreaktion, die bei kontrolliertem Verlauf die Wärme- und Stromerzeugung im Kernkraftwerk sicher stellt. Die Neutronen können aber auch auf andere Uran-Isotope treffen, die ebenfalls in den Brennstäben enthalten sind, etwa auf Uran 238. Auch dann kommt es zu Umwandlungsprozessen. Es entstehen andere hochradioaktive Atome, vor allem Plutonium, Neptunium, Americium und Curium.

Umwandlung in weniger strahlende Isotope

 

Etwa ein Prozent der abgebrannten Brennstäbe besteht aus diesen hochradioaktiven Isotopen. Sie strahlen sehr lange und haben Halbwertszeiten zwischen zehntausenden und hunderttausenden Jahren. Beim Zerfall senden sie unter anderem Alpha-Strahlung aus, die bei Aufnahme in den menschlichen Körper die Zellen stark schädigt. Das Verfahren der Transmutation soll diese Stoffe in Isotope umwandeln, deren Radioaktivität deutlich schneller abklingt.

 

Dazu müssen sie zunächst, etwa durch chemische Reaktionen, aus den Brennstäben herausgelöst werden. Die abgetrennten Isotope werden zu neuen „Brennelementen“, so genannten Transmutationselementen, verarbeitet und in einer Transmutationsanlage mit sehr energiereichen Neutronen bestrahlt. Dadurch kommt es, ganz ähnlich wie im Kernkraftwerk, zur Kernumwandlung und zur Spaltung der Isotope. Es entstehen Isotope mit geringeren Halbwertszeiten.

 

Verkürzte Endlagerung

 

Das Verfahren der Abtrennung und Umwandlung kann mehrfach wiederholt werden. Nur die dann übrig bleibenden „Reste“ sowie Bestandteile, die bei der Abtrennung der hochradioaktiven Isotope aus den abgebrannten Brennstäben der Kernkraftwerke übrig bleiben, müssten sicher endgelagert werden. Dies wäre allerdings nicht über sehr lange geologische Zeiträume von mehreren hunderttausend Jahren erforderlich, wie bei den unbehandelten Brennelementen aus Kernkraftwerken. Stattdessen würde eine Endlagerung über einen historischen Zeitraum von etwa 500 Jahren ausreichen.

Obwohl die Neutronen in einer solchen Transmutationsanlage aufwändig erzeugt werden müssen, produziert die Anlage mehr Energie, als sie für ihren Betrieb benötigt. Die restliche Energie könnte also zur Stromerzeugung eingesetzt werden. Dient die Anlage auch nicht in erster Linie diesem Zweck, so könnte man doch von einem „Atommüllrecyclingkraftwerk“ sprechen.

Pilotanlage in 20 Jahren

 

Noch ist dies allerdings Zukunftsmusik und viele Fragen, etwa zur Abtrennung der hochradioaktiven Isotope, zur Brennstoffherstellung, zur Materialwahl und zur Neutronenerzeugung, müssen noch geklärt werden. Bis eine erste Demonstrationsanlage ihren Betrieb aufnimmt, dürften noch an die 20 Jahre vergehen.

Angesichts der internationalen Renaissance der Kernenergie sehen viele Wissenschaftler in diesem Verfahren jedoch eine wichtige Alternative zur direkten Endlagerung, die unter dem Gesichtpu**nt der Rückholbarkeit auch wissenschaftlich vorangetrieben und technisch umgesetzt werden muss. Zurzeit werden weltweit 57 neue Kernkraftwerke in 14 Ländern gebaut.

 

Wie funktioniert eine Transmutationsanlage?

 

Eine Transmutationsanlage besteht im Wesentlichen aus drei Komponenten: einem Protonenbeschleuniger, einem so genannten Spallationstarget und dem „Brennelement“ mit den hochradioaktiven Isotopen.

 

Die ersten beiden Komponenten dienen der Erzeugung sehr energiereicher Neutronen. Protonen aus dem Beschleuniger rasen mit hohen Geschwindigkeiten auf das Spallationstarget, das aus einem schweren flüssigen Metall besteht. Beim Aufprall zerplatzen die Metallatome und pro Proton werden bis zu 50 Neutronen freigesetzt. Mit diesen sehr energiereichen Neutronen werden die umzuwandelnden Isotope in den um das Spallationstarget angeordneten „Brennelementen“ beschossen. Durch Kernumwandlung und Kernspaltung entstehen Isotope mit leichteren Kernen. Diese haben eine weitaus geringere Radiotoxizität (das ist die gesundheitliche Gefährdung für den Menschen) und eine kürzere Halbwertszeit.

 

Kein GAU

 

Anders als beim Leichtwasserreaktor (das ist der heute am häufigsten verwendete Kernkraftwerkstyp) stammen die energiereichen Neutronen nicht aus einer sich selbst erhaltenden Kettenreaktion. Vielmehr müssen sie extern erzeugt werden. Wird der Protonenstrahl, der die Neutronen aus dem Spallationstarget herausschlägt, abgeschaltet, entstehen keine weiteren Neutronen, die Spaltung stoppt. Die Gefahr eines Kernschmelzunfalls (auch GAU genannt), bei dem die Kettenreaktion außer Kontrolle gerät und der Reaktor „durchbrennt“, besteht also nicht. Bestehen bleibt jedoch die grundsätzliche Gefahr der Proliferation, also der Herstellung und Weitergabe von Material zum Atombombenbau. Aufgrund der hohen Strahlung und Giftigkeit der Transmutations-Brennelemente, die nur mit Robotern gehandhabt werden können, scheint ein Missbrauch jedoch unwahrscheinlich.

 

Meine Meinung ist, das wir rein technologisch vorhersagen können was die Zukunft bringt oder nicht bringt.

Das Argument ...vor 200 Jahren haben die auch gesagt man wird nie zum Mond fliegen können, dass gilt leider nicht mehr. Die Naturwissenschaften greifen so stark ineinander das und dank der Vernetzung,uns kaum was entgeht.

 

Also ... keine neuen Elemente mit denen wir was anfangen können, keine Überlichtgeschwindigkeit, keine fliegenden Autos a`la " Zurück in die Zukunft", kein Fluxkompensator, keine künstliche Schwerkraft, keine Energiewaffen in Handformat wie in Star Wars, keine Antimaterie für Antriebe, kein Beamen.

 

Und ET war auch noch nicht hier..... Ätschibätschi ;)

 

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Weltraumschrott

 

Unter Weltraummüll, auch als Weltraumschrott bezeichnet, versteht man nichtfunktionale künstliche Objekte in einer Umlaufbahn, aber auch Trümmerteile, die nach einem Wiedereintritt die Erdoberfläche erreichen.

 

Laut Modellen der ESA, befinden sich über 600.000 Objekte mit einem Durchmesser größer als 1 cm in Umlaufbahnen um die Erde. Nur ein Bruchteil davon, etwa 13.000 Objekte, kann mit Hilfe des amerikanischen Space-Surveillance-Systems kontinuierlich beobachtet werden.

 

Im Jahr 1996 sollen sich nach ESA-Daten rund 8.500 Stück größerer künstlicher Objekte im Erdorbit befunden haben.Das Joint Space Operations Center des United States Strategic Command weiß 2009 von über 18.500 vom Menschen hergestellten Himmelskörpern.

 

Number of Objects in Space: 1957 to present

 

 

 

Im Rahmen von Weltraummüll-Messkampagnen werden mit Hilfe von Radaranlagen und Teleskopen sporadische Messungen durchgeführt. Hierbei können Objekte bis hinunter zu einem Durchmesser von 2 mm (durch Goldstone-Radarbeobachtungen) im Low Earth Orbit (LEO) und bis zu 10 cm (durch das ESA Space Debris Telescope am Teide-Observatorium auf Teneriffa) im Geostationären Orbit (GEO) detektiert werden. Solche Beobachtungen werden zur Validierung von Weltraummüll-Modellen wie MASTER verwendet. Eine weitere Quelle für Informationen über die Weltraummüllumgebung sind zurückgeführte Satellitenoberflächen. Dazu zählen unter anderem die Solarzellen des Hubble-Weltraumteleskops. Auf letzteren wurde eine Vielzahl an Einschlagkratern erfasst und ausgewertet. Mit Hilfe spektroskopischer Analysen konnten auch Rückschlüsse auf die Zusammensetzung und somit die möglichen Quellen der eingeschlagenen Objekte gezogen werden.

 

Die Abhängigkeit der Teilchengröße und Anzahl für einen 400-km-Orbit gibt im Groben die Abhängigkeit im Orbit bis ca. 10 km Höhe wieder:

 

300 Mio Teilchen > 1 mm

600 000 Teilchen > 1 cm

ca. 20 000 Teilchen > 10 cm

Ca. 16 000 Teilchen größer als 10 cm sind katalogisiert. Ihnen können Satelliten zur Not ausweichen. Leichte Teilchen kleiner als 1 mm lassen sich durch dünne Aluminiumbleche abschirmen. Kritisch sind Objekte im Bereich 1 cm bis 10 cm, die einen Satelliten zerstören können.

 

Die durchschnittliche Relativgeschwindigkeit zwischen Weltraummüll und Satellit beträgt zehn Kilometer pro Sekunde. Aufgrund der hohen Geschwindigkeit besitzt ein Teilchen von 1 cm Durchmesser eine Energie von 50 kJ.

Bei vollständiger Abbremsung wandelt ein 10-cm-Teilchen eine Energie von 50 MJ um, was der Sprengkraft von mehr als 10 kg TNT entspricht.

 

10kg liquid explosive vs stump

 

http://www.youtube.com/watch?v=kOl13bv9slY

 

Die bislang größte Kollision im All, ein Zusammenstoß zweier Satelliten, ereignete sich am 10. Februar 2009. Ein deaktivierter russischer Kommunikationssatellit und ein Iridium-Satellit kollidierten in 789 km Höhe über Nordsibirien. Beide Satelliten wurden dabei zerstört. Die Kollision setzte eine erhebliche Menge weiteren Weltraummülls frei

 

 

 

Es gibt wohl keinen Ort den wir nicht zumüllen

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Satelliten

 

 

Satelliten kreisen in ganz unterschiedlichen Höhen über der Erde. Es kommt darauf an, wofür sie verwendet werden. Für Erdbeobachtungen ist eine niedrige Bahnhöhe zwischen 200 und 600 km günstiger, denn so haben die vom Satelliten gemachten Bilder eine höhere Auflösung. Außerdem kann er so in kurzer Zeit weite Teile der Erdoberfläche erfassen, denn zum einen bewegt sich der Satellit in geringer Höhe sehr schnell (einmal um die Erde herum schafft er in 95 Minuten) und zum anderen dreht sich die Erde unter ihm hinweg.

 

Kreisbahngeschwindigkeit (Zirkulargeschwindigkeit) beträgt nahe der Erdoberfläche rund 7,9 km/s, die Umlaufzeit rund 88 min. Je größer der Abstand von der Erde, desto kleiner ist die Kreisbahngeschwindigkeit und desto größer die Umlaufzeit. So fliegt ein Satellit in 36 000 km Höhe noch mit einer Geschwindigkeit von 3,065 km/s und benötigt zu einer Umkreisung des Erdballs 24 h, d. h., er steht immer an derselben Stelle über dem Äquator (geostationäre Umlaufbahn).

 

Geostationäre Umlaufbahnen haben eine Höhe von etwa 36000 km! Der Satellit benötigt hier für einen Umlauf knapp 24 Stunden. Genauso schnell dreht sich auch die Erde um sich selbst. Dadurch scheint der Satellit immer an der gleichen Stelle am Himmel zu stehen. Oder anders herum gesehen: er befindet sich immer über dem gleichen Gebiet der Erde. Das ist für Wettersatelliten wichtig oder auch für TV-Satelliten, die eine ständige Verbindung mit den Satellitenschüsseln am Boden halten müssen.

 

Neben der Bahnhöhe gilt es auch zu entscheiden, in welcher Region sich der Satellit bewegen soll. Da gibt es z.B. die Äquatorebene, oder man lässt den Satelliten über Nord- und Südpol hinwegziehen. Es kommt eben darauf an, was er für Aufgaben erfüllen soll. Satelliten, die GPS-Signale zur Erde schicken, umspannen die Erde wie ein Netz und befinden sich auf vielen verschiedenen Bahnen. So ist gewährleistet, dass das Navigationssystem im Auto oder auf einem Schiff immer Verbindung zu mehreren Satelliten gleichzeitig hat. Und egal wohin man sich auf der Erde bewegt, zu einigen Satelliten hat man auf diese Art immer Kontakt.

 

Schon gewusst?

 

Satelliten kann man am Himmel entdecken, obwohl sie so klein sind und in einigen hundert Kilometern Höhe über unsere Köpfe hinwegziehen! Wer aufmerksam den Sternenhimmel betrachtet, wird innerhalb kurzer Zeit Lichtpunkte entdecken, die nicht am gleichen Platz bleiben, sondern langsam und stetig weiterwandern.

 

Aber nicht mit Flugzeugen verwechseln! Deren Lichter blinken. Das Licht eines Satelliten ist ganz ruhig und meist leicht hellblau. Nach einigen Minuten ist er dann verschwunden.

 

Ist es möglich, dass man Satelliten in der Nacht am Himmel sehen kann?

 

Jein. Wirklich in der Nacht nicht, aber kurz nach Sonnenuntergang bzw. kurz vor Sonnenaufgang. Bedingung dafür nämlich, dass man Satelliten oder auch die Internationale Raumstation sehen kann ist, dass es auf der Erde bereits dunkel ist, der Satellit aber noch von der Sonne angestrahlt wird.

 

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

Entropie

 

In dieser bestimmten Sci-Fi Serie ( SG- Atlantis ) wird es immer wieder angesprochen, dass das Subraumvakuum in den ZPM "maximale Entropie" erreicht.

 

Entropie ist ein Begriff aus der Thermodynamik, der aus dessen zweiten Hauptsatz folgt. Der zweite Hauptsatz besagt, dass Wärme (Energie) niemals ohne Zuführung von Arbeit (Energie) von kälteren (Punkt mit weniger Energie) Orten zu wärmeren (Punkt mit mehr Energie) fließt. Eine weiterführende Definition ist, dass sich in einem Raum absoluter Energiegleichverteilung (homogener Zustand), ohne Zuführung neuer Energie in Form von Arbeit, diese homogene Verteilung niemals von alleine entmischen (also in einen heterogenen Zustand zurückgeführt) wird.

 

Man kann sich dieses physikalische Prinzip am ehesten an folgendem Beispiel vorstellen: Man nimmt ein Becken eiskaltes Wasser und ein Becken kochend heißes Wasser und lässt die Wärme über einen Generator von dem warmen ins kalte Becken laufen. Dabei treibt der Wärmestrom den Generator an. Sobald jedoch beide Becken gleich warm sind, bleibt der Generator stehen. Obwohl noch Restwärme (Restenergie) vorhanden ist, kann man mit dem Generator keine Energie gewinnen, da nun beide Wasserbecken gleich warm sind und zwischen ihnen deshalb keine Energie mehr fließen kann, die den Generator antreibt. (Dies nennt man in der Physik den Zustand "maximaler Entropie".)

 

Alpha Centauri 152 Was ist Entropie

 

http://www.youtube.com/watch?v=Ml6WUbx_Rpk&feature=fvwrel

 

Entropie - ScienceSlam Finale - Von Kühltürmen und der Unumkehrbarkeit der Dinge

 

 

Maximale Entropie hat man auch mit einem Kartenspiel

 

Ihr habt ein neues Kartenspiel, wo noch alle Karten geornet sind. Ihr fangt an zu mischen. Ab einen bestimmten Punkt sind die Karten so stark gemischt, dass es nicht mehr besser geht. Das wäre auch maximale Entropie

 

Wie ihr seht taucht da noch sehr viel Fachchinesisch auf ... wird aber alles noch erklärt

 

MFG

 

Bak

Edited by Bakhtosh
Link to comment
Share on other sites

×
×
  • Create New...