Kontrollierte Kernfusion: Sonnenfeuer-Experimente liefern erstmals ein Energie-Plus

US-Forscher haben einen wichtigen Meilenstein auf dem Weg zur kontrollierten Kernfusion erreicht: Unter Laserbeschuss verschmolzen Wasserstoffkerne in Sekundenbruchteilen und setzten mehr Energie frei als hineingepumpt wurde.

Die Sonne macht es vor: In ihrem heißen, dichten Zentrum verschmilzt unablässig Wasserstoff zu Helium. Dabei wird Energie frei, am Himmel als feurige Sonnenglut zu erkennen. Es ist ein lang gehegter Wissenschaftler-Traum, diese Kernfusion auf der Erde nachzuahmen: Die überschüssige Energie könnte billig, klimaschonend und ungefährlich den Bedarf der Menschheit decken. Jetzt vermelden US-Forscher im Fachblatt Nature einen wichtigen Schritt auf diesem Weg: Unter Laserbeschuss verschmolzen Wasserstoffkerne in Sekundenbruchteilen und setzten dann erstmals mehr Energie frei als die Laser hineingepumpt hatten.

Energieplus in Kernfusionsexperiment


Die gekühlte Haltevorrichtung für den Reaktionszylinder ? die Fusionskammer. Quelle: LLNL

Enormer Gerätepark

„Es ist uns gelungen, aus der Kernfusion mehr Energie herauszubekommen, als das Brennstoffkügelchen vorher aufgenommen hatte“, erklärt Omar A. Hurricane, Physiker an der National Ignition Facility (NIF) des Lawrence Livermore National Laboratory. Die Experimente hätten das Zehnfache früherer Versuche geliefert und damit endlich den – wenn auch winzigen – Überschuss erreicht. Dafür hatte Hurricanes Team einen enormen Gerätepark aufgebaut: Insgesamt 192 Hochenergie-Laser füllten eine ganze Halle und zielten mit ihrer Gesamtleistung von tausend Milliarden Watt auf die Mitte eines nur bohnengroßen Metallzylinders. Innen mit Gold beschichtet, saß im zentralen Hohlraum des Zylinders eine tiefgekühlte Brennstoffkapsel mit Deuterium- und Tritium-Atomen. Diese beiden Varianten schweren Wasserstoffs verschmelzen besonders gut.

Der Erfolg der Forscher zeigte sich dann in der ausgeklügelten Abfolge der Laserpulse: Binnen weniger millionstel Sekunden pumpten die Geräte ihre gesamte Energie in den Hohlraum und erzeugten eine Schockwelle aus Röntgenstrahlung, die die Wasserstoffprobe auf knapp ein Drittel ihrer Größe zusammenpresste. Dabei erhitzte sie auf mindestens 100.000.000 °C und bildete ein glühendes Plasma. In Dichte und Temperatur entspricht das dem Zentrum der Sonne und ist die Voraussetzung für die erhoffte Kernfusion.

17,3 Kilojoule

Damit das Plasma überhaupt entsteht und nicht sofort wieder zusammenbricht, müssen die Laserpulse optimal geformt und synchronisiert sein – das hatten Hurricane und Kollegen in den vergangenen Jahren immer weiter optimiert. Und tatsächlich fanden sich unter mehreren Dutzend Durchläufen insgesamt vier, bei denen die im Zylinder entstandene Fusionsenergie größer war als jene, die die Laser zuvor hineingepumpt hatten. Ein Meilenstein.

Zwar entsprach dieser Netto-Gewinn nur maximal 17,3 Kilojoule – etwa dem Energiegehalt von anderthalb Mignon-Batterien. Doch ist dies etwa zehnmal mehr als bisherige Deuterium-Tritium-Verschmelzungen geliefert hatten. Allerdings gilt der Energie-Überschuss nur für In- und Output des Brennstoffkügelchens. Würden die gesamten Energiekosten des Experimentes mit eingerechnet, rutscht die Bilanz wieder tief ins Minus. Denn schon von der Energie, welche die Laser in den Hohlraum feuerten – bis zu 1,9 Megajoule –, wurde nur ein Hundertstel auf den Brennstoff übertragen. Der Rest ging bei anderen Prozessen verloren, etwa beim Verdampfen des Zylinders.

Selbsterhitzende Alpha-Teilchen

Entsprechend arbeiten die Forscher weiterhin daran, den Fusionsprozess zum Selbstläufer zu machen. „Das wirklich Aufregende ist, dass wir einen stetig wachsenden Anteil an Energie von jenem selbstverstärkenden Prozess bekommen, den wir Selbsterhitzen der Alpha-Teilchen nennen“, erklärt Hurricane. Damit benennt er das Hauptziel: Der Fusionsprozess wird erst dann als Energiequelle nutzbar sein, wenn Wasserstoffkerne nicht nur im Moment des Befeuerns verschmelzen, sondern in einer Kettenreaktion auch benachbarte Brennstoffkerne zum Verschmelzen bringen. Die Selbsterhitzung gilt als Schlüssel für die ersehnte Zündung der Kettenreaktion – im Versuch trugen die entstandenen Alphateilchen mit rund einem Drittel zur Energiebilanz bei.

Die Kernfusion gilt als Energiequelle der Zukunft, weil sie prinzipiell das Gegenteil der Kernspaltung ist, bei welcher große Atomkerne zu kleineren, radioaktiven Kernen zerfallen. Anders als in heutigen Atomkraftwerken entsteht vor allem ungefährliches Helium. Seinen großen Kern bilden mehrere Kerne des kleineren Wasserstoffatoms. Zum Zusammenhalt benötigen sie weniger Energie als zuvor, so dass Licht- und Wärmeenergie frei wird.

Zur Zündung der Fusions-Kettenreaktion müssen die Startatome soweit befeuert werden, dass sie implodieren und dabei die nötige Hitze und Druck erzeugen. Im Gegensatz zur Atomspaltung bricht die Kettenreaktion aber sofort zusammen, wenn die kontinuierliche Brennstoffzufuhr stoppt. Als künftige Energiequelle gilt die kontrollierte Kernfusion auch deshalb, weil Wasserstoff als Brennstoff quasi unbegrenzt vorhanden ist und keine Treibhausgase entstehen. Theoretisch könnte jedes Gramm Brennmaterial 80 bis 100 Kilowattstunden an Energie liefern – damit ließen sich rund 350 Haushalte einen Monat lang versorgen.

Zwei Wege zum Fusionsreaktor

Allerdings kämpfen Teams weltweit auf dem Weg zur technischen Umsetzung mit den Tücken der Praxis. „Wann uns die Zündung gelingt, ist zurzeit noch nicht absehbar“, erklärt Hurricane – davon sei sein Experiment noch weit entfernt. Wissenschaftler wollen das Ziel Fusionsreaktor vor allem auf zwei Arten erreichen: Per blitzartiger Laserbefeuerung wie am kalifornischen NIF, der so genannten Trägheitsfusion, bei der allerdings weitaus öfter und kontinuierlicher gefeuert werden müsste als im aktuellen Experiment. Oder per „Magnetfusion“, wobei Wasserstoffgas und später das heiße Fusionsplasma durch starke Magnetfelder eingeschlossen wird.

Europa setzt seine Hoffnungen eher auf den Forschungsreaktor ITER, der nach diesem Prinzip arbeiten soll und derzeit in Südfrankreich entsteht. Er soll beweisen, dass ein Fusionskraftwerk in rund 40 Jahren möglich sein wird. In Greifswald entsteht zurzeit ein kleineres Fusionsreaktor-Experiment, das Projekt Wendelstein 7-X des Max-Planck-Instituts für Plasmaphysik (IPP).

Die jüngsten Versuche am Lawrence Livermore National Laboratory, an dem auch Militärforschung betrieben wird, liefern nicht nur der Fusionsforschung wichtige Einsichten. Sie helfen auch dem Verständnis der Atomwaffenphysik, denn die Abläufe bei der Trägheitsfusion entsprechen grob jenen bei der Explosionszündung einer Wasserstoffbombe. Simulationen und Analysen in diesem Bereich helfen auch dabei, existierende Thermonuklearwaffen instandzuhalten. Denn aktuell ist das aktive Testen von Kernwaffen durch internationale Verträge verboten.

via: http://www.heise.de/newsticker

Fenster kühlen sich von selbst

Diese Fenster kühlen sich von selbst durch ein integriertes Kühlwasser-System. Entwickler von der Harvard University in den USA haben die ersten Fensterscheiben entwickelt, die sich in brütender Hitze nicht erwärmen und die Hitze ins Haus lassen, sondern sich selbstständig und umweltverträglich kühlen. Wie die “coolen” Fenster von der Harvard Universität funktionieren und wie man die Fenster zur sauberen Warmwassergewinnung nutzen kann erklärt dieser Artikel.

Integriertes Kühlwasser-System in den Fenstern

Das Prinzip der selbstkühlenden Fenster basiert auf einem integrierten Kühlwasser-System. Hauchdünne Venen ziehen sich durch die Fensterscheibe und sobal es draußen heiß wird, wird Wasser durch die dünnen Kanäle gepumpt. Dieses nimmt die Wärme der aufgeheizten Fenster auf und transportiert sie ab. Das Kühlsystem soll es ermöglichen Fenster ohne nennenswerten Energieaufwand bis zu 8 Grad abzukühlen.


Fenster die sich von selbst kühlen

Die größte Herausforderung während der Entwicklung der neuen Fenster von der Harvard University bestand darin, die Kanälchen für das menschliche Auge unsichtbar zu gestalten und Schmutzpartikel aus den Kanälen fern- um die Scheiben so sauber zu halten.

Gekühlte Fensterscheiben zur Wärmegewinnung einsetzen

Eigentlich sind hier nicht die Fensterscheiben, sondern mehr das abtransportierte Wasser gemeint. Denn dieses wird automatisch erwärmt und kann später als Warmwasser genutzt werden. Wenn man darüber nachdenkt, wie viel Fläche Fensterscheiben es in Gebäuden, vor allem in gläserne Hochhäusern gibt, sieht man das Potential von Glas für Energiegewinnung an sich.

via: http://www.dvice.com/

Solarzellen zu Hause selber drucken

Solarzellen: Kann sie bald jeder zu Hause selbst drucken? Zwei deutsche Unternehmen, die kurz vor dem Produktionsbeginn von organischen Solarzellen stehen, bekommen Konkurrenz aus Australien. Nach fünfjähriger Forschungsarbeit hat das Victorian Organic Solar Cell Consortium, ein Forschungsverbund, dem mehrere Unternehmen und Forschungsinstitutionen angehören, die wohl größte Zelle der Welt vorgestellt, die in einem 3D-Druckverfahren hergestellt wurde.

Die Drucktechnik ähnelt der für Banknoten aus Kunststoff, an der Wissenschaftler des Materialforschungsinstituts CSIRO mitgearbeitet haben. Der eigens für die Herstellung von organischen Solarzellen entwickelte Drucker kostete 200000 Australische Dollar (rund 150000 Euro). Die Zelle ist so groß wie ein Blatt Briefpapier. „In naher Zukunft kann jeder sich zu Hause solche Solarzellen ausdrucken“, sagt CSIRO-Materialforscher Scott Watkins. Die ersten 3D-Drucker zu Preisen um 1000 Euro sind bereits auf dem Markt. Nach Schätzungen des Konsortiums wird es allerdings noch ein paar Jahre dauern, ehe die Zellen serienreif sind.

Die bisherigen Module aus Australien haben einen Wirkungsgrad von bestenfalls sechs Prozent. Eine im Labor in Handarbeit hergestellte Zelle von Heliathek, einem jungen Unternehmen, das in Dresden und Ulm angesiedelt ist, kommt dagegen auf zwölf Prozent. Die Australier streben zehn Prozent an. Gute Siliziumzellen erreichen mehr als 20 Prozent.

Der Drucker für Solarzellen

Organische Solarzellen haben eine Reihe von Vorteilen, verglichen mit den üblichen Zellen aus Silizium. Sie lassen sich ohne großen Energieverbrauch herstellen. Umweltschädliche Materialien werden nicht eingesetzt. Sie sind extrem leicht und biegsam. Einzige Nachteile: Der niedrige Wirkungsgrad und der frühzeitig einsetzende Alterungsprozess, der die Effektivität reduziert. Die Australier „hoffen“, dass ihre Zellen länger als zehn Jahre durchhalten. Siliziumzellen kommen auf 20 Jahre und mehr.

Wie viel die Zellen kosten können die Forscher nicht sagen. Sie sollen allerdings deutlich billiger sein als die, die heute auf dem Markt sind. Wie sie genutzt werden wissen sie dagegen schon ganz genau. Weil sie flexibel sind, können sie auf beliebig geformte mobile Geräte geklebt werden, um diese mit Strom zu versorgen.

Sie könnten auch in Kleidungsstücke integriert werden, um beispielsweise Sensoren zu versorgen, die den körperlichen Zustand überwachen. Zudem lassen sie sich als Vorhänge nutzen, die nebenbei zu starke Sonneneinstrahlung verhindern, und in Fassaden integrieren. Da sie beliebig einfärbbar sind werden sie zu architektonischen Gestaltungselementen an Fassaden.

An den Entwicklungsarbeiten sind zehn Unternehmen, darunter Bosch Singapur, und Forschungseinrichtungen beteiligt, die ihr Know-how im Victorian Organic Solar Cell Consortium gebündelt haben.

Hier erklärt CSIRO-Forscher Scott Watkins seine Druck-Technologie:

via: http://green.wiwo.de/

Windenergie: Neue Windturbine schmiegt sich an Hausfassaden

Windräder haben sich seit ihrer Erfindung vor mehr als 3000 Jahren kaum verändert: Flügel rotieren im Luftstrom und verwenden die Energie, um ein Getriebe zu bewegen. Niederländische Forscher wollen mit diesem Prinzip jetzt radikal brechen: Sie haben eine Windturbine entwickelt, die ganz ohne bewegliche Teile auskommt. Statt drehender Flügel nutzt sie fallende Wassertropfen, um Strom zu erzeugen.


Copyright: TU Delft

Das klingt nach einem verspäteten Aprilscherz. Aber auf dem Campus der Technischen Universität Delft ist seit kurzem ein Prototyp des neuartigen Kraftwerks installiert. Der Electrostatic Wind Energy Convertor, kurz Ewicon, besteht aus einem etwa drei Meter hohen Rahmen, indem zahlreiche Rohre horizontal untereinander angebracht sind.

Jedes Rohr ist mit Elektroden bestückt – und außerdem mit Düsen, die kontinuierlich Wassertropfen abgeben. Diese sind positiv geladen – zum Beispiel durch einen hohen Salzgehalt. Weht der Wind diese Tropfen nun davon, dann entsteht ein elektrischer Strom. Und den kann man ins Stromnetz einspeisen.

Vorteil des Systems: Es gibt keine beweglichen Teile, die verschleißen könnten. Das verspricht geringere Wartungskosten als bei heutigen Windrädern. Zudem verursacht die Wassertropfen-Windturbine keinen Lärm und keine nervig flackernden Schatten. Auch stellt die Anlage keine Gefahr für Vögel dar.

Hausfassade erntet Windenergie

“Das Ewicon könnte künftig in Städten eingesetzt werden”, hofft der Ingenieur Dhiradj Djairam, der die neuartige Turbine im Rahmen seines Phd mitentwickelt hat. “Es könnte sich etwa als flache Fassadenschicht über Häuser ziehen und dort Strom produzieren.” Auch für den Offshore-Einsatz sei die Technik ideal: “Salzwasser gibt es dort im Überfluss”, sagt Djairam. Und gerade bei Offshore-Windrädern sind Techniken gefragt, die den teuren Wartungsaufwand verringern.
Noch aber ist die Erfindung der Holländer lange nicht leistungsstark genug für den kommerziellen Einsatz. “Wir wandeln derzeit im Labor nur ein bis zwei Prozent der Windenergie in Strom um”, sagt Djairam, “das sind einige Watt pro Quadratmeter.” Eine Turbine von der Größe eines Sechs-Megawatt-Windrades käme nur auf 0,5 Megawatt Leistung.

Darum will Djairam mit seinen Kollegen die Technik jetzt deutlich effizienter machen. “Wir wollen 15 bis 20 Prozent der Windenergie in Strom umwandeln”, sagt er. Damit könnten Großanlagen dann vielleicht mit herkömmlichen Windrädern in Wettbewerb treten.

Sehen Sie hier, wie das neuartige Windkraftwerk funktioniert:

via: http://green.wiwo.de

Schwarze Materie entdeckt

Die letzten ungelösten Rätsel der Physik

Das Higgs-Teilchen ist entdeckt – und es erklärt, warum es Materie gibt. Trotzdem bleiben viele Phänomene im Universum mysteriös. Was wir sehen, aber nicht verstehen – ein Überblick.

Die Aufnahme des Weltraumteleskobs „Hubble“ zeigt Galaxien im Strenbild Fische. Die leuchtend blau dargestellte Substanz könnte dunkle Materie sein

Teilchenphysik

Von einem „historischen Meilenstein“ sprach Cern-Direktor Rolf-Dieter Heuer am Mittwoch, nachdem seine Forscher bekannt gegeben hatten, dass sie höchstwahrscheinlich auf das lange gesuchte Higgs-Boson gestoßen seien.

Bereits 1964 von dem Physiker Peter Higgs vorhergesagt, bildet das Partikel das zentrale und bis zuletzt unbewiesene Element des Standardmodells der Teilchenphysik, das unsere Welt beschreibt.

Higgs zufolge umgibt uns ein unsichtbares Feld: Jedes Teilchen, das hindurchfliegt, wird langsamer und hat somit eine Masse. Das erklärt, warum es Materie gibt: uns Menschen, Planeten wie die Erde, Sterne wie die Sonne.

Das Feld gibt sich nur durch seine Schwingungen zu erkennen – in Form von Higgs-Teilchen. Damit ist aber noch längst nicht alles klar; denn das Standardmodell kann nur einen kleinen Teil des Universums erklären. Etliche Phänomene geben Physikern weiterhin Rätsel auf.

Schwarze Materie

Mindestens 100 Milliarden Sterne sowie 50 Milliarden Planeten, so schätzenAstronomen, gibt es allein in der Milchstraße, unserer Galaxie. Doch nur etwa vier Prozent der für uns sichtbaren und messbaren Masse im Universum scheinen der uns vertrauten Materie zu entsprechen – wie sich der gewaltige, unsichtbare Rest zusammensetzt, ist ein Mysterium.

Ungeklärt ist in diesem Zusammenhang Folgendes: Obwohl die Galaxien zu ihren Rändern hin immer schneller rotieren wie gigantische Karussells und deshalb durch die Fliehkraft eigentlich auseinanderfliegen müssten, scheint eine geheimnisvolle Masse sie zusammenzuhalten, eine Art Sternenkitt. Sie leuchtet nicht und reflektiert kein Licht, sie gibt sich nur durch ihre Anziehungskraft (Gravitation) zu erkennen: Dunkle Materie. Dieser Stoff soll etwa 23 Prozent des Universums ausmachen.

Einsteins allgemeiner Relativitätstheorie zufolge krümmt die Schwerkraft den Raum und lenkt Licht ab. Dieser Effekt ist umso größer, je mehr Masse ein Körper hat. So kreist etwa die Erde um die Sonne, weil diese den Raum (den man sich für dieses Beispiel als eine Fläche vorstellen darf) eindellt und dadurch unseren Planeten festhält.

Viele Astrophysiker gehen davon aus, dass Dunkle Materie aus Teilchen besteht, die viel Masse haben. Verbände aus solchen Teilchen würden Licht ablenken; durch diesen Mechanismus sollten sie sich indirekt offenbaren. Diesen Ansatz verfolgt zumindest ein Team um Jörg Dietrich von der Universitäts-Sternwarte München.

Die Forscher wiesen nun bei den zwei Galaxienhaufen Abell 222 und Abell 223 nach, dass das Licht hinter diesen Galaxien verzerrt wird – vermutlich, glauben die Forscher, durch die gravitative Wirkung der Dunklen Materie.

Dies sei der erste stichhaltige Beleg für die These, dass ein Netz aus Dunkler Materie das Weltall durchzieht, schreibt das Team vorab in der Online-Ausgabe des Journals „Nature“. An den Kreuzungspunkten dieses Netzes könnten Galaxienhaufen entstanden sein, in denen mehrere Galaxien wie unsere Milchstraße existieren.

Nach bisher unbekannten massereichen Teilchen suchen Forscher auch bei mehreren Experimenten, die im Innern des Gran-Sasso-Massivs in Italien stattfinden. Mit speziellen Detektoren versuchen die Forscher, sogenannte Wimps (Weakly Interacting Massive Particles) aus der kosmischen Strahlung herauszufiltern, die permanent auf die Erde niedergeht.

Einer anderen Idee gehen Physiker am Cern nach. Der Theorie der Supersymmetrie zufolge hat jedes der bisher entdeckten Elementarteilchen noch ein Partnerteilchen. In der Natur traten sie nur kurz nach dem Urknall auf. Das leichteste dieser Teilchen, „Susy“ genannt, könnte allerdings noch existieren und die Dunkle Materie bilden.

Am Teilchenbeschleuniger Large Hadron Collider (LHC) in Genf, wo jetzt wahrscheinlich der Nachweis des Higgs-Bosons gelang, versuchen die Wissenschaftler, auch das „Susy“ zu erzeugen – bisher allerdings erfolglos.

Dunkle Energie

Das Weltall wächst nicht immer langsamer, wie Forscher seit den 1920er-Jahren annahmen, sondern immer schneller – zu diesem Schluss kamen die Astronomen Saul Perlmutter, Brian Schmidt und Adam Riess. Sie hatten explodierende Sterne studiert und dabei gemessen, dass diese sogenannten Supernovae sich in zunehmendem Tempo von uns entfernen.

Dafür könnte eine unbekannte Kraft verantwortlich sein, die Dunkle Energie. Sie füllt vermutlich etwa 73 Prozent des Universums. Offenbar, so lassen es die Erkenntnisse der Forscher vermuten, ist die Dunkle Energie stärker als die Dunkle Materie, welche Galaxien zusammenhält. Für diese Entdeckung erhielt das Trio 2011 den Nobelpreis für Physik.

Hinweise auf die rätselhafte Kraft finden soll etwa das Röntgenteleskop ROSITA, das am Max-Planck-Institut für extraterrestrische Physik in München entwickelt wird. An Bord des russischen Satelliten Spectrum-X-Gamma wird das Instrument ab 2013 weit entfernte Galaxienhaufen mustern, um Vorstellungen von der Dunklen Energie zu überprüfen.

Antimaterie

Zu jedem Elementarteilchen gibt es ein Antiteilchen, das über die gleiche Masse, aber eine entgegengesetzte elektrische Ladung verfügt (nur die neutralen Neutrinos haben neutrale Antiteilchen). Das ist schon lange bekannt und bewiesen: Erstmals vorhergesagt hatte den Stoff 1928 der britische Physiker Paul Dirac. Kurz darauf wurde Antimaterie experimentell bestätigt – und Dirac erhielt den Nobelpreis.

Zur Anwendung kommt Antimaterie in der Medizin: In PET-Scannern (Positronen-Emissions-Tomografie) werden Antiteilchen der Elektronen, die Positronen, genutzt, um zum Beispiel Tumore zu erkennen. Schwieriger ist es, ganze Anti-Atome herzustellen. Forschern am Cern in Genf gelang es immerhin mehrfach, Anti-Wasserstoffkerne zu erzeugen und zu vermessen – wenn auch nur für maximal 17 Minuten.

Auf der Erde existiert Antimaterie also. Aber wo ist die Antimaterie im Weltraum hin? Der Urknalltheorie zufolge entstanden vor 13,7 Milliarden Jahren zunächst Materie und Antimaterie in gleichen Mengen. Da sich diese beiden aber prinzipiell gegenseitig auslöschen, sollte nur Licht übrig geblieben sein.

Tatsächlich existiert offensichtlich Materie, etwa in Form der Planeten. Eine These ist, dass im Kosmos bisher unentdeckte Bereiche aus Antimaterie existieren könnten. Nach Hinweisen darauf sucht etwa das Alpha-Magnet-Spektrometer, ein Instrument auf der Internationalen Raumstation.

Eine andere These geht davon aus, dass sich Materie und Antimaterie nach dem Urknall minimal unterschiedlich verhielten, sodass etwas Materie übrig blieb. Lange nahmen Physiker an, dass Antiteilchen sich genauso verhalten wie ihre Gegenparts. Doch 1972 wiesen japanische Physiker eine Abweichung zwischen schweren Quarks und ihren Antiteilchen nach. Zu einer solchen sogenannten CP-Verletzung könnte es nach dem Urknall gekommen sein.

Deshalb suchen Physiker auch im restlichen Standardmodell nach Abweichungen zwischen Teilchen und Antiteilchen, etwa bei Neutrinos. Das Interessante an diesen fast masselosen Partikeln ist, dass es drei Arten von ihnen gibt, die sich im Flug jeweils in eine andere Art verwandeln können.

Diese sogenannte Neutrino-Oszillation untersuchen Experimente wie OPERA mit einem Detektor, der im Gran-Sasso-Massiv untergebracht ist. Er misst Teilchenstrahlen, die 732 Kilometer entfernt am Cern in Genf erzeugt werden. Ergäben diese und weitere Tests, dass sich Neutrinos häufiger umwandeln als Antineutrinos, ließe sich damit womöglich rekonstruieren, was nach dem Urknall geschah.

via: http://www.welt.de/wissenschaft

Norwegen will Europas Akku werden

Wind- und Solarstrom sind chronisch unzuverlässig. Energiemanager suchen deshalb nach Speichern, die sie in dunklen und windstillen Zeiten anzapfen können. Ein norwegischer Konzern will Wasserkraftwerke im Norden zur Batterie für den ganzen Kontinent machen. [Read more…]

Schwimmende Windräder liefern Strom im Überfluss

Auf hoher See wehen die stärksten Böen. Im Meer flexibel verankerte Plattformen werden mit Windrädern bestückt und sollen die Energie aus den Stürmen nutzen. Erste Anlagen sind bald einsatzbereit. Einen kapitalen Brocken von mehr als 20.000 Tonnen will das norwegische Unternehmen Hexicon zu Wasser lassen. Die schwimmende Plattform besteht aus sechs Knotenpunkten, die mit massiven Streben verbunden sind. Darauf werden mehr als 30 Windräder platziert.

Damit die im Durchmesser fast einen halben Kilometer große Plattform nicht durch die See treibt, ist sie an Granit- oder Betonpfeiler gebunden, die am Meeresboden verankert sind.

Und sie sitzt auf einem Drehkopf, damit sie sich am Wind ausrichten kann. Das erhöht nicht nur die Ausbeute an Windenergie, es bewahrt auch vor Schäden durch zu starke Winde. Letztlich sollen die auf der Plattform montierten Rotoren mehr als 50 Megawatt Strom produzieren.

So könnten sie aussehen, die Windkraftanlagen der Zukunft: Sie stehen nicht mehr an Land oder in eher seichtem Gewässer wie in der Nordsee, sondern schwimmen auf hoher See.

In Japan sollen sieben Projekte umgesetzt werden, eine Anlage ist schon zu Wasser gelassen, eine größere mit zwei Megawatt folgt 2013. Auch Mitsubishi will sich an einem der Projekte beteiligen und 2017 eine Anlage schwimmen lassen.

Vor der Nordküste Spaniens ist ein 1,5-Megawatt-Windrad geplant. Der norwegische Konzern StatoilHydro will einen ganzen Park schwimmender Anlagen vor der Küste des US-Bundesstaates Maine installieren. Vier solcher Anlagen können zusammen zwölf Megawatt Strom erzeugen – weit draußen auf hoher See.

„Je tiefer das Wasser, desto stärker der Wind darüber“, sagt Jochen Bard. Der Abteilungsleiter für Meeresenergienutzung beim Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES) in Kassel forscht daran, wie man Windkraftanlagen auf hoher See wirtschaftlich installieren kann.

Das geht nur über schwimmende Windräder, da sich im tiefen Wasser, über dem die starken Winde wehen, keine Gerüste auf dem Meeresboden errichten lassen, auf denen die Anlagen montiert werden.

Potenzial geht Richtung unendlich

Weltweit arbeiten Wissenschaftler an der vielversprechenden Technik. „Das Potenzial durch die vorhandene Meeresoberfläche ist praktisch unendlich. Es ist um ein Vielfaches größer als der globale Energiebedarf“, sagt John Olav Tande vom norwegischen Energy Research Centre (Sintef).

Rund um den Globus berechnen Regierungen, wie viel sauberen Strom sie vor ihren Küsten ernten und wie viel Kohlenstoffdioxid sie dadurch einsparen können.

Etwa 60 Prozent der Windkraft-Ressourcen der USA liegen jenseits der Küsten über mindestens 100 Meter tiefem Wasser. Auch Japans Küsten fallen steil ab, ebenso die vor Spanien, Portugal und Norwegen.

8000 Terawattstunden

Das nutzbare Potenzial in diesen umwehten Regionen weit draußen auf dem Meer ist bis zu drei Mal größer als in den Flachwasserzonen bis 50 Meter Tiefe. Allein in Europa, schätzt Bard, ließen sich pro Jahr etwa 8000 Terawattstunden ernten. Zum Vergleich: Der jährliche Stromverbrauch der gesamten E-Länder betrug 2010 etwa 3500 Terawattstunden.

Doch eine viele Hundert Tonnen schwere Windkraftanlage, bei der sich ein 130 Meter großer Rotor dreht und gegen die Wind und Wellen drücken, sturmsicher auf dem Wasser schwimmen zu lassen, ist eine große technische Herausforderung.

Die Maschinen tanzen mit den Wellen und wanken mit dem Wind. Öle im Getriebe und Kühlflüssigkeiten schwappen umher. Auf der Suche nach der idealen Lösung kristallisieren sich drei Schwimmertypen heraus.

Tanzender Turm

Das Spar-Buoy-Konzept ist das Material sparendste. Es sieht einen großen, hohlen Stahlzylinder vor, der als Schwimmer und Turm dient. Genau wie ein Eisberg reicht er weiter unter Wasser als in den Himmel. An seinem tiefsten Punkt ist er mit Ballast gefüllt, so wandert der Schwerpunkt weit hinunter.

Spar-Buoys liegen selbst bei starkem Wellengang stabil in der See. Horizontale Ausschläge sind gering, doch je nach Verankerungsart bewegen sie sich „bis zu 20 Meter“ in vertikaler Richtung, wie Bard sagt.

Problematisch ist der immense Tiefgang. Damit sind nur Standorte mit etwa 200 Meter Wassertiefe erschließbar. Auch das Installieren des Turms und der Anlage ist aufwendig, schließlich muss der Turm liegend aufs Meer geschleppt, geflutet, gekippt und schließlich verankert werden. Dann erst montieren Techniker das Windrad.

Das Unternehmen Sway aus Norwegen hatte bereits einen Prototypen im Maßstab 1:6 zu Wasser gebracht. Der aber ist gesunken. Grund ist nicht eine Fehlkonstruktion, sondern die für vier Meter hohe Wellen zu geringe Höhe des Schwimmers, der die Anlage über Wasser halten sollte. Er lief im Modell voll. Derzeit lässt Sway einen weiteren Prototyp zu Wasser, um die Funktionsfähigkeit zu demonstrieren.

Schwebende Plattform

Die Tension-Leg-Plattform eignet sich für Wassertiefen von 50 bis 200 Metern. Ein meist zylindrischer Auftriebskörper wird von straff gespannten Ketten oder Seilen leicht unter Wasser gezogen und auf gleicher Position gehalten.

Die Ketten finden entweder direkt am Meersboden oder an einem schweren Gegengewicht Halt, das nach Angaben Bards „etwa 1000 bis 1500 Tonnen schwer ist“. So liegt die Plattform samt Windrad fest vor Anker. Die Halteketten sind in starker See enormen Kräften ausgesetzt.

Das niederländische Unternehmen Blue-H setzte diesen Typ schon 2007 vor der italienischen Küste ins 113 Meter tiefem Wasser ein. Da das Windrad jedoch nie lief, fehlen Erfahrungswerte.

Tauchende Plattform

Halbtaucher-Plattformen werden bereits an einem Prototyp vor Portugal erforscht. Die Plattform, meist ein dreieckiges Stahlgerüst mit senkrecht stehenden Zylindern, eignet sich ebenfalls für Tiefen bis 200 Meter. Unten sind große Platten angeschweißt, um vertikale Bewegungen zu hemmen. Die Anlage lässt sich an Land in einem Trockendock aufbauen – ein großer Vorteil gegenüber den anderen Konzepten.

Auch das Windrad installieren und testen Techniker vorab. Anschließend wird das Dock geflutet und die Anlage auf See geschleppt. Am Aufstellungsort angekommen, nehmen Ingenieure den Schwimmer an die Leine. So lassen sich defekte Maschinen bequem im Dock reparieren.

„Es ist zu früh, ein Gewinner-Konzept auszurufen“, sagt Sintef-Forscher Tande. Als Treiber der schwimmenden Windkraft gilt jedoch Hywind. Das Projekt basiert auf einem Spar-Buoy-Konzept.

Statoils Testanlage ist bereits seit September 2009 in Betrieb. Zwölf Kilometer vor der Südwestküste Norwegens schwebt die Maschine im Atlantik. Sie reicht 100 Meter in die Tiefe, drei am Meeresboden befestigte und locker gespannte Seile halten sie auf Position.

Ganz unten ist die Boje mit insgesamt 3000 Tonnen schwerem Wasser und Steinen befüllt, um den Schwerpunkt weit unten zu halten. Aus dem Meer ragt der Turm 65 Meter hoch, und oben thront ein 2,3 Megawatt starkes Siemens-Windrad.

82 Meter Durchmesser

Allein die Gondel samt Rotor, der einen Durchmesser von 82 Metern hat, wiegt 138 Tonnen. Bard bezeichnet das Projekt, in das mittlerweile etwa 50 Millionen Euro flossen, als „Meilenstein“.

Auch Siemens zeigt sich optimistisch: „Allein im Jahr 2011 hat Hywind 10,1 Gigawattstunden Strom geliefert. Eine Anlage an einem guten Landstandort kommt gerade auf sechs Gigawattstunden“, sagt Per Egedal, Abteilungsleiter Technologie bei Siemens Wind Power.

Erste Schwimmversuche macht gerade auch Windfloat, ein Projekt von Energias de Portugal. Der Energiekonzern hat sich von Principle Power einen Schwimmkörper bauen lassen und darauf ein Zwei-Megawatt-Windrad des dänischen Herstellers Vestas montiert.

Windfloat wurde im Herbst vergangenen Jahres fünf Kilometer vor der Küste Portugals in etwa 45 Meter Tiefe verankert. Zum Einsatz kommt ein Halbtaucher, der für Tiefen um die 50 Meter konzipiert ist.

Ingenieure haben die Anlage in einem Trockendock aufgebaut und dann samt Windrad aufs Meer geschleppt. Die Halteseile waren bereits am Grund befestigt. So lassen sich Windräder nach dem Plug-and-play-Prinzip schnell und ohne großen Aufwand installieren.

1200-Tonnen-Koloss

Im Vergleich zur Spar-Buoy, die 100 Meter Tiefgang hat, ragt Windfloat nur etwa 20 Meter tief unter die Oberfläche. Der 1200-Tonnen-Koloss weist allerdings eine Besonderheit auf: Das Windrad ist nicht mittig, sondern auf einem der drei senkrecht stehenden Zylinder installiert.

Damit die Turbine unter Last nicht wegkippt, sondern stets im Idealwinkel zum Wind steht, hält ein aktives Ausgleichssystem es in Position. Im Innern der drei je acht Meter dicken Stahlzylinder sind Kammern eingerichtet, zwischen denen je nach Schräglage bis zu 100 Tonnen Wasser hin und her gepumpt werden.

Das hat allerdings den großen Nachteil, dass ein Teil der gerade gewonnenen Energie schon wieder verbraucht wird

via: www.welt.de/wissenschaft/

Solarzellen bald halb so teuer

Das Startup Unternehmen Twin Creeks Technologies hat ein neues Verfahren entwickelt, mit dem sich die Produktionskosten für Solarzellen um 50 Prozent senken lassen. Der CEO des Unternehmens Siva Sivaram sagte, in dem neuen Verfahren werde die Menge des verwendeten Siliziums reduziert und zudem seien die Kosten für die Fertigungsanlagen für die neue Technologie deutlich günstiger.

Solarzellen 50 Prozent günstiger herstellen

Nach Meinung des CEO können mit der neuen Technologie, die entstehenden Kosten für Solarzellen von bislang rund 80 US Cent auf 40 US Cent je Watt gesenkt werden. Mit dem Verfahren sollen die deutlich dünneren Wafer aus kristallinem Silizium hergestellt werden.

Dicke der Wafer auf 10 Prozent reduziert

Bislang zerschnitt man im Herstellungsverfahren Siliziumblöcke oder Siliziumzylinder in 200 Mikrometer dicke Wafer. Theoretisch allerdings würde eine Dicke von 20 – 30 Mikrometern ausreichen, um bei gleicher oder sogar besserer Effizienz, Sonnenlicht in grüne Energie umzuwandeln. In dem Verfahren, das von Twin Creeks Technologies entwickelt wurde, werden nun Wafer mit einer Dicke von nur 20 Mikrometern produziert. Ein weiterer Vorteil ist, dass die Wafer nahezu ohne anfallende Abfälle produziert werden. Laut dem CEO des Unternehmens kann durch das neue Verfahren die Menge des für die Wafer Produktion benötigten Siliziums um fast 90 Prozent reduziert werden.

Hauptfokus liegt auf Vertrieb der neuen Technologie

Durch die neue Technologie lassen sich die so gefertigten Wafer, laut Twin Creeks Technologies in bestehenden Produktionsanlagen verarbeiten. Das Unternehmen sieht seinen Hauptfokus im Vertrieb der neuen Technologie und dazugehöriger Fertigungsanlagen und nicht in der Produktion von Solarzellen. Bis zum nächsten Jahr wolle man einige weitere dieser Produkte für den Markt bereithalten. Weitere solar Ideen, wie die LED Solar Straßenbeleuchtung oder die aquasun Solarpanels zeigen, dass das Interesse daran Sonnenlicht in elektrische Energie umzuwandeln stetig anhält.

Quelle: www.technologyreview.com/energy/

Die Batterie der Zukunft

Elektromotoren gelten als der Autoantrieb der Zukunft. Schwachpunkt sind heute noch die Batterien: zu schwer, zu schwach, und das Laden dauert zu lange. Forscher am Karlsruher Institut für Technologie (KIT) entwickeln einen neuartigen Typ von Batterie. Der neue Energiespeicher soll ohne Blei und ohne Lithium auskommen. Stattdessen sollen Metall-Fluoride dafür sorgen, dass die Batterie deutlich mehr Ladung speichern kann als bisher.

Quelle: Deutsche Welle

Sonnenlicht aus allen Richtungen

Revolutionäre Sphelar Solarzellen nutzen Sonnenlichteinstrahlung aus allen Richtungen. Die von einem japanischem Unternehmen entwickelten Sphelar Solarzellen sind kugelförmig und in der Lage Sonnenlichteinstrahlungen aus allen Richtungen nutzen zu können. Anders als bei den bisherigen Solarzellen, die nur aus einer Richtung einfallendes Sonnenlicht nutzen können, sind die revolutionären Sphelar Solarzellen in der Lage, deutlich effizienter zu arbeiten.

Revolutionäre Sphelar Solarzellen

Kugelförmige Sphelar Solarzellen sind in der Lage, Sonnenlicht aus allen Richtungen einzufangen und in alternative Energie umzuwandeln. Um diesen Effekt auch bei herkömmlichen Solarmodulen zu erreichen, haben einige Unternehmen diese auf Gestellen gelagert, die sie mittels Motoren der Sonne nachgeführt haben. Dieses ist bei den neuen Sphelar Solarzellen nicht mehr notwendig, da sie durch die besondere Bauform in der Lage sind rundherum einfallendes Sonnenlicht zur Energiegewinnung nutzen zu können.

Wirkungsgrad von fast 20 Prozent

Während herkömmliche Solarpanels zwar in der Herstellung leichter zu fertigen sind, lässt sich durch die Kugelform bei den spährischen Mikropartikel Solarzellen eine verbesserte Effizienz erreichen. So lassen sich zusätzliche Gestelle und Motoren vermeiden, mit derer Hilfe man bislang herkömmliche Solarzellen dem Sonnenstandpunkt folgen ließ. Durch das besondere Design der Sphelar Solarzellen soll sich auch indirekte Sonneneinstrahlung nutzen lassen. Das japanische Unternehmen Kyosemi spricht bei den revolutionären Solarzellen von einem Wirkungsgrad bei der Energieumwandlung, der bei fast 20 Prozent liege.

Für eine Vielzahl von Anwendungen nutzbar

Mit dem Wirkungsgrad von fast 20 Prozent liegen die Sphelar Solarzellen deutlich über dem Wirkungsgrad, der von meisten bisherigen flachen Fotovoltaik Technologien erreicht wird. Durch das besondere Design sollen die Sphelar Solarzellen für eine Vielzahl von Anwendungen genutzt werden können. Denkbar sei unter anderem auch der Einsatz für mobile elektronische Geräte wie Smartphones oder Tablet PCs. Bleibt abzuwarten, ob eventuelle Produktionsmehrkosten gegenüber herkömmlichen Solarmodulen, durch die höhere Effizienz aufgerechnet werden können.

via: http://www.kyosemi.co.jp