2010-12-27

Nokia N900

Nokia N900 und Maemo 5



Jetzt bin ich also pünktlich zum Ende des Jahres auch in der Smartphone-Welt angekommen und es war abzusehen, dass nur ein Linux-unterstützendes Handy in Frage kommen konnte.
Da mir jedoch Android in seiner Oberfläche zu eingeschränkt schien und ich auch nicht unbedingt auf die Mainstream-Gleise springen wollte kam für mich als Alternative nur das Nokia N900 mit der Nischen-Dstribution Maemo 5 in Frage.

Ein Mitgrund für diese Entscheidung war auf jedenfall vor allem die aufschiebbare mechanische Tastatur, da ich auf ein zu häufiges Getatsche auf dem integrierten Touchscreen verzichten kann. Auf jedenfall bietet es aber auch ein sehr schickes Design und fasziniert mit seiner Fülle an Funktionen und informationstechnischen Möglichkeiten. Aber erstmal eins nach dem Anderen.

Gehäuse
Das Gerät wird in einem standardisierten schwarzen Kunststoffgehäuse geliefert inklusive einem 4,4" Touchscreen. Es wirkt durch seine feine Verarbeitung und den sauber ausgefrästen Umrundungen sehr edel und hat wie schon erwähnt eine mechanische Tastatur mit doppelt gessetzter Bezifferung mitgeliefert. An den Seiten sind Öffnungen für die Schnittstellen Micro-USB und auf der entgegengesetzten Seite eine AV-Cinch-Buchse. Ansonsten sind noch an beiden Seiten Lautsprecheröffnungen angebracht, die auch eine räumlich ansprechende Klangatmosphäre bieten.
Eine weitere positive Eigenschaft ist auch die 5 Megapixel-Autofokus-Kamera mit Optik von Carl Zeiss und zwei LED-Blitzlichtern, die auf Verschlussseite noch einen Infrarotsensor beinhaltet, der die Hardware informiert, dass beim Öffnen in den Foto-Modus umgeschaltet werden soll. Um vorzubeugen, dass zu häufig mit dem Finger über den Touchscreen gefahren werden muss ist ausserdem noch ein Stift enthalten mit welchem der Touchscreen optional angesteuert werden kann - im Gegensatz zu so einigen anderen mir bekannten Smartphones.
Negativ am Gehäuse ist mir jedoch die Umständlichkeit aufgefallen mit welchem sich der Akku entfernen und der Zugriff zu SIM- und SD-Karte freigelegt wird. Erst nachdem ich mein Schweizer Taschenmesser zur Hilfe genommen habe ließ sich die hintere Abdeckung entfernen und ich konnte mir den dort befindlichen Akku mal näher ansehen.

Hardware
Auf Hardware-Seite ist wie bereits erwähnt eine Micro-USB-Buchse enthalten mit denen sich das Smartphone problemlos an jedes Betriebssystem andocken lässt und auch für jedes Betriebssystem externe Flash-programme bezogen werden können mit denen Updates und anderweitige Software eingespielt werden kann. Die Hintergrundbeleuchtung ist über 5 Graustufen regulierbar, jedoch das Display sieht mit seiner 16 Bit Farbtiefe etwas matt aus. Erfreulich ist auch, dass an den Seiten ein Umgebungslichtsensor, ein Abstandassensor und ein Drehwinkelsensor angebracht sind, die auch für eine freie Programmierung eigener Widgets (Apps) und anderweitiger Funktionalitäten verwendet werden können. Mit einem 32GB internem EEPROM-Speicher lässt sich auch noch so einiges an Daten unterbringen. Zusätzlich können noch bis zu 16 GB mittels micro-SD-Karte an der Hinterseite des Gehäuses angebracht werden. Es kann mit allen gebräuchlichen Frequenzbänder gefunkt und Daten übertragen werden, welche sind:
GSM, UMTS, HSPA, EDGE, WLAN, GPS sowie Bluetooth
Negativ ist mir jedoch aufgefallen, dass die Akkulaufzeit nicht sonderlich lange hält. Es ist zwar verständlich, dass durch eine ausgiebige Internetnutzung und eine zeitbeanspruchendes Arbeiten mit dem Gerät die Laufzeit sich drastisch verkürzt, aber dass selbst im Standby-Modus fast alle 2 Tage ein Nachladen nötig ist enttäuscht ein wenig. Jedoch lässt sich aufgrund der Offenheit des Systems und dem vorinstallierten Funktionsumfang darüber hinwegsehen.


Software
Der eigentliche Clue jedes Smartphones bietet natürlich die Software und wie bereits erwähnt ist hier die Linux-Distribution Maemo 5 enthalten, welche mit einer übersichtlichen KDE-Oberfläche ankommt und auch schon einige Programme mitbringt. Der Desktop ist über 4 Bereiche gegliedert und lässt sich im Touchscreen beliebig verschieben. Im Menü sind alle nötigen Informationen zu finden, sowie ein Dateimanager und ein Programmmanager.
Für die Social Communities Twitter, Facebook sowie für Google sind bereits Widgets auf dem Desktop abgelegt. Mit einem Klick darauf öffnet sich ein auf Firefox basierender Browser mit dem gemütlich mittels mechanischer Tastatur und dem Stift als Maus im Internet gesurft werden kann. Im Menü ist sogar eine Linux-Shell enthalten mit denen sich das ganze System noch konfigurieren lässt.
Jedoch war es relativ schwer darauf zu kommen wie man sich als Root einloggt, denn bei einem ständigen Versuch bestimmte Dateien zu öffnen wurde gemeckert, dass man nicht privilegiert dazu sei.
Am Ende stellte sich fest, dass aus dem Internet ein Programm namens Roothsh heruntergeladen werden muss und extern auf dem Gerät installiert werden mit dem lässt sich mittels des Befehls


sudo gainroot
passwd

das vorinstallierte root-Passwort ändern.

Ein weiterer Nachteil ist meiner Meinung nach auch, dass sich die Breite der Widget nicht verändern lassen und man diese wohl oder übel vorerst von Herstellerseite so akzeptieren muss. Da im Endeffekt alle Widgets jedoch auf HTML, CSS und JavaScript zurückzuführen sind ließen sich diese eigentlich auch ohne weiteres im Editor nach belieben anpassen mit einigen Vorabkentnisse. Nur mit dem Layout der ".jpg"-Dateien hätte man möglicherweise ein Problem...

Sehr interessant finde ich auch die Tatsache, dass neben der Distribution Maemo 5 auch noch die Distribution Meego installiert werden kann. Da es sich heirbei um eine ursprünglich für Notebooks und Desktoprechner konzipierte Distribution handelt werde ich gespannt über die Ergebnisse sein sobald ich zu diesem Schritt komme.
Doch vorab werde ich mal versuchen einige Programme für dieses tolle Schmuckstück selber zu schreiben und die enthaltenen Sensoren auch zu nutzen - mal sehen was sich dadurch für lustige Spieler oder sogar zweckmäßige Möglichkeiten zaubern lassen. Eine Entwicklungsumgebung für Maemo 5 stellt Nokia übringens öffentlich im Internet zur Verfügung und kann hier heruntergeladen werden.

Fazit
Alles in allem bereue ich meine Entscheidung zu diesem Gerät keinesfalls. Es ist wirklich ein tolles Smartphone mit bereits einer Menge nützlicher vorinstallierter Funktionen und die Möglichkeit selber Hand an der internen Struktur des Gerätes zu legen und noch so einiges rauszuholen begeistert mich nur um so mehr von der Technik. Bislang stelle ich auch noch keine Mängel fest und vermisse auch keine Funktionalität. Jedoch tat ich mich am Anfang schwer mich an dieses Gerät zu gewöhnen, da man etwas überfordert wird mit dem gelieferten Funktionsumfang.
Was etwas negativ auffiel war jedoch der Update-Manager, der sich zuerst schwer Tat Zugriff zum Nokia-Server zu erhalten um von dort ein Update auf die neuste Version zu bekommen, doch nach einiger Wartezeit ging auch diese Sache. Ich denke, dass hier auch nicht das Handy daran Schuld war sondern eher ein Server-Ausfall, da ich mich im Allgemeinen zur Zeit schwer tue auf die offizielle Maemo-Seite zu gelangen. Wollen wir mal hoffen, dass sich das noch ändert, denn dann bieten sich unbegrenzte Möglichkeiten.


2010-12-14

Videogames

Top 5 Videogames 2010

Da ja heutzutage jeder irgendwo seine persönlichen Charts hat habe ich mir gedacht, da ich in diesem Jahr besonders viel Zeit mit Videospielen vergeudet habe, dass ich mal eine kurze Liste derer aufstelle, die mich in diesem Jahr besonders bewegt haben - natürlich in topologischer Reihenfolge, damit es ja spannend bleibt und eine besonders epische Stimmung bei Betrachtung dieser ausgeklügelten Liste entsteht. Damit es aber nicht langweilig wird werden in dieser Liste natürlich nur Spiele erscheinen, die auch in diesem Jahr erschienen sind, auch wenn die meisten in diesem Jahr von mir begutachteten Kunstwerke bereits in den letzten 2-3 Jahren erschienen sind.


Den Anfang macht das retrospektive Spiel "Scott Pilgrim vs. the world", was einen in die frühen 90er Jahre zurückbringt in welcher die 16-Bit-Ära der Videospielkonsolen eingetroffen ist. Jeder der sich noch an die tollen Action-Adventure-Schlachten auf dem Super Nintendo oder dem Sega Mega Drive erinnert, dem wird dieses Spiel eine Menge Lachmomente bescheren. Die wirklich witzige Darstellung und Anlehnung auf alte Videospielklassiker macht Lust auf mehr und so kam dann doch Motivation auf die alten Kisten mit ihren Originalen wieder rauszukramen und ein paar nostalgische Momente mit guten Freunden zu genießen. Das Spiel wurde aber in seiner Aufmachung und Darstellung bei weitem vom gleichnamigen Film geschlagen.
(Scott Pilgrim vs. the world ist erhältlich in den Downloadportalen für 
PC, PS3 und Xbox360 )

4. Picross 3D

Da ich auch liebend gerne knobel und mir damit einige entspannende Momente beschere kam mir hier "Picross 3D" geradezu recht. Hier geht es darum aus einer 3D-Matrix heraus bestimmte Blöcke zu entfernen, so das ein Bild entsteht. Dabei werden variabel die Anzahl an Blöcke in einer Reihe auf jeder Seite angezeigt, die erhalten bleiben müssen. Der Schwierigkeit steigt und ich habe bis jetzt noch nicht alle Rätsel gelöst, aber es macht jedesmal aufs neue Spaß wieder neue Bilder daraus zu generieren. Die perfekte Abwechslung für monotones Tetris-Geschiebe.
(Picross 3D ist erhältlich für den NDS)

 
3. Super Mario Bros. Wii 

Wie könnte es anders sein - der schnauzbärtige Klemptner und sein grünes Alter Ego sind wieder unterwegs und ehe ich jetzt mit Steinen beworfen werde, weil dieses großartige Comeback nicht auf den ersten Platz gelandet ist möchte ich gleich mal darauf aufmerksam machen, dass 2010 ein mehr als gelungenes Jahr für Spiele-Fetischisten war. Nichts desto trotz "Super Mario Bros. Wii" vereinigt alle Vorteile aus etlichen Super Mario Spiele die damals für den NES und SNES erschienen sind und lässt einem das Spielerherz höher schlagen. Das beste daran ist natürlich die Multiplayerfunktionalität in welchem man mit bis zu vier Spieler auf einem Bildschirm hüpfen kann und aus dem Lachen nicht mehr rauskommt. Man entdeckt überall Elemente aus alten Teilen, die man lange Zeit vermisst hat und aufs neue geht es darum Bowser zu verkloppen. Der rote Klempner macht einfach eine Menge Spaß und deswegen darf er in dieser Liste nicht fehlen.
(Super Mario Bros. Wii ist (welch ein Zufall) erhältlich für die Nintendo Wii)


2. Starcraft II

Und noch ein Wahnsinnscomeback stand im Hause an. "Starcraft II" - ich wiederhole Starcraft II der 2. Teil der epischen Rollenspielsaga ist nach sage und schreibe 12 Jahren erschienen und bietet detailiert grafisches Gemetzel in fernen Galaxien wie man sie sonst nirgends gesehen hat.  Untermalt mit einer hübschen Comic-story, die den 50er Jahren entsprungen sein könnte in welcher man in die Rolle von Captain James Raynor schlüpft, der mit einer Bande von Rebellen einen fürchterlichen Diktator Universal-Diktator Namens Mengsk stürzen will. Alles schonmal gehabt, aber die grafische Meisterleistung und die Tiefe an Charakterstärke die da einhergeht machen wirklich einiges her... was kann da noch kommen...
(Starcraft II ist erhältlich für den PC)


 1. Heavy Rain

Ja, was kann denn da noch kommen.. das ist wahrscheinlich die Überraschung des Jahres. Das Spiel "Heavy Rain" der ultimative Newcomer von Quantum Dreams ist mehr ein interaktiver Film als ein Spiel. Erzählt in einer düsteren und intimen Story erlebt man vier Schicksale am Rande des Wahnsinns und muss erkennen wie hart so ein Krimianlleben sein kann. Es fasziniert mit viel wirklicher Ernsthaftigkeit und dem Grat zum Detail. Man hat eher das Gefühl man würde echte Schauspieler durch eine real existierende Welt steuern, als dass man sich in einem Spiel befindet. Es gibt über 20 verschiedene Enden, so dass eine Menge Variationsmöglichkeiten offen sind und man kann in gewisserweise die Liebe, die in das Spiel hineingesteckt wurde spüren. Wirklich eine perfekte Meisterleistung, die meiner Meinung nach von keinem der diesjährig erschienenen Spiele übertroffen werden konnte.
(Heavy Rain ist erhältlich für die PS3)



2010-11-22

Daft Punk

Daft Punk's Kunstakt zu Tron:Legacy


Einer der Filme auf die ich schon seit Jahren gespannt bin kommt endlich in die Kinos. Im Januar startet Tron:Legacy in den deutschen Kinos und ich freue mich schon wahnsinnig darauf und hoffe, dass Disney es nicht versauen wird. Die Details die bis jetzt über diverse Trailer ans Tageslicht gebracht wurden lassen die Vorfreude aber nur um so mehr steigern.

Da ich den ersten Teil von 1982 schon als einen der genialsten Filme in der Filmgeschichte erachte erwarte ich ein dementsprechend packendes und emotionales Comeback auch bei der Fortsetzung. Was meine Vorfreude noch mehr gestärkt hat ist die Tatsache, dass Daft Punk den kompletten Soundtrack zum Film eingespielt haben. Ein geeigneteres Musikprojekt hätte ich mir für die Thematik des Films auch nicht vorstellen können und so lässt ein kurzer Einblick ins Klangerlebnis meine Spannung steigern - sowohl für das kommende Album als auch auf den Film:

Daft Punk - Derezzed
Daft Punk - Derezzed (original mix)

2010-05-26

Alternative Energie

Über den steigenden Energiebedarf und der sauberen Zukunftsperspektive!


Vorab erstmal ein paar Daten und Fakten, die den Energiehunger auf unserem Planeten deutlich machen. 2008 betrug der weltweite Energieverbrauch 474 Exajoule was in etwa einem kontinuierlichen Verbrauch von 15 Terawatt Tag für Tag entsprach. bis 2015 wird erwartet, dass die Energienachfrage um 54% zunimmt und besonders asiatische Länder, allem vorab China und Indien, tragen mit erwarteter Steigerung von 129% dazu bei. In westlichen Ländern ist der Energieverbrauch pro Kopf der Bevölkerung jetzt schon weit höher als der eigentliche Bedarf. Alleine die USA mit ganzen 20% des weltweiten Energieverbrauchs verantwortlich, obwohl die Einwohnerzahl gerade mal 5% der Gesamtbevölkerung ausmacht. Was vor allem verheizt wird sind Öl und Gas.

Diese fossilen Brennstoffe (Öl, Steinkohle etc.) dienen als Hauptenergiequelle unseres Industriezeitalters. Unser ganzes Leben und unsere Gesellschaft ist auf den Verbrauch von Energie aus fossilen Brennstoffen ausgerichtet. Doch oft wird uns nicht bewusst, dass es sich hierbei um begrenzte Energiequellen handelt, deren Klau aus unserem Planeten ihn irgendwann in eine trockene Ödlandschaft verwandeln könnte. Sobald die Ölquellen ausgeschöpft, die Gasblasen leer und die Steinkohle abgebaut ist fragt man sich: "Was jetzt?".

Doch es gibt zum Glück schon jetzt geplante Alternativen. Ob diese unserem Planeten zu gute kommen oder nicht müsste sich noch heraus stellen, aber allen voran die Sonnen-, Wind- und Wasserenergie, sowie auch die Brennstoffzelle halte ich für sehr umweltfreundliche und vor allem dauerhaft anhaltende Alternativen.
Nichts desto trotz, weil die ersten drei genannten Möglichkeiten ja ohnehin auf unserer Erdoberfläche zu Genüge existieren und es wäre ja eine Schande, wenn wir das was die Natur uns schon an Energie zum Leben schenkt nicht nutzen würden. Allein die Sonne verpulvert pro Sekunde 30.000 Tonnen Masse an Energie pro Sekunde. Davon trifft zwar energetisch nur ein Bruchteil auf unsere Erde, aber immerhin mehr als genug. Das bedeutet zwar, dass unsere Sonne irgendwann erlischen wird, jedoch wird das noch einige Millionen Jahre dauern und wir können uns wenigstens nicht dafür verantwortlich kennzeichnen.
Mit dem zusätzlichen Bau von Wind- und Wasserkraftwerke sowie einigen sollte noch eine Zusatzunterstützung zu den Sonnenkollektoren erfolgen, welche als Alternativenergie genutzt werden kann.
Was dem ganzen jedoch etwas trübt ist, dass die Produktion von Sonnenzellen nach heutigem Stand der Dinge immer noch sehr viele Ressourcen fordert, darüber hinaus gibt es das Problem der Speicherung von erneuerbaren Energien.

Ein ganz anderes Thema ist die Brennstoffzelle, deren Hauptbestandteil der Wasserstoff ist.
Einige Daten hierzu wie Wasserstoff in der Natur vorkommt:

  • Molekül, welches aus zwei Wasserstoffatomen (H²) besteht.
  • gasförmig
  • Wiegt bei Zimmertemperatur und normalem Druck ~0,084g (14x leichter als Luft)
  • dringt einfach durch poröse Materialien und sogar durch Metalle wie Platin
  • reagiert mit Luft und Chlorgas explosiv

Auf die Frage, was uns jetzt diese Daten zum Wasserstoff sagen sollen gibt es nur folgendes zu erwähnen. Wasserstoff lässt sich am einfachsten mittels Elektrolyse (Trennung von Wasser mit Hilfe elektrischen Stroms in Wasserstoff und Sauerstoff) erzeugen. Wobei dabei die Sauerstoffatome an der positiv geladenen Anode eines gut leitenden Metallstabs abfliessen, während die doppelt so hohe Menge an Wasserstoffatomen an der negativen Kathode abfliessen.
In einer Brennstoffzelle wirkt nun die Elektrolyse genau umgekehrt. Mit dem Umkehren der Reaktion entsteht wieder Strom (und sauberes Wasser). Um die Reaktion stattfinden zu lassen, ist wieder ein Elektrolyt erforderlich. Bei Brennstoffzellen ist dies eine spezielle Membran. Da bei handelsüblichen Brennstoffzellen (sogenannten PEM-Brennstoffzellen, die auch bei Zimmertemperatur funktionieren) die erzeugte Spannung zwischen 0,6 und 0,9 Volt liegt werden mehrere Brennstoffzellen in Reihe geschaltet, da diese Spannung für die meisten Anwendungen zu niedrig ist.
Auf diese Art und Weise lässt sich also problemlos eine saubere und erneuerbare Energie erzeugen. Nun noch ein kleines nachfolgendes Bild darüber, wie man sich denn so eine Brennstoffzelle überhaupt vorstellen kann. (Ein Bild sagt ja bekanntlich meist mehr als ein Blog)



Nichts desto trotz hoffe ich doch stark, dass es irgendwann realisierbar sein wird auf erneuerbare Energien wie eben, die Elemente die in unserer Natur zu genüge zu finden sind gesetzt wird und, dass wir von den weltschädigenden Gedanken wegkommen allein auf fossile Brennstoffe und Kernkraftanlagen zu setzen.
Wenn man sich die Frage nach dem Wirkungsgrad stellt, dann denke ich, dass es doch noch etwas Zeit in Anspruch nimmt um auf einen plausiblen Wert zu kommen. Denn so wie es heute aussieht erhält man nur etwa 30% der bei der Elektrolyse von Wasser in Wasserstoff "umgewandelten" elektrischen ENergie nach Rückwandlung des Wasserstoffs in Wasser. Jedoch zeigt sich die umweltfrenudlichkeit wieder darin, dass nur Wasserdampf und kein CO² emittiert wird.
Ein größeres Problem ist jedoch die Verteilung und Erzeugung des Wasserstoffs.
Um der "Gesellschaft mit Wasser als Brennstoff", die Jules Verne 1874 in seinem Roman "Die geheimnisvolle Insel" beschrieb, eine Chance zu geben muss unsere Infrastruktur an Wasserstoff als Treibstoff angepasst werden. Das ist nicht einfach, aber nicht unmöglich.
Die Zukunft wird schon noch zeigen, wie diese Entwicklungen weiter verlaufen, aber ich jedenfalls vertraue auf die Dinge, die uns die Natur ohnehin schon liefert und baue auf Wind, Wasser und Sonne.

2010-05-03

Gewaltdarstellung in Videospielen

Immer wieder die gleiche Leier!


Ein Thema, welches mir schon lange im Kopf herumschwirrt und ich mich jedesmal darüber aufregen könnte ist die ewig währende Shooter-Diskussion. Die zu "Killerspielen" degradierten Games sind für viele Leute, die keinerlei Affinität und Erfahrungen in der Gamingbranche haben schon lange ein Dorn im Auge. Die Vorurteile äussern sich meist knallhart durch Verbotswünsche und Verleugnung und es hieße immer wieder, dass derartiges Material Menschen zu gewalttätigen Handlungen und Amokläufen verleiten solle. Dem ich aber mit gesundem Menschenverstand und nach Betrachtung so einiger Statistiken und psychologischer Berichte von ganzem Herzen widersprechen möchte.

Ich persönlich hale (wie viele bestimmt) das Medium Videospiel von vornherein schon für ein vollwertiges Kulturgut der neuen Medien wie Filme und moderne Musik eben auch, welche durch eine interaktive Beteiligung der Geschehnisse sogar noch die eigene Konzentration auf die Thematik fördert.
Ich fixiere mich hiermal im Folgenden auf den direkten Vergleich zu Filmen.
Merkwürdigerweise wird nie oder selten die Darstellung in Filmen so extrem hinterfragt wie bei diversen Games. Und das lässt sich meiner Meinung nach wie folgt erklären:
Für Filme bringt die Gesellschaft ein Interesse mit sich und ist sich dessen Bewusst, dass in den häufigsten Fällen eine extreme Darstellung von Gewaltbereitschaft und verkommener Gesellschaft den Sinn aufruft einem Menschen ein vergangenes oder gegenwärtiges Problem oder eine schwarzseherische Zukunftsvision näher zu bringen und die Menschheit davor zu warnen, auf welche Weise etwas schief laufen könnte. Über dies hinaus hat es eben noch einen kulturellen und ästhetischen Aspekt die Kreativität und Fantasie der Beteiligten zur Geltung zu bringen wofür wir auch viele Schauspieler und Regisseure schätzen.

Speziell einen "Kriegsfilm" sieht man sich doch auch nicht mit dem Hintergrund an die Geschehnisse auf dem Bildschirm zu befürworten oder aus Sehnsucht nach so einer Zeit.
Nein, genau der Gegenteil ist der Fall und das wissen wir alle. Und so ähnlich verhält es sich bei Spielen mit ähnlichem Pendant auch. Nur das die konsumierende Person in einem Spiel anders als in einem Film zu einer interaktiven Simulation angeregt wird, die dem Spieler ermöglicht sich ins Geschehen hinein zu fühlen, es auf simultane Weise nachzuempfinden und auch hier und da mal schlucken muss - ähnlich wie in einem Film. Nur das man hier direkt aus verschiedenen Blickwinkeln sieht und das ganze sogar noch mehr auf die Eingeweide schlägt, als wenn man objektiv einen Film betrachtet. Man möchte nachempfinden können wie sich die verschiedensten Charaktere in den unmöglichsten Situationen fühlen und was sie daraus machen. Man simuliert mit seinem Charakter eine Welt voller Entscheidungen und Überraschungen, welche von einem Game-Design Team für einen inszeniert worden sind. Und das sich dadurch irgendwelche Gewaltbereitschaft bei Spielern auswirkt ist ein großer konservativer Irrtum, der meistens wie schon eingangs erwähnt aus Mündern kommt, die selber noch nie Hand angelegt haben an ein sogenanntes "Killerspiel".

Allein diese Punkte und Tatsachen lassen mich schon an der Richtigkeit der Journalistik bezüglich der Kritik an Amokläufer und Attentäter auf Spiele zweifeln. Ich selber muss dazu erwähnen bin jetzt auch nicht wirklich der große "Shooter"-Spieler, aber ich habe auch da meine Erfahrungen gemacht und weiss, wie die Leute bezüglich dessen ticken und welche Reize und Hintergründe sie dafür aufbringen.
Genauso wie ein Film nicht zensiert und verboten werden sollte, weil er meistens aus gutem Grund gedreht wurde, sollte ein Spiel auch keine Zensur erfahren. Denn was man daraus macht liegt schliesslich an einem selbst.
Und ebenso wie es schlechte und geschmacklose Filme gibt, gilt das natürlich auch für Spiele und anderweitige Medien. Die Entscheidung liegt bei einem selbst und da sollte sie auch bleiben, denn von politischer Seite auf ein Verbot hin zu arbeiten würde die Lage nur ins Lächerliche und drastische ziehen (mit Blick auf andere Staaten).

2010-04-12

Kernkraft

Meine Energie, unser Leid! Gefahren der Atomkraftwerke!



Für uns ist die Gewinnung lebensnotwendiger Energien ein unausweichliches Schicksal, dem wir uns mit Respekt stellen müssen! Viele von uns leben ihrem Alltag entgegen und machen sich nicht weiter Gedanken wie und woher wir die Möglichkeiten haben, ständig Strom durch unsere Häuser fließen zu lassen, welcher unsere Handys aufläd und das Licht schenkt und die Möglichkeit warme Nahrung zu uns zu nehmen und unsere Wäsche zu waschen.
Doch mittlerweile ist unsere Zivilisation an einem Punkt erreicht indem wir kritisch einem Energiemangel, vor allem durch die fast unausweichlich anstehende Überbevölkerung, entgegensehen.
Bisher ist es uns gelungen durch Kernkraft, Erdöl und Erdgas schier ohne großartige Bedenken um unsere Umwelt und Zivilisation unser Dasein zu fristen. Doch Tchernobyl hat bewiesen, dass nicht immer alles glatt laufen kann.

An diesem denkwürdigen Tag, dem 26. April 1986 ereignete sich folgendes:
Bei der Durchführung eines Versuchs, der einen Totalausfall des Stromnetzes häte simulieren sollen, wurden schwerwiegende Sicherheitsvorschriften gegenüber dem Kernreaktor RBMK-1000 verletzt. Kennzeichnend für diesen Reaktortyp unter dieser Voraussetzung ist ein stark positiver Void-Koeffizient – die Verringerung der Neutronenabsorption des Kühlwassers infolge von Dampfblasenbildung (Dichteänderung) bei Leistungssteigerung. Weiterhin war die betriebliche Reaktivitätsreserve (minimal erforderliche Reaktivitätsbindung durch hinreichend in den Reaktor eingefahrene Steuerstäbe) nicht in das automatische Reaktorsicherheitssystem eingebunden, sondern lediglich ein Minimalwert in den Betriebsvorschriften vorgegeben. Außerdem hatte die Betriebsmannschaft Sicherheitssysteme abgeschaltet, um im Bedarfsfall den Versuch wiederholen zu können. Die automatisch arbeitenden Sicherheitssysteme hätten das ansonsten planmäßig verhindert; wie weit sie – im eingeschalteten Zustand – bei den gegebenen ungeplanten Randbedingungen des Versuchs auch dessen Erstdurchführung oder zumindest den Eintritt einer Katastrophe bei Durchführung verhindert hätten, ist umstritten.
Als der Schichtleiter Akimow schließlich die Reaktorschnellabschaltung auslöste, ist genau dieser Effekt eingetreten: Viele Stäbe fuhren gleichzeitig ein und führten dadurch dem Reaktor mehr Reaktivität zu. Dieser wurde prompt überkritisch, das heißt die Kettenreaktion der Kernspaltungen lief auch ohne verzögerte Neutronen von allein weiter und war daher nicht mehr regelbar. Die Leistung stieg so innerhalb von Sekundenbruchteilen auf ein Vielfaches (vermutlich etwa auf das Hundertfache) der Nennleistung an.
Fakt ist das durch diesen Unfall womöglich tausende Lebewesen ihr Leben ließen, eine akute Strahlenkrankheit davontrugen, Schilddrüsenkrebs, Leukämie und anderweitige Krebserkrankungen.

Dieser Unfall sollte der Menschheit eigentlich als Lehre dienen, dass die Verantwortung die Gewinnung von Atomenergie auf sich zu nehmen unser sowie das Leben unserer ganzen Erde gefährdet.
Von daher spreche ich mich hier öffentlich aus für eine Schließung der Atomkraftwerke und dem Bau zu regenerativen Energiegewinnung.
Denn Wind, Wasser und Sonne liefert uns die Natur schon in Hülle und Fülle und es wäre ein Jammer, wenn wir dieses Geschenk nicht nutzen würden um unseren Planeten auch noch einige weitere Millionen Jahre aufrecht zu erhalten und dennoch auf eine energiereiche Zukunft hoffen können!

2010-03-21

Schwindel im Magen? Unsere Lebensmittelindustrie!



Jeder von uns kennt das:
Nahrung soweit das Auge reicht, die Kühlschränke quillen über und "Fast Food"-Ketten vermehren sich wie die Insekten.
Doch wieviele von uns hinterfragen die Ressourcenbeschaffung und den Lebensmittelanbau? Wenn ihr mich fragt sind das laut meiner Erfahrung betrachtet auf die Anzahl an Menschen mit denen man im Alltag zu tun hat gerade mal eine Hand voll. Dies lässt sich vermutlich auch auf eine Betrachtung des Weltspiegels wiedergeben.

Bei genauerer Aufklärung und Recherchen wird jeder von uns aber feststellen, dass vieles von dem was in unsere Mägen wandert entweder auf höchst unmoralische Art und Weise, wie beispielsweise bei den meisten "Fast Food"-Ketten oder Markenprodukten der Fall, oder umgeben von ehrlichem Schleier als reiner Schwindel gewonnen.

Um hier mal einige Fakten auf den Tisch zu legen:
  • Nestlé: Der weltgrößte Lebensmittelkonzern ist vor kurzem erst in Verrufung geraten da er Palmöl von der indonesischen Unternehmensgruppe Sinar Mas, der vorgeworfen wird, durch den Bau und Betrieb von Papiermühlen ihrer Tochtergesellschaft APP den Regenwald in Indonesien zu zerstören. Nach Greenpeace-Angaben verletzt das Unternehmen internationale Standards und indonesisches Recht, indem es sich an Landkonflikten beteiligt, wertvolle Regenwälder rodet und so den Orang-Utans ihren Lebensraum entzieht.
  • McDonalds: Der weltgrößte Fast Food Lieferant gefährdet die Gesundheit ihrer Kunden stark durch manipulierende irreführender Werbung, trägt große Schuld an unnötiger Grausamkeit gegenüber Tieren, ist abgeneigt gegenüber Gewerkschaften und behandelt dadurch ihre Mitarbeiter menschenunwürdig und zerstört im großen und ganzen auf ziemlich drastische Art und Weise die Natur und die Umwelt in welcher wir uns befinden.
  • Analogkäse in Tiefkühlprodukten:So genannter Analogkäse ist ein künstliches Käse-Ersatzprodukt aus Palmöl, Stärke, Milcheiweiß, Salz und Geschmacksverstärker. Er wird bereits in Convenience-Produkten (Pizza, Cheeseburger, Lasagne etc.) eingesetzt und ersetzt dort mittlerweile einen Käseanteil zwischen 25 und 100 Prozent. Aufgrund der möglichen Variationen der Zusammensetzung ist es möglich, "maßgeschneiderten" Käse mit unterschiedlichem Schmelzverhalten zu imitieren. Der Geschäftsführer der Assoziation Ökologischer Lebensmittelhersteller (AoeL), Alexander Beck, hat die Verwendung von Analog-Käse als Betrug am Verbraucher bezeichnet. "Wenn ein Verbraucher sich für ein Nahrungsmittel mit Käse entscheidet, muss er sich darauf verlassen können, dass auch Käse drin ist. Enthält es stattdessen ein Imitat, ist das Betrug, kritisierte Beck. Ein Gemisch aus Pflanzenfetten, Wasser, Eiweiß und künstlichem Aromen, habe nichts mit echtem Käse zu tun."

Dies sind nur einige Tatsachen, welche für sich sprechen und von denen ich und viele andere unter uns wissen, dass sie in unserer Realität ihr Vorkommen haben. Auch in der Obst- und Gemüseindustrie, so wie in vielen anderen Produkten der Großindustrie stecken bakterielle Gefahren, chemisch erzeugte Geschmacksverstärker und grausam erbeutete Essensressourcen. Man sollte also die Augen aufmachen und nicht alles akzeptieren was einem im wahrsten Sinne des Wortes "auf den Tisch" geworfen wird.
Bevor man sich also das nächste mal aus Gemütlichkeit einen "Cheesburger" vom McDonalds einverleibt, sollte man sich lieber überlegen ob man das auch mit seinem Gewissen vereinbaren kann und sich gründlich darüber informieren, woher seine Nahrung überhaupt stammt.

Auf der anderen Seite sollte noch zu erwähnen sein, dass dieser unerschöpfliche Vorrat, der uns an Lebensmittel vor die Nase geworfen wird irgendwann ein jehes Ende finden wird. Ausserdem übersteigt die Menge an Nahrungsmitteln, die der Durchschnittsamerikaner sowie Westeuropäer zu sich nimmt sowieso sämtlichen natürlich vorgesehen Nahrungsbedarf, während auf der anderen Seite Kinder Hunger leiden müssen und Familien gegen die Ausbeutung reicherer Länder zu kämpfen haben.
Dies und vieles mehr sollte man sich durch den Kopf gehen lassen...

Zum Schluß noch ein Video, welches Greenpeace als eine Adbusting-Aktion gegen Nestlé erst vor kurzem im Netz veröffentlicht hat:


2010-03-11

Final Fantasy XIII

FFXIII! Das Ende einer traditionellen Rollenspiel-Ära?



Mein erster Eindruck von der aktuellen Schöpfung aus dem Hause Square/Enix war ein sehr erwartungsvoller. Da ich mir als Final Fantasy Fan der ersten Stunde gleich einmal die Collectors Edition mit einigen Gimmicks wie ein liebevoll gestaltetes Artwork sowie dem Originalsoundtrack zu Eigen gemacht habe hatte ich schon auf ein emotionales Feuerwerk aus der Videospielecke gehofft!

Mit einem Gefühl von Glückseligkeit schob ich also die Blu-Ray in mein Playstation 3 Laufwerk, um dann erstmal verdutzt zu gucken als die Introsequenz anfing. Es war wie man es von einer Playstation 3, die man über HDMI an seinem 37" Full HD Monitor angeschlossen hat, erwartet hatte wirklich grafisch von atemberaubender Tiefenschärfe, aber was die Tonqualität anging fuhr mir erstmal ein kalter Schauer über den Rücken. Da hätte ich mir doch einiges mehr an hineingesteckte Arbeit erhofft für ein angeblich so starkes Finale des traditionell rundenbasierten Rollenspielgenre (was ich über dies hinaus aber ungern hoffe, dass es ist). Man hört regelrecht, dass der Mix aus Bässen, mittleren Frequenzen und Obertönen nicht wirklich ausgereift und weder aneinander angepasst noch mit passenden Effekten eingespielt wurde. Zudem übersteuert der Klang oft ziemlich und für einen so audiophilen wie mich, der quasi in der Musik seine Gefühle besonders in Games auslebt ist das natürlich eine herbe Enttäuschung. Ausserdem fand ich inhaltlich das Intro etwas weniger ansprechend, da einem schon ziemlich viel von der Storyline verraten wurde und sämtliche Haptcharaktere schon in Erscheinung traten. Man merkt aber darin auch stark, dass Square an die Wurzeln der Rollenspielsaga erinnern wollte.

Nun denn, in der Hoffnung wenigstens einige Soundeinstellungen vornehmen zu können landete ich also im Spielmenü, in welchem es aber leider nicht wirklich viel einzustellen gab, so war ich also leider gezwungen die entsprechenden Soundeinstellungen möglichst passend an meinem Fernsehgerät selber vorzunehmen.
Der nächste Schritt war also der entscheidende - ein Klick auf "Start" sollte nun also zeigen ob sich mein Warten gelohnt hatte.

Ein Zug rast durch eine Felsenlandschaft. Menschen kauern auf Sitzbänken. Es sind Gefangene. Obwohl sie sich in die Augen sehen könnten, haben sie die Köpfe gesenkt. Zwischen ihnen patrouillieren Wachen und es scheint als ob der Zug den Atem anhält. Das Klappern der Räder klingt wie ein Herzklopfen, die Stille angefüllt mit gespannten Erwartungen...
Plötzlich fährt der Zug über eine Weiche und ruckelt. Menschen springen auf und greifen die Wachen an. Es wird um seine Freiheit gekämpft, Verstärkung trifft ein, Flugmaschinen bombardieren den Zug. Die Gefangenen können gerade noch so entkommen. Das ist der Moment in welchem das Spiel losgehen sollte. In dem der Spieler sich ins Getümmel stürzen möchte. Nach dieser Inszenierung so glaubt man muss das unweigerlich geschehen - und zwar so packend wie dieses Intro entspricht.
Doch leider erfüllt Final Fantasy XIII diese Erfahrungen nicht. Im Gegenteil: Er mutet dem Spieler eine unglaublich langatmige Passage zu, denn was jetzt folgt ist wie ein Tutorial in Zeitlupe. Nach und nach werden die verschiedenen Charaktere eingeführt:

  • Lightning, eine starke Frau, die Soldatin bei der Regierung war und jetzt für die Freiheit ihrer Schwester kämpft!
  • Sazh, ein schwarzer mit Afrofrisur der eher an einen Lionel Richie Verschnitt erinnert als an einen Piloten, welcher er eigentlich ist.
  • Snow, ein ziemlich nerviger Zeitgenosse, der aber mit Lightnings Schwester Serah zusammen ist und anscheinend auch hier ist um diese zu retten.
  • Vanilla das süße quierlige rothaarige Mädchen, welches unter den Gefangenen war aber einen optimistischen Kampfgeist mit sich bringt.
  • Hope ein weinerlicher Junge, der gerade seine Mutter verloren hat, als diese mitten im Freiheitskampf war und deswegen nicht weiter weiss
Sie alle, so weiss man, werden im weiteren Verlauf eine wichtige Rolle spielen, doch zuerst wirken sie nur holzschnittartig und ohne Seele. Noch sind sie zwar befreit, aber orientierungslos, so denkt man. Man kommt sich beim Spielen vor wie beim Besteigen eines Berges. An jeder Kehre erwartet man endlich den Gipfel sehen zu können, jeder Grat erscheint wie das Ende des Aufstiegs und doch geht es immer einfach nur weiter und weiter... und wer aber trotzdem dranbleibt wird irgendwann beim Gähnen bemerkt, dass man trotz allem weiter spielen will, dass einem das Spiel in seinen Bann zieht. Weil es langsam und fast unmerklich Fahrt aufgenommen hat und anspruchsvollere Elemente einbringt und weil man langsam einen Eindruck davon hat um was es hier in Final Fantasy XIII überhaupt geht. Wenn man eine gewisse Höhe des Berges erreicht hat und man merkt wie sich die Luft verändert, der Blick freier wird und das Ziel klarer vor Augen. Das ist der Punkt an dem man das Spiel lieben lernt. Denn ab jetzt werden die Landschaften immer beeindruckender, die Maschinen immer bizarrer und die Frisuren der Protagonisten immer futuristischer.

Denn wenn der Spieler anfängt zu erfahren, wer wessen Leben in diesem Spiel beeinflusst hat, wo sich alle schon einmal trafen und was Sie an den jetzigen Ort geführt hat fängt es an interessant zu werden. Es ist ein Geflecht, dass sich langsam entwirrt und einem Anteil nehmen lässt. Man möchte Menschen helfen, man möchte für sie kämpfen gegen die Regierungstruppen, die Fremdenfeindlichkeit schüren. Die ganze Bevölkerungsgruppen in die Verbannung und damit den sicheren Tod schicken, nur um vor vermeintlichen Terroristen und Volksfeinden sicher zu sein. Es ist eine Geschichte, die moderne Terrorparanoia mit Erinnerungen an den Holocaust verbindet, dabei aber den Zeigefinger niemals erhebt. Aber man spürt schon welchen moralischen Hintergrund die Entwickler sich dabei gedacht haben. Es ist eine zutiefst menschliche Geschichte voller Missverständnisse, Heldentaten und Opfer - und genau das macht sie so groß.

Man darf solch ein Spiel nicht mit seinen westlichen Hack'n Slay-Pendants wie World of Warcraft oder Diablo vergleichen. Denn die Macher wollen uns hier eine Story erzählen, die wir aus der 3. Person betrachten und nicht eine Person mit der man sich identifiziert, die selber herausfiltern soll was sie tun und was lassen soll.
Hat man das akzeptiert und sich durch die ersten Stunden des Spiels geboxt, lernt man auf einmal die Feinheiten zu schätzen. Denn "Final Fantasy XIII hat das beste und flexibelste Spielsystem der Reihe.
Es ist wohl ein Spiel der gespaltenen Meinungen: Wer vom ersten Moment an Spannung haben und aufregende Kämpfe bestehen möchte, der wird wohl nach einer halben Stunde genervt sein und spätestens nach einer Stunde aufgeben, aber wer wie ich die Serie schon lange mitverfolgt und sein Herz in den vor allem alten Teilen der Serie (meine Favoriten sind die Teile von 6 - 10) gesteckt hat wird auch diesen Teil mit Freude zu Ende bringen. Mit dem womöglich letzten klassischen Teil von Final Fantasy.




2010-02-23

Sinneseinfluss

Von der Leichtigkeit unserer Sinneswahrnehmung!



Ich denke es ist in unserem heutigen Zeitalter der Sinnestäuschung und Medienmanipulation kein Vergehen und auch ein Muß hier einmal direkt anzusprechen, dass die Illusionierung in unserem Kopf wahrhaft groteske Ausmaße annimmt.
Nicht allein weil wir um uns herum auf unseren Wegen umgeben sind von sich bewegenden Bildern auf Displays, geschaffen aus den Gedanken fremder Menschen die auch nicht großartig andere Eigenschaften besitzen als wir.
Nein unsere gesamte Sinneswahrnehmung fällt einem Bombardament bestehend aus plakativer Werbung, industrieller Kommerzialisierung und der Unnachgibiegem Aufdrängung des Kapitalismus zum Opfer.

Wir Menschen haben schon lange verlernt auf unsere innere Natur zu hören und unser Bewusstsein unbeeinflusst seine eigene Meinung bilden zu lassen. Allein schon dieser Blog-Eintrag hier von mir wird jeden der dies liest (ob nun bewusst oder nicht spielt keine Rolle) irgendwie einen Weg ins Unterbewusstsein finden lassen.
Über dies hinaus ist es so ziemlich egal ob die eigenen Gedankenwege dabei verloren gehen oder man stur auf seiner geglaubten Meinung verharrt. Allein die interene Decodierung der gesprochenen und geschriebenen Wörter, also das Wissen welches Wort welche Bedeutung hat nimmt genug Einfluss auf die Speicherkapazität in unserem Kopf, dass es uns im Alter schwer fallen wird irgendwas anderes für bestimmte Dinge zu assoziieren.

Der Mensch als solches, wie er heute sein Dasein fristet könnte sich eine Welt ohne Bildschirme gar nicht mehr vorstellen. Verträumt wandert er durch die Gegend ohne mit den Hirngespinsten der Vorabendsendung oder des zuletzt Durchgespielten Levels seines Videospieles - in denen er den Helden steuert, nicht die vermeintlichen "Helden" ihn. Das Gewissen missachtend vegetiert er auf seinen Wegen ohne wirklich eine Bedeutung seines Daseins zu kennen oder schliimmer noch - das unserer ganzen Dynastie.

Als ein Freund der Kreativität und des logischen Auffassungsvermögens möchte ich an dieser Stelle nur darauf aufmerksam machen, dass die Informationen die uns aus fremder Hand in unsere Köpfe eingeschleust werden nicht unbedingt überlebnsnotwendig sind und vieles auch nicht unserer Weiterbildung wirklich dienlich ist. Von daher denke ich ist es an der Zeit sich einmal Gedanken über sein wahres ICH zu machen und nicht ständig nur in seinem ÜBER-ICH zu schweben.
Ist es denn nicht viel schöner, wenn der Mensch als Individuum wie in den Hochzeiten der menschlichen Hochkultur Dinge - sei es nun Musik, Bilder, Ideen oder Gegenstände - aus dem eigenen Geiste heraus zu kreieren und zu formen, als nur das zu konsumieren, was andere für uns aufbereitet haben?
Ich denke schon und ich denke viele von denen, die das jetzt lesen sehen das genauso. Also bevor wir das nächste mal auf einem Bild beharren, was uns aus fremder Hand in den Kopf stößt, malen wir doch lieber unsere eigenen Bilder in unser Bewusstsein.


2010-02-09

Social Communities

Facebook, Studivz & Co. - Social Communitys im Fadenkreuz!



Jeder von uns, der sich regelmäßig der Informationsflut unseres Netzwerkes aussetzt wird sich schon einmal bei einem angemeldet haben oder ist regelmäßig aktiv am Kommunikationsgeschehen beteiligt - ich rede hier von sogenannten
Social Communities. Sie bieten uns die Möglichkeit mit jedem einzelnen auf der ganzen Welt in Kontakt stehen zu können und uns wie ein offenes Buch der ganzen Welt zu präsentieren.

Die Sache ist: Es gibt mittlerweile unübersichtlich viele dieser Kommunikationsnetzwerke wo jede mit ihren eigenen Möglichkeiten ausgestattet wird. Es ist soweit gekommen, dass sich viele unter uns leichter damit tuen sich über ein Dialogfenster mit unseren Menschen in Verbindung zu setzen, anstatt auf ein direkt reales Zusammentreffen zu bauen.

Die Vorteile sind klar definiert:
Jederzeitige Erreichbarkeit, ungestörte Kommunikationsmöglichkeit, Menschen gleichen Interesses finden und gegenseitiger Daten- und Informationsaustausch.
Doch der Schein trügt oftmals, denn viele merken erst zu spät oder gar nicht wie zeitraubend und persönlichkeitsgefährdend der dauerhafte Aufenthalt in so einem Social Network ist.
Durch die persönliche Profilanlegung wird das menschliche Individuum an sich sozusagen auf den "Präsentierteller" gelegt und für jeden der sich dessen Betrachtung unterzieht mit einer Reihe möglicher Folgen begünstigt:
Datenraub, Bilderklau, Medienunterdrückung und mobile Abfrage des Aufenthaltortes.
Schon oftmals ist es vorgekommen, dass ein solches Profil von "Netzkriminellen" dafür missbraucht wird um ein sogenanntes Fake-Profil mit Verfälschung der geklauten Daten anzulegen und andere dadurch zu täuschen bzw. die Person, der die originalen privaten Daten gehören bloß zu stellen.
Oft dauert es auch viel zu lange bis der jeweilige Täter gefasst ist und die Person, der die Daten ursprünglich gehörten schon längst zum Opfer eines allgemein gehaltenen Internet-Mobbings geworden ist ohne es zu merken.

Ein weiterer wichtiger Kritikpunkt wäre die Möglichkeit der Betreiber solcher "Social Communities", die sie mit den Daten der betreffenen Personen anstellen könnten und wie beispielsweise das Studentennetzwerk von
StudiVZ die User-Daten aus Werbegründen zum Verkauf freigaben und somit eine Massenhysterie unter den Betroffenen hervorgerufen haben. Anders bei Facebook: Das größte Netzwerk der Welt gibt recht wenig über deren Betreiber preis und weisst auch nicht direkt auf sicherheitliche Verwendung der Daten hin.

Gesamtheitlich gilt es nur zu sagen, dass die vielen Möglichkeiten seine persönlichen Daten frei zu geben mit Vorsicht zu genießen sein sollten und die Weitergabe von Adressen, Bilder und anderweitigen Privatidentifikationen im begrenzten Rahmen stattfinden sollte, denn es ist schwierig sich der Tatsache bewusst zu machen, was mit seinen eigenen Daten angestellt werden könnte und einzuschätzen welche Menschen darauf Zugriff haben könnten.
Die eigene Vorsicht sollte bei sowas immer im Mittelpunkt stehen!

2010-02-02

Audio-Interfaces

Musik immer und überall - Dank Audio-Interfaces!



Wie wir ja alle wissen ist tief in unserem Kortex eine Zellstruktur verlagert, die uns eine Affinität unserer Gefühle zu den Klängen die wir wahrnehmen ermöglicht! Wir hören Musik - immer und überall und reagieren auf verschiedene Weise darauf.
Doch heute möchte ich nicht speziell auf die Reaktion unseres Bewusstseins eingehen, die mit der Musik in unserer Umgebung einhergeht. Nein - heute berichte ich speziell über das was es uns heutzutage möglich macht Musik in der digitalen Form zu hören, wie wir sie heute konsumieren.

Es sind die sogenannten Audio-Interfaces (z.d.: Klang-Schnittstellen) die heutzutage kaum mehr aus unserem alltäglichen Lebensraum wegzudenken sind. Viel zu selbstverständlich und viel zu gewöhnlich erscheint uns die Möglichkeit Musik aus unserem iPod, unserer Anlage oder unserem Computer zu genießen. Doch steckt dahinter eine Technologie die es faustdick hinter den Ohren hat. Ich möchte euch nun erstmal ein paar geschichtliche Hintergründe näher bringen:

Wie alles begann:
Nach der Entdeckung der klassischen Soundkarte in den frühen 80er Jahre dachte wohl noch niemand ernsthaft mit einem Computer Musik aufzunehmen und wiederzugeben (schließlich dienten diese damals nur dem trockenen und rauen Büroalltag als Rechenwerkzeug). Bis schließlich im Jahr 1982 der damals heißgeliebte Commodore C64 mit seinem dreistimmigen SID-Chip (Sound Interface Device[z.d.: Ton-Schnittstellen-Gerät - ja ich weiss auf deutsch klingt alles witzig]) den Markt heimsuchte. Der Tonumfang damals mit satten 4kHz überschlug die Herzen audiophiler Fans. Dieser Chip erlaubte erstmals mehrstimmige Melodien und Rhythmen mit einem einfachen Sound wiederzugeben. Parallel dazu brachte Atari mit dem YM4219 von Yamaha eine starke Konkurrenz auf den Markt.
Aber im großen und ganzen waren diese Chips hauptsächlich für die musikalische Untermalung von Games gedacht (ambitionierte Bastler fanden schnell heraus, dass über zusätzliche Module aber auch Töne mit einer Abtastrate von 2kHz auf dem System aufgenommen werden konnten).
Mit der FM-Synthese-Technologie im Jahr 1987 wurden Soundkarten der Firma Ad Lib Inc. eingesetzt, die auf Yamahas OPL2-Chipserie aufbaute. (Die Technik des OPL2-Soundchips wurde auch bei der Klangerzeugung des revolutionären und berühmten Yamaha DX7-Synthesizers eingesetzt).
Es handelte sich aber bei der Adlib-Karte immer noch um eine klassischen Synthesekarte ohne die Möglichkeit Audiomaterial oder Sprache und Samples aufzuzeichnen und abzuspielen.
Der erste Standard kam ab den 90ern durch (wer hätte es anders erwartet) die Sound-Blaster-Soundkarte von Creative Labs. Nun konnte man auch endlich Audiomaterial aufnehmen. Ausgestattet mit einem DSP, welcher 22 kHz bei 8 Bit mono wiedergeben und mit bis zu 13kHz aufnehmen konnte, trat als direkter Konkurrent gegen AdLib an.
Böse Zungen behaupten sogar, dass Microsoft Yamaha überredeten den OPL2-Chip aus dem freien Markt zu nehmen und nur dadurch der Sound Blaster Standard wurde.
Bald durfte dann auch die erste 16 Bit Soundblaster Karte auch folgen, die SB 16, welche mit einem 16-Bit-DSP, einem OPL3-Chipsatz für die Musikwiedergabe und einem Interface für Erweiterungsaufsätze kam.
Im Folgenden mal ein Bild der alten SB16:


Die Möglichkeit mit einem externen MIDI-Keyboard Sounds einzuspielen, weckte schnell den Wunsch nach mehr. So wurden - beginnend mit der SB16 - die 26poligen Wave-Blaster-Schnittstellen verbaut, auf die eine optionale Erweiterungssteckkarte aufgesteckt werden konnte. Diese Erweiterung enthielt einen WaveTable-Synthesizer, der im Gegensatz zur FM-Technologie nicht mehr nur natürliche Instrumente nachbilden konnte, sondern Wellenformen echter Instrumente (.wav-Dateien) über die Wavetable-Synthese in einen ROM-Speicher ablegte. Somit war es möglich echte Instrumentensounds über die Soundkarte abzuspielen.

Vom Gestern ins Heute:
Es ist eine Sache die Soundkarte als Synthesizer zu verwenden aber eine andere ist die Aufnahme externem Audiomaterials. In der Regel brauchen unsere Interfaces gar keine Klangerzeugung: Der Fokus liegt nämlich einfach nur auf die gute Klangwiedergabe, Qualität und Flexibilität. Das soll aber nicht heißen, dass Soundkarten schlechter Klingen als Audio-Interfaces oder umgekehrt. Ein Audio-Interface kann einfach nur mehr! Der wesentliche Unterschied liegt also in der Bauform, so wie in den Anschlüssen über den die Audiodaten ins System gelangen. Während Soundkarten über PCI- oder mittlerweile sogar schon über den neuen PCIe-Bus angeschlossen werden können, werden Audio-Interfaces heute eher über USB, FireWire oder PCMCIA betrieben, um sie optional auch mobil machen zu können. Doch wo liegen hier die Unterschiede? Schauen wir uns einmal die Eckdaten der verschiedenen Schnittstellen an.

Der Daten-Bus
Unsere Schnittstellen werden auch als Busse bezeichnet. Ein Bus ist ein System zur Datenübertragung zwischen den Teilnehmern A und B über einen gemeinsamen Übertragungsweg. Sendet das Audio-Interface Daten an den Prozessor, wird ein kontinuierlicher Datenstrom hergestellt, der die Daten in schneller Abfolge in kleine Pakete zerteilt und an den Speicher des Rechners schickt. Je nach Bus-Familie werden die Datenpakete in unterschiedlichen Geschwindigkeiten übertragen. Wie schnell der jeweilige Bus sein muss, richtet sich nach der Datenrate die transport werden muss.

Ein Beispiel zur Ermittlung der Datenrate:
Betrachten wir mal unser CD-Format:

  • Samplingfrequenz: 44,1kHz
  • Wortbreite: 16 Bit
Mono haben wir dann grob: 44100Hz * 16 Bit = 705600 Bit/s = 0,7MBit/s
Stereo ergibt das dann 0,7Mbit/s * 2 = 1,4MBit/s
Somit sollte unser Interface mindestens 1,5MBit/s verwalten können, um zwei Spuren Audiomaterial in CD-Qualität zu übertragen.

Das ganze gilt aber auch nur für einen Kanal, wenn also mehr 2,4 oder 8 Kanäle abgehört werden verdoppelt, vierfacht oder verachtfacht sich das ganze. Das würde also für eine richtig leistungsstarke Qualität mit 24 Bit auf 192kHz mit 8 Kanälen bedeuten, dass wir Stereo eine Datenrate von 36,8MBit/s brauchen. Mit einer läppischen USB 1.1-Schnittstelle wäre diese Datenrate schon längst überholt.
Hier mal kurz ein Überblick über die einzelnen Busgeschwindigkeiten:

  • PCI-X: 8500Mbit/s
  • PCIe: 2000Mbit/s
  • PCI: 1066Mbit/s
  • FireWire 800: 800Mbit/s
  • USB 2.0: 480Mbit/s
  • FireWire 400: 400Mbit/s
  • USB 1.1: 12Mbit/s

Analoge Ein- und Ausgänge
Ein weiterer wichtiger Punkt ist die analoge Wiedergabe, denn ohne diese würde es uns gar nicht möglich sein die Musik über unsere Lautsprecher wahrzunehmen. Die Auswahl ist hier ebenso umfangreich wie qualitativ hochwertig:

  • XLR oder Klinke
    Eigentlich macht es nur einen mechanischen nterschied ob symmetrische Ein- und Ausgänge im XLR- oder Klinkenformat vorliegen. Dies muss nicht zwangsläufig die Qualität beeinflussen - schließlich wandelt der Wandler das Signal und nicht die Buchse. Dennoch sind XLR-Buchsen stabiler und weisen eine bessere Kontaktsicherheit auf - wobei Klinkenbuchsen eine kleinere Bauweis ermöglichen. Doch aufgepasst: Wenn XLR- und Klinkenbuchsen in einem Gerät verbaut werden, haben sie oft unterschiedliche Pegelauslegungen. Diese liegen bei nahezu allen XLR-Verbindungen und vielen symmetrischen Klinkenbuchsen bei +4dBµ (professionelles Equipment), bei unsymmetrischen Klinken und Cinch-Eingängen hingegen bei -10dBµ Line-Pegel (Consumer-Geräte).
  • Hi-Z-Eingänge
    Hier können E-Gitarren und Bässe direkt eingesteckt werden, da diese Eingänge eine besonders hohe Impedanz haben. Die Eingänge haben meist Klinkenbuchsen und werden manchmal um spezielle PreAmps oder besondere Klangcharakteristiken ergänzt.
  • Phono In
    An diesem eher selten vorhandenen Stereo-Eingang können Schallplattenspieler direkt angeschlossen werden. Sie bieten eine hohe Verstärkung udn die notwendige RIAA-Vorentzerrung. Bei den Eingängen handelt es sich überwiegend um Cinch-Buchsen.
  • Insert (ISR)
    Wenn externe Geräte wie Kompressoren, Limiter oder EQ angeschlossen werden sollen, können sie über diesen Eingang hinter den Mikrofon-PreAmp (falls vorhanden), aber noch vor dem Wandler eingeschleift werden. Hierbei handelt es sich um eine Stereo-Klinkenbuchse, über die mittels eines Y-Kabels die Hin-(Send) und Rück-(Return)Leitung zum Gerät abgegriffen wird.
Die Wandlung
Doch nun kommt der große Clue - der Analog/Digital-Wandler (kurz: A/D-Wandler) ist die Stufe zur Umwandlung von analogen Signalklängen (wie wir sie wahrnehmen) zur digitalen Verarbeitung in unseren Endgeräten. Ein Bild veranschaulicht mehr:
 


Im oberen Bild sehen wir die analoge Schwingung - unseren natürlichen Klang. Dieser wird in eine digitale Form gebracht indem diese abgetastet wird, wie im mittleren Bild mit beispielsweise 44,1 kHz (wie bei unserer CD) - das entspricht in etwa 44100 Abtastungen pro Sekunde. Da der Computer aber keine fließenden Übergänge kennt, sondern nur auf feste Werte auf- oder abrunden kann wird die Wellenform in ein vertikales Raster gepresst und so an die voreingestellten Werte angepasst. Das Raster entspricht dabei der voreingestellten Bitauflösung (16 Bit = 2^16 Zustände). Ist nun die Wellenform in eine Treppenform gepresst, werden die kleinen Treppenstufen ausgemessen und jeweils einem digitalen Wert zugeordnet wie im unteren Bild. Somit ergibt sich eine für den Coputer verständliche binäre Information. Derselbe Weg in umgekehrter Reihenfolge wird für die D/A-Wandlung benötigt. Hier stellt der Wandler anhand der binären Informationen ein Raster her, über das die analoge Wellenform rekonstruiert wird. Je höher die Samplerate bzw. die Bittiefe, desto genauer können die Wellenformen ausgelesen und wieder erstellt werden. Somit ist es möglich unsere Daten in der Lautstärke, wie wir sie gerne hätten zu hören, zu fühlen und wiedergeben zu können.

So ich hoffe euch hat mein kleiner Beitrag über diese wichtige Errungenschaft in der Geschichte der Musik gefallen und ihr könnt euch trotz der großen Informationsflut ein Bild davon machen, wieviel Wichtigkeit und Detailreichtum im Bau und in der Wissenschaft einer solchen Gerätschaft steckt.
Und wie bei allen Dingen, die zu erwerben wird gilt auch hier wieder:



In diesem Sinne:
Viel Spaß beim Musik hören! ;)

2010-01-18

Griechische Mythologie

Diskos von Phaistos!



Auf meiner Suche nach noch verschlüsselten Fundamenten bin ich auf etwas ganz besonders gestossen. Viele von euch mögen ihn bestimmt schon einmal gesehen haben - seis nun kurz angesprochen in der Schulzeit (was mich aber bei unserem heutigen Bildungsplan wundern würde) oder in einer historischen Dokumentation auf einem unserer Rundfunksender (Ja, da ist hin und wieder tatsächlich was sehenswertes dabei).
Kurzum - es handelt sich um den altmythisch historischen Diskos von Phaistos, eines der ältesten codierten Überlieferungen aus der Bronzezeit.

Zunächst einmal ein kurzer geschichtlicher Hintergrund:

Es handelt sich hierbei um eine Scheibe aus gebranntem Ton auf welchem spiralförmig angeordnet Gegenstands-, Menschen-, Pflanzen- und Tiermotive angeordnet sind. Der Diskos stellt damit den ersten bekannten "Schriftdruck" der Menschheit dar. In diesem Sinne ist zum ersten Mal ein kompletter Textkörper mit wiederverwendbaren Zeichen produziert worden. Der Diskos wurde in Raum 101 der minoischen Palastanlage von Phaistos auf Kreta am 3. Juli 1908 unter der Leitung des Italieners Luigi Pernier ausgegraben. Das einmalige Objekt findet sich heute im Archäologischen Museum in Iraklio. Der Diskos wurde von Pernier auf das 17. Jahrhundert v. Chr. datiert, ist also vermutlich mehr als 3.500 Jahre alt.

Faszinierend an der ganzen Sache ist besonders, dass der Diskos bis heute noch nicht komplett entschlüsselt worden ist und jegliche Entzifferungsversuche nur auf Spekulationen beruhen. Er ist beidseitig bedruckt und beinhaltet 241 Zeichen, welche durch Trennlinien in 61 Zeichengruppen (vermutlich Strophen oder Sätze) zusammengefasst sind. Ob das ganze nun überinterpretiert ist und der Diskos nur eine historische Bildmalerei darstellte oder nur ein erster Versuch der unmündlichen Kommunikation spielt in dem Sinn keine Rolle, da allein das Wissen über die Aussage und der Hintergrund zur Kreierung des Diskos vieles über die damalige Philosophieauf Kreta preisgeben könnten.

Hier nun die Seite A und die Seite B des Diskos:



Da die Griechen damals, wie so ziemlich alle antiken Völker, eine sehr spirituelle Art der Wahrnehmung hatten ist für mich eine der besten Thesen die von Hermann Wenzel, bei welchem die Zeichen des Diskos in Geist-, Leib-, und Seelencharaktere aufgeteilt werden:


  • Geistcharaktere


  • Leibcharaktere

  • Seelencharaktere



Wie deutlich hervorgeht wird hier auch wieder, wie in so ziemlich allen Dingen des Lebens, die Mathematik als Maß aller Dinge betrachtet. Worauf nämlich Descartes vor ca. 500 Jahren gekommen ist, dass alles Existente mathematisch messbar und kausal, haben die Griechen schon lange vor der Geistesunterdrückung des Christentums festgestellt.
So kann man auch aus dem Diskos eher eine mathematische Umsetzung als eine wörtliche, wie sie Hermann Wenzel hier vollführt ableiten.
Und da die Griechen ja bekanntlich sehr begabte Astronomen und Physiker hervorgebracht haben schufen sie mit dem Diskos von Phaistos auch meiner Meinung nach ihren ganz persönlichen Kalender und Tageszähler, basierend auf den Zahlen von 1 bis 45. Denn die Summe der jeweiligen Symbole ist stets ein Unikat und steht für eine bestimmte Zahl.


Jeden Interessenten, der sich gerne eine vollständige, glaubwürdige Entzifferungsmöglichkeit durchlesen möchte weise ich auf Hermann Wenzel's Webpräsenz hin:
Die Entzifferung des Diskos von Phaistos

Abschliessend ist vielleicht noch zu erwähnen, dass womöglich noch weitere eindrucksvolle, historische Dokumente existieren( besonders bei den alten Maya-Ruinen), welche wahrscheinlich noch unentschlüsselt wurden und nur darauf warten die Geheimnisse alter Antike zu lüften.
Es bleibt spannend!

2010-01-12

Vinyl - Einer Ära zu ehren!



Heute möchte ich gerne mal, nachdem ich einen Bericht über die Digitalisierung von analogen Tonträgern gelesen habe, einige lobende und erläuternde Worte zu unserem ältesten, aber immer noch raffiniertesten Musikmedium richten - unserer Schallplatte.

Ich habe mich bereits als Kind schon immer gefragt, wie so unglaublich viele Instrumente auf eine einfache Scheibe Lack passen und dann über Lautsprecher Töne, die so natürlich und frei von jeglicher technischen Bearbeitung klingen an unser Ohr gelangen. Die Antwort darauf ist mittlerweile kein Rätsel mehr - doch ist sie meiner Ansicht nach um einiges faszinierender, als das was unsere heutigen digitalen Tonträger (über dies hinaus mitsamt so einigen klanglichen Verlusten) liefern.

Handelt es sich doch bei einer CD tatsächlich um eine entsprechend runde und kreisförmige Beschichtung mit entsprechend rundem und kreisförmigen Lese- und Schreibvorgang, bei welchem auf jede Flanke (hoch oder tief) eine plumpe "1" oder "0" assoziiert wird. Wobei der lesende oder schreibende Laser die Bewegung vorgibt. Dem entgegen wurde auf der Schallplatte spiralförmig auf minimalstem Abstand eine mit Ruß beschichtete Glas- später eine mit Wachs beschichtete Zinkplatte mittels einer Stahlnadel eine Linie geritzt.
Im Laufe der Jahrzehnte erschienen darauf aufbauend noch weitere Technologien und Verfeinerungen, wie die Zweikanaltechnik und die CX-Kodierung. Nähere Informationen dazu sind in entsprechender Literatur oder im Netz zu finden. Ein schöner Artikel, würde ein Klick auf folgender Wikipediaseite liefern:
http://de.wikipedia.org/wiki/Schallplatte
Von Interesse ist aber, woher weiss die Lautsprechermembran, welche Töne gespielt oder gesungen wurden und was für Nebengeräusche noch entstanden sind?

Es ist soviel klar, dass die Stahlnadel den Schall, welchen sie eingespeist bekommt, mechanisch in die Rille eingraviert und ihn dadurch proportional zur eintreffenden Amplitude und dem Frequenzgang einspeichert. So sind auf den heutigen PVC-Schallplatten (PolyVinylChlorid - daher der Begriff) die sogenannten Mikrorillen etwa 40µm breit mit einem Radius von 8µm und einem Abstand voneinander von 70µm. In diesem engen Maße werden die Muster und Formen entsprechend der Amplitude und dem Frequenzgang auch noch aufgezeichnet, alle nur unter einem Mikroskop erkennbar.
In einem Beispiel würde das so aussehen:


Hier wird deutlich , dass auf den oberen Rillen Aufzeichnungen zu verschiedenen Frequenzlagen (bestimmen die entsprechenden Tonhöhen) erfolgten, die sichtbar anhand der sich ergebenden Wellenformen sind. Die Rillentiefe, welche hier nicht deutlich hervorgehoben wurde, gibt den Amplitudengang (Lautstärkepegel) wieder.

Doch es gibt auch noch andere Plattenschriftarten, welche ich hier kurz erläutern möchte:
  • Tiefenschrift:
    Die älteste Form der Plattenschrift - oberes Bild verdeutlicht diese. Hierbei entstammt der Name eben dem Amplitudengang, der durch die Tiefe der Rillen bestimmt wird.
  • Seitenschrift:
    Hier erfolgt die Information in horizontaler Auslenkung zur Rille. Verwendet wurde diese u.A. zur Grammophonverwendung und sorgt für ein besseres Dynamikverhältnis, als bei der Tiefenschrift.
  • Flankenschrift:
    Die erste Stereo-Schriftart brachte Aufzeichnungen mit 45°-Flanken mit sich, sowohl für den rechten als auch für den linken Kanal. Die Richtung der Auslenkung des Schneidstichels ist dabei so gewählt, dass ein Monosignal, welches mit einem Stereoschneidkopf aufgezeichnet wird, eine Seitenschrift erzeugt, so dass trotz allem auch die Aufzeichnung auch in Mono gehört werden kann.
Und trotz diesen primitiven Aufzeichnungsarten schaffen Vinylplatten einen ausserordentlichen obertonreichen Klang, der mit den späteren analogen Kassetten mit Magnetbandspeicherung und mit den digitalen optischen Aufzeichnungsmedien an Langlebigkeit und Natürlichkeit nie übertroffen werden kann und konnte.
Wer also auf eine wirklich faszinierende und beeindruckende Klangwelt Wert legt, sollte lieber zu einer guten Vinylplatte greifen und sich mit ein paar hochwertigen Lautsprechern von der faszinierenden Klangvielfalt in eine Traumwelt auf Vinyl gleiten lassen.

2010-01-07

Nacktscanner

Nacktscanner - Tschernobyl für Fluggäste!



Man mag sich oft wundern, wie oft und eindeutig die Regierung eine Massenbeseitigung und -erniedrigung anordnet, doch das Flughafengesetz welches nun erlassen wurde schlägt dem Fass den Boden durch. In Zukunft sollen an sämtlichen Flughäfen der EU und in den USA sogenannte Körperscanner (Nacktscanner) angebracht werden, welche durch Strahlung die körperliche Struktur, sowie deren Bekleidungsinnenleben offenbaren. Angeblich aus Sicherheitsgründen - was aber meiner Ansicht nach eher einem Schritt der Regierung zur absoluten Kontrolle über die Erdbevölkerung näher kommt.

Es soll angeblich 2 verschiedene, voneinander unabhängige Methoden geben - beide aber mit gesundheitlichen Risiken behaftet:
  • Röntgenstrahlung:
    Die Strahlung wird vom menschlichen Gewebe absorbiert. Diese rückgestreute Strahlung eignet sich für die Oberflächenanalyse. Je nachdem wie hoch die Strahlung ist tritt eine höhere Streuung auf. Sie lässt sich besonders gut bei leichten Materialien wie Wasserstoff, Sauerstoff oder Kohlenstoff nachweisen, bei schweren Materialien wie Metallen überwiegt die Absorption.
  • Elektromagnetische Strahlung:
    Diese liegt bei den Nacktscannern im Terahertzbereich und liegt somit zwischen der Infrarot- und der Mikrowellenstrahlung. Der Körper wird abgescannt und daraus die "nackte Wahrheit" auf den Bildschirm der Beamten rückfokusiert.


Nun wäre bei der Röntgenstrahlung ein unschöner Nebeneffekt, dass sich durch die auftretende Streuung die Zellstruktur des menschlichen Organismus verändern kann, was wiederum die Wahrscheinlichkeit auf eine Krebserkrankung immens erhöht - entschuldigt wird das ganze allerdings dadurch, dass der Fluggast sowieso das 100fache an kosmischer Strahlung bei seinem Langstreckenflug ausgesetzt sei. Nun mag das wohl stimmen und mit der Gesamtstrahlenbelastung von 0,1-0,2µSv liegen diese Nacktscanner auch nicht im gesundheitsschädlichsten Bereich, welcher erst bei ca. 1µSV ansetzt, aber dennoch erfreuen sich bestimmt nicht Dauerfluggäste, die sowieso nach einem strapazierenden Flug nochmals weiteren Strahlen ausgesetzt werden darüber.

Bei der elektromagnetischen Strahlung entfällt zwar der Ionisierungseffekt, aber uns allen ist schon vom Mobilfunk bekannt, dass eine Aussetzung von Hochfrequenzstrahlen im GHz-bereich akute Kopfschmerzen verursachen können und man will sich nicht ausdenken, welche schädigende Wirkungen sich im THz Bereich auf den gesamten menschlichen Körper auswirken können.

Hinzu kommt natürlich noch der moralische Aspekt, der meiner Meinung nach eine einzige Bloßstellung des Fluggastes ist - der entblößte Bürger wurde schon im Mittelalter zur Demütigung des Fußvolkes eingesetzt und findet sich hier in der Fluggesellschaft wieder! Ein Skandal ohnesgleichen.

Uns bleibt zu hoffen, dass die Bürgerbewegung dem etwas entgegensetzen kann und wir der Regierung einen weiteren Faustschlag im Kampf um unsere Privatsphäre setzen können!

Faszination Bildsynthese!


Ich möchte heute einmal darauf eingehen für wie faszinierend ich doch die Möglichkeiten der grafischen Leistungsfähigkeit heute halte. Allein schon die Tatsache, dass wir vor dem Renderingzeitalter (was nicht einmal 20 Jahre zurückliegt) froh waren verschiedene Farbtöne auf noch richtig dicke Pixel unterscheiden zu können und heutzutage die ersten 3D-fähigen Monitore inklusive HD-Auflösung an den Start gehen. Es zeigt sich einfach wie weitreichend und noch unausgeschöpft die Synthesemöglichkeiten sind.
Aus diesem Grund möchte ich euch hiermal eine kleine theoretische Einführung dazu liefern, was bei der Umsetzung eines 2-dimensional aufgenommenen Bildes in eine 3-dimensional gerenderte Grafik geschieht.

Im Grunde genommen läuft das ganze in 3 Prozessen ab:
  • Verdeckungsanalyse - die räumliche Vorstellung des Betrachters auf das Bild
  • Shading - Simulation aufgrund der Beobachtung auf die Verdeckungsanalyse
  • Lichtverteilung - der Kern der optischen Betrachtung, schließlich erscheint uns etwas auf dem 2-dimensionalen Bildschirm erst 3-dimensional, wenn das Bild verschiedene Beleuchtungsstrukturen aufweist


Nichtsdestotrotz wäre die Bildsynthese (Rendering) nie möglich ohne eine hochleistungsfähige Grafikkarte.
Hier mal eine kleine Beschreibung, was die Grafikkarte in einer Geschwindigkeit von 6-15fps beim Rendering leistet:

Zunächst werden alle Grundobjekte des Bildes so transformiert, dass der virtuelle Beobachter entlang der z- (Tiefen-)achse blickt. Falls die Szene Lichtquellen enthält, wird für jeden Vertex anhand der Materialeigenschaften des entsprechenden Dreiecks eine Farbe berechnet. Das vom Betrachter aus sichtbare Volumen der Szene ist ein Pyramidenstumpf (Frustum). Im nächsten Schritt wird dieses Frustum in einen Würfel transformiert, was einer Zentralprojektion entspricht. Teilweise oder vollständig außerhalb des Sichtvolumens liegende Grundobjekte werden mittels Clipping- und Culling-Techniken beschnitten oder entfernt. Schließlich wird eine Transformation angewandt, die die Vertex-Koordinaten an den gewünschten Zeichenbereich des Bildschirms verschiebt. Die z-Koordinaten bleiben dabei weiter erhalten, da sie für die spätere Verdeckungsberechnung benötigt werden.



Zusammenfassend möchte ich noch klar stellen, was für eine wichtige Rolle die diversen Beleuchtungstechniken spielen, ob sie nun Raytacing oder Radiosity (2 der bekanntesten Beleuchtungstechniken)heissen - wichtig ist immer, dass der Betrachter förmlich das Gefühl bekommt mitten im Geschehen dabei zu sein und räumliche Unterschiede wahr zu nehmen (auch wenn sie nicht wirklich real geschehen) - aber das zeigt uns nur wieder wie leicht sich unsere Augen täuschen lassen.

2010-01-06

Auf den Spuren der Numerik

Auf den Spuren der Numerik!


Haben wir uns nicht schon alle einmal die Frage gestellt, woher unser Zahlensystem eigentlich kommt und was es bedeutet? Nun, ich denke wir würden uns nur selbst anlügen, wenn es nicht so wäre.

Ich denke wir sind uns wohl alle bewusst, dass die meisten Zahlensysteme auf dem Dezimalsystem, zur Basis 10, beruhen - aufgrund der zehn Finger, die wir mit uns herumschleppen. Allerdings hatten die Maya, Azteken und Kelten ein sehr ausgefuchstes Zahlensystem zur Basis 20 und bei den Hochkulturen Mesopotamiens diente die 60 als Einheit - aufgrund astrologischer Betrachtungen (60sek. = 1min. , 60min. = 1 Stunde, 360° = 1 vollständiger Kreis usw.). Und wie wir alle wissen gibt es auch Völker, wie die Griechen, Römer und Hebräer und später auch die Araber, welche aus ihrem Buchstabenalphabet ihre Ziffern herauf entwickelten.

Ja, ihr habt richtig gelesen - unser arabisches Zahlensystem setzte sich ursprünglich aus arabischen Buchstaben zusammen, welche die Araber aber ihrerseits sich von den Hindu abgekupfert haben.
Hier eine kurzer Stammbaum des arabischen Zahlensystems:


Wie ihr alle sehen könnt, hatten die Brahmi (Indisches Zahlensystem im 3.Jh.v.Chr.) noch keine '0' eingeführt, welche dann erst von den Hindu im 8.Jh.n.Chr. anerkannt und eingeführt wurde. Es zeichnen sich besondere Ähnlichkeiten zwischen dem indischen und dem arabischen Zahlensystem dadurch ab, dass beide ihre Schreibweisen auf Basis von Bögen angelegt hatten.
Betrachten wir uns mal das Zahlensystem genauer:
Die "0" war damals schon ein an sich vollständiger Kreis.
Die "1" wurde primitiverweise als ein einziger Strich ausgedrückt.
Während die "2" ein Strich mit einem Bogen am oberen Ende war.
Die "3" war daraufhin ein Strich und 2 Bögen wobei später der Strich verschwand.
Und nun ein besonderes Augenmerk auf die "4", welche damals schon eine besondere Ziffer darstellte - sie war nämlich um 4 höher als der vollständige Kreis, also war sie 1 vollständiger Kreis mit einem offenem Kreis am unteren Ende. Die "4" hat meines Erachtens seine Besonderheit durch die Himmelsrichtungen erhalten, worafu man schliessen kann, dass das menschliche 2-dimensionale Koordinatenbewusstsein in 4 verschiedene Richtungen aufgeteilt ist.
Die "5" daraufhin war sozusagen die Unterbrechung des Kreises und man hat ihm auch einen Strich des offenen Kreises heruasgerissen - ein Zeichen der Unvollständigkeit.
Während die "6" sein ursprüngliches Aussehen der heutigen "7" verdankt, welche einfach nur zu einem Zacken wurde, sind wir bei der "8" schon wieder 4 höher als der vollständige Kreis mitsamt des unvollständigen bzw. 8 höher als der vollständige Kreis, was sich dadurch auszeichnete, dass die "8" zu 2 vollständigen Kreisen wurde.
Nicht umsonst schaut unsere "8" auch um 90° gewendet aus wie das Zeichen, was von uns heute als unendlich bezeichnet wird.

2010-01-05

Zeitgeist

Zeitgeist!

Erst neulich habe ich mir voller Neugierde die komplette Dokumentation "Zeitgeist" angesehen und muss wirklich sagen, dass ich diese für eine der ehrlichsten und offensten Dokumentationen seit dem Medienzeitalter erachte und respektiere.

Ich möchte sie euch allen gerne hier vorstellen, damit ihr selbst Zeuge davon werden könnt, was für ein ausgeklügeltes Spiel die Großmächte und Regierungsvorstände mit uns spielen. Das traurige an der ganzen Sache ist einfach die reibungsfreie Einfachheit, mit welcher die Geschichte bereits heimgesucht wird, nur damit eine Hand voll Menschen dieser Erde absolute Kontrolle und Macht über den gesamten Rest haben können.

Für alle, welche die Reportage noch nicht kennen hier eine kurze Zusammenfassung:

PART I behandelt die Entstehung der Religionen,welchen eigentlichen Sinn diese gehabt haben und schildert wie das Christentum es geschafft hat durch Massenmanipulation die Weltbevölkerung in Angst und Schrecken zu versetzen.. das ganze 1600 Jahre lang, wenn man sich das vorstellen kann.
PART II schildert welch falsches Spiel die amerikanische Regierung mit den Geschehnissen des 09/11/2001 angestellt hat und wo die eigentliche Wahrheit an diesem Massenmord steckt.
PART III schließlich ergreift nun den eigentlichen Kern und zeigt uns wie der Kapitalismus, die Geburt des Geldes, durch die Menschen, welche diesem Geld ihre eigentliche Macht gegeben haben vollstens dazu verwendet wird eine absolute Kontrollbasis über die ganze Erdbevölkerung und deren Zivilisationen zu schaffen und wie sehr wir doch von unserer Umwelt manipuliert und beeinflusst werden, nur damit diese Menschen hinter unserem Rücken ihr unehrliches System an uns weiterhin vollziehen können!

Bitte macht euch wenigstens ein paar Gedanken beim Betrachten der Reportage und freut euch darüber, dass es immer noch Menschen gibt, die in der Lage sind einen kühlen Kopf zu bewahren und solch eine Reportage ins Leben zu rufen.