Immobilien: Wohnungen, Häuser & Grundstücke  

News Community Reports

» Downloads Links

Werbefläche STRATO AG

 
 
 » LinuxTAG 2005 in Karlsruhe



Von Tobias Topyla am 27.06.2005 veröffentlicht.


Intro
Der "LinuxTAG" in Karlsruhe, der unter dem Motto: "where .COM meets .ORG" dieses Jahr schon zum 10. mal stattfand, war Grund genug für uns, für Euch da zu sein und Berichterstattung aus erster Hand zu leisten (22. - 25. Juni). Wir haben daher mit den wichtigsten Entwicklern gesprochen und die interessantesten Vorträge für Euch dokumentiert und inhaltlich zusammengefasst u.A.: Highlights wie ein Vortrag zur Architektur des IBMs CELL und dessen Programmierung unter GNU/Linux sowie exklusives Bildmaterial eines ersten lauffähigen CELL-Systems, dass in dieser Form nur auf der E3 einigen ausgewählten Firmenvertreten gezeigt wurde, sowie weitere brisante Informationen die wir mit viel Gesprächsaufwand den Entwicklern entlocken konnten. Anders als bei der CeBIT, die letztlich eine reine Werbeveranstaltung darstellt, handelt es sich beim LinuxTAG um einen wahrhaftigen Kongress, weshalb wir uns auch entschieden haben, im Gegensatz zu unserer hier und da eingestreuten CeBIT 2005 Berichterstattung über den LinuxTAG 2005 etwas ausgedehnter zu berichten und gleich einen eigenen Report zu spendieren. Viel Spaß beim lesen!





Details
Der LinuxTAG ist wie der Name bereits schon andeuten lässt, eine Veranstaltung die sich mit dem Thema Linux auseinandersetzt, vermehrt aber auch mit dem Thema "freie Software" und Betriebssystemen die auf dem Linux-Kernel aufbauen wie z.B.: "UBUNTU linux", "Debian GNU/Linux", "redhat Linux" oder "gentoo".


        

        


Auch wenn es für einen Außenstehenden so wirkt: Der LinuxTAG ist kein reiner Geek-Treff! Auch wenn die Besucher-Massen, die sich zwischen den beiden Kongress-Gebäuden im Kongresszentrum der kreisfreien Stadt Karlsruhe, eifrig hin und her bewegen, den Eindruck erwecken, dass es so wäre. Vielmehr soll der LinuxTAG, der mittlerweile nicht mehr einen "TAG" sondern vier Tage die Besucher fesselt, neben dem obligatorischen Treffpunkt für Linux begeisterte aus aller Welt auch eine Ausstellung verschiedener kommerzieller Firmen und Open-Source-Community-Projekte sein, der durch das Vortragsprogramm beider Gruppen ergänzt wird. Das Konzept geht auf: Der LinuxTAG, der von der Universität Kaiserslautern ursprünglich ausging, ist mittlerweile in Europa das größte Event dieser Art. Nach der "Linux-World-Expo" in den USA ist der LinuxTAG, der als etwas größere "Install-Party" und Linux-Themenabend einiger Studenten 1995 / 1996 zum damals noch unbedeutendem "UNIX namens LINUX" geplant war, nun eine Veranstaltung die Sympathisanten und Open-Source-Entwickler aus aller Welt anzieht und sich wahrlich zur bedeutensten Veranstaltung dieser Art entwickelt hat.





Linux everywhere
Ist die diesjährige Überschrift neben dem im Vorfeld erwähnten Motto: "where .COM meets .ORG". Die Veranstalter, die vom 22. bis 25. Juni eine grandiose Organisation bewiesen haben, konnten mehr als 12.000 Teilnehmer begrüßen, die jedoch nur zu einem geringen Teil einen eigentlich berechtigten Eintritt gezahlt haben, die große Masse kam kostenlos rein, wenn den vorher eine Anmeldung für das freie Community-E-Ticket-System erfolgt ist. Nach Ansicht vieler sollte es jedoch so bleiben, dass zumindest die Interessierten und Open-Source-Mitglieder so wieso "reinkommen", schließlich wäre ohne jene Gemeinschaft eine solche Veranstaltung gar nicht möglich. Tatsächlich ist es so, dass diese Veranstaltung nur durch den Einsatz vieler Sponsoren aus dem IT-Bereich möglich wird.









Bild: Ohne Sponsoren auch kein LinuxTAG.




Auf nach Karlsruhe!
Aus dem heimischen Hunsrück in Rheinland-Pfalz über den Pfälzer-Wald in den Schwarzwald in Baden-Württemberg ist es zwar keine Weltreise, trotzdem mussten wir bereits um kurz vor sechs losfahren um auch pünktlich vor neun anzukommen, um vor den erwarteten Besucher-Massen am Eingang Abstand zu gewinnen. Dank der direkten Anbindung der Autobahn Nr.: 5 in das Stadtzentrum und somit in das nahegelegene Kongresszentrum, war es trotz fehlendem Computer an Board (Navigationssystem) kein Problem den LinuxTAG zu finden. Die Veranstaltung öffnete wie bereits erwähnt bereits um neun Uhr ihre Pforten und schloss erst nach 18:00 Uhr, dem Zeitpunkt, zudem keine Vorträge mehr abgehalten wurden. Leider war das Vortrags-Programm relativ straff, weshalb es kaum möglich war an einem "LinuxTAG" alle Vorträge zu genießen, denn es liefen stets simultan gleich eine ganze Handvoll davon. Wer also dieses Jahr blut geleckt hat, der wird sich sicherlich nächstes Jahr mehr als einen "LinuxTAG" Zeit nehmen - so auch wir.







Bild: Früh am Morgen, überall noch tote Hose. Zeit sich in Ruhe umzuschauen.




Die Fachausstellung
Wie bereits erwähnt, standen den Organisatoren zwei Gebäude zur Verfügung, in dem einem fand ein Teil des Kongresses statt sowie die Messe der Fachaustellung, in dem anderen der Rest des Kongresses mit ebenfalls vereinzelten Ständen der Fachausstellung, jedoch mit dem Schwerpunkt Kongress.


        
Bild: Die Alten Scherzkekse aus Redmond waren bereits letztes Jahr da, doch dieses
Jahr wird so Richtig auf den Putz gehauen: "Microsoft-Security-Services-for-UNIX".



        
Bild: Nicht nur aber vor allem auf dem Stand von redhat gab es rund um die Uhr irgendwelche Leute, die immer etwas zu
erzählen hatten. Neben dem Kongress-Programm, auch mal etwas "anderes" zwischendurch.



Besonders interessante Dinge gab es dieses Jahr auf der Fachausstellung nicht zu sehen, mit der Ausnahme des laufenden CELL-Systems auf dem IBM-Stand am letzten LinuxTAG, dies hieß jedoch nicht, dass die angereisten Entwickler der einzelnen Projekte, trotz fehlendem Highlight auf dem Stand, nicht zu einem Gespräch bereit waren. Wer als altes Computer-Kellerkind sich dennoch zu einem Gespräch bewogen hat, der konnte in aller Regel einen wahren Informationsfluss entfachen und vor allem auf den Ständen der Open-Source-Projekte echte Freunde zu einem gemütlichen Plausch finden, der auch mal mehr als fünf Minuten dauerte. Die Mischung aus kommerzieller Unternehmen und Open-Source-Projekte war zwar mehr oder weniger "fifty - fifty", jedoch war es anzumerken, dass Unternehmen wie redhat eine wesentlich aufwendigeren und vor allem größeren Stand als z.B.: Die "X.org Foundation" hatten. Andere Unternehmen wie IBM wiederum versuchten durch motivierte und vor allem freundliche "Manpower" zu überzeugen, es waren unglaubliche viele kompetente Leute dort unterwegs, die gerne alle aufkommenden Fragen beantworteten (Zum CELL später mehr).


        

        

        

        




Schwarze Schafe
Negativ fiel besonders "web.de" auf. Zwar hatte man auf seinem Stand unheimlich viel Werbeflächen zugekleistert, jedoch war man dank inkompetenter Mitarbeiter und labiler Informations-Politik nicht in der Lage eine schlüssige Antwort auf die Frage: "Was haben Sie mit GNU/Linux zu tun und weshalb sind sie auf dieser Veranstaltung vertreten?", zu geben. Gedächtniszitat: "Man sei deshalb hier, weil man auf seinen Hosts Linux einsetze". Schön dachten wir uns, dies machen etwa < 95 Prozent der ISPs in Deutschland ebenfalls. Aber, wie wäre es liebes "web.de"-Team ggf. mal etwas der Community zurück zu geben, zumindest mit einer objektiven GNU/Linux-Berichterstattung auf den eigenen Seiten, so wie es viele der Anderen Aussteller in einer ähnlichen Weise versuchen, statt den LinuxTAG als Werbeveranstaltung zu nutzen. Wie dem auch sein, es kann nur besser werden - immerhin ist "web.de" nach der Aufnahme in das Unternehmens-Konsortium "United-Internet" (1&1, GMX) ein Mitglied eines Weltumspannenden "Global-Players" geworden.



Bild: Kein Know-How, nur Werbung.








Bild: Neben Fachausstellung & Kongress gab es auch Publikumwirksame Wettbewerbe!




Der Kongress
Oder auch: "Das was den LinuxTAG zum LinuxTAG macht". Wie bereits im Vorfeld erwähnt fand in den Tagen des LinuxTAG 2005 sehr viele Vorträge statt. In der Regel dauerte ein Vortrag etwa eine bis zwei Stunden und wurde von einem oder mehreren Referenten in Deutsch, aber auch vermehrt in Englisch geführt. Alle Vorträge wurden in der Regel durch eine Präsentation über einen Beamer (Digitalprojektor) unterstützt. Deutlich anzumerken war, dass die Vorträge, die in Englisch abliefen und in den klimatisierten Räumen stattfanden, wesentlich mehr Besucher-Zulauf erhielten, als die Deutschen Vorträge, die zum Teil in nicht klimatisierten Räumen stattfanden. Besonders erfreulich war, dass die Vorträge auch als Kongress ausgeführt waren, sprich: Es gab die Möglichkeit, während des Vortrags, wenn es denn der Referent zuließ, oder danach, spezielle Fragen zu stellen oder ergänzend etwas beizutragen. Hatte man das Glück sich aus den vielen Vorträgen einen interessanten und gut geführten Vortrag auszusuchen, der darüber hinaus von begeisterten Zuhörern am Ende ergänzt oder erweitert wurde, so kam ein wahres Symposium-Feeling auf - wunderschöne Sache.






  
Bild: Das X-Window-System steht auf dem Kongress-Plan, der Raum ist komplett voll.


Zusammengefasst waren wirklich fast alle Vorträge erstklassig. Wer sich für freie Software im allgemeinen begeistern kann, der erlebte hier auch nach "nur" einem Tag ein wahren Informations-Schock, denn man erst mittels ein paar auf dem LinuxTAG angebotenen JOLT Cokes abtöten musste. Besonders interessant fanden wir jedoch IBMs Vortrag zur Programmierung des CELL-Chips unter Linux und den Vortrag über den Einsatz von Linux in der "HEP" (Hoch-Energie-Physik) an der Universität Karlsruhe und dessen Möglichkeiten zur Nutzung des globalen GRID-Computing-Netzes sowie den Vortrag über Mozillas Firefox und dessen kommende Entwicklung. Diese Vorträge haben wir genau mitverfolgt und werden versuchen hier zusammenfassend zu erläutern, worum es sich dabei genau handelte. Fangen wir zunächst mit dem Vortrag an, der sich mit HEP & Linux beschäftigte.


     

     




Kongress: Freie Software und Linux in der Hochenergiephysik
Geführt wurde der Vortrag von Levin Jungermann, Yves Kemp, Thorsten Schneidle & Marcel Stanitzki vom Institut für Experimentelle Kernphysik an der technischen Hochschule in der Universität Karlsruhe. Grundlegend wurde zunächst erläutert was HEP ist. Die Hochenergiephysik bezeichnet hiernach einen Teilbereich der Physik, der den Aufbau der kleinsten Elementarteilchen und deren Reaktionen miteinander untersucht. Die aus dieser Forschung gewonnen Ergebnisse sind wichtig für das menschliche Verständnis des Aufbaus der heutigen Welt, aber auch des frühen Universums, als noch extreme Hitze herrschte und es möglich war, dass freie Teilchenreaktionen stattfanden. Wer sich mit dem Thema der Kernphysik näher beschäftigen möchte, der hat die Möglichkeit von unserem Host ein etwa 120 MIB großes Video des Landesstudios RPL / SWR von 1987 zu beziehen. Die darin enthaltende Sendung "OUTPUT - Der Blick in das Atom" hat zwar mit dem LinuxTAG nicht das Geringste zu tun, verdeutlicht jedoch Zusammenhänge, die "einleuchtend" sein können.






  
Bild: (uni-bielefeld.de) & (uni-wuppertal.de) - Physiker können nie genug Rechenpower haben.


Doch, was hat das Ganze mit Computer-Technik zu tun? Eine Ganze Menge, eigentlich war der Gesamte Prozess der Computer-Entwicklung, so wie wir ihn aus heutiger Sicht sehen, stets mit und von Physikern geprägt, die sehr schnell die Bedeutung und den Wert dieser Geräte für Ihre Forschung erkannten und auch stets daran mitwirkten. So ist z.B.: Das World-Wide-Web so wie wir es kennen, eine Erfindung zweier Physiker. Ebenfalls ist das Wichtigste Bauelement heutiger Computer: Der Transistor, der 1947 in den Bell Laboratories (AT&T) von einer Gruppe Wissenschaftler entwickelt wurde - ein Gerät das nur existiert, weil wichtige Forschungsarbeit von Physikern dafür verwendet wurde und deren Mitarbeit einen wichtigen Grundstein legte.



Bild: "weltderphysik.de" - Das WWW, eine Erfindung von Informatik affinen Physikern.



Bild: "bellsystemmemorial.com" - Der Transistor ebenfalls eine "Physiker-Geburt".




"Einsteins Enkel" nutzen fast ausschließlich Linux und Freie Software!
Sie nutzen nicht nur Linux, sondern entwickeln es auch weiter und lassen nebenbei Protonen mit Elektronen zusammenstoßen und zwar mit annährender Lichtgeschwindigkeit und ermöglichen so einen Einblick in kleinste Raum-Zeitgebiete, die sich hierbei innerhalb von "0,000000000000000001 m" (1 Atto-Meter, 1 am [10^-18]) abspielen. Bereiche in denen der Zustand von einer Trillionstel Sekunde nach dem Urknall hergestellt werden kann und somit die Entwicklung des Universums verständlich gemacht werden kann. Die von Sensoren - Physiker sprechen hierbei von Detektoren - aufgenommenen Daten sprengen Dimensionen, die heutige Computer, so wie wir sie von zu Hause kennen, nicht in der Lage wären zu beherrschen, weshalb man sich hierfür eines Weltumspannenden Computernetzes zu Nutze macht um die bestehenden Ressourcen gemeinsam im Rahmen des Grid-Computings-Prinzips zu nutzen. Grid steht hierbei für "Gitter" und kommt aus dem englischen und bezeichnet mit "grid computing" alle Methoden, die Rechenleistung vieler einzelner Computer in einem Netzwerk zusammenfasst um so verteiltes Rechnen eines Datensatzes zu ermöglichen. Die Physiker benutzen hierbei ein eigens entwickeltes "Scientific Linux", dass aufgrund der von redhat geänderten Lizenz-Poltik notwendig wurde. Anhand der hier unten zur Verfügung gestellten Präsentationsfolien, wird deutlich, dass die Physiker bereits um das Jahr 1995 herum anfingen GNU/Linux-Distributionen einzusetzen. Highlight des Vortrags war ein Live-Login im Grid-Computing-Network der Physiker und das Absenden eines "Jobs", mit der darauffolgenden Kurz-Analyse des Ergebnisses. Rundum ein gelungener Vortrag, der mal wieder deutlich gemacht hat, wie wichtig vor allem Linux und die dazugehörige Freie Software in der Wissenschaft ist, wo freier Einblick und die Modifizierbarkeit der Mechanismen gewünscht ist.


           

           

           

           

     




Kongress: Firefox in Fedora
Der Referent Christopher Aillon stellte in einem kurzen Vortrag die Features und Vorteile von Firefox vor, insbesondere im Zusammenhang mit Fedora, der freien Distribution, die redhat ins Leben gerufen hat (wir berichteten). Christopher Aillon ist hierbei Mitarbeiter von redhat, zuständig für das Desktop-Development und gleichzeitig Mitglied im "Mozilla-Firefox-Project". Er ist die Person, die das "tabbed browsing" im Firefox in dieser Perfekten-Form zu verantworten hat.



Im ersten Teil des Vortrags wurde zunächst erläutert, was Firefox überhaupt ist und wie es dazu kam, im großen und ganzen nichts neues, ebenso wie einige Shortcuts und Erläuterungen zu den bekannten Features. Highlight war das Ausplaudern einiges Features die in Firefox Ver.: 1.1 realisiert werden sollen. Darunter ein Button für alle paranoiden unter uns, der auf einen Knopfdruck, sämtliche Cookies, Formular-Daten, Temporary-Files und eingegebenen Passwörter vernichtet. Schöne Sache, für alle jene die Cookies für diverse Dienste innerhalb des Internets aktiviert lassen möchten, sie jedoch in bestimmten Zeitabständen selbst und kontrolliert löschen möchten. Möglich war bisher lediglich eine Einstellung, die alle "Security related"-Daten nach dem schließen aller Browser-Fenster löschte, abgesehen von der aufwendigen "per Hand"-Methode, die immer erlaubt alle Dateien einzeln ins Jenseits zu schicken.



Bild: Passender Spruch. Entdeckt auf der diesjährigen CeBIT bei INTEL.


Darüber hinaus wurde bekannt gegeben, dass man bereits mehr als 60. Millionen Downloads, alleine von den eigenen Web-Servern aus verschickt hat und etwa 100. Millionen Update-Anfragen seit erscheinen der ersten Version hatte. Hierdurch lässt sich ein Marktanteil von ahnnährend 10 Prozent auf der Welt errechnen. Mit der Ver.: 1.1, die darüber hinaus stärker auf Geschwindigkeit und Kompatibilität optimiert werden soll, erhofft sich das Firefox-Projekt der Mozilla-Foundation einen Marktanteil von einem viertel, sprich mindestens 25 Prozent. Ergänzend zum Firefox relevanten Vortrag fand noch ein freier Vortrag zu "Thunderbird", dem E-Mail-Client, unter dem Motto: "Read Mail - Not Spam", statt - leider haben wir diesen verpasst. Wie gehen jedoch davon aus, dass hierbei ähnliches ideale verfolgt werden wie beim Firefox-Projekt, mehr praxisbezogene Features, mehr Geschwindigkeit und mehr Sicherheit sowie eine noch einfacher zu verstehende und somit logische GUI. Der wichtigste Vortrag, jedenfalls aus unserer Sicht, wurde stets im Auge behalten und wir haben alles mögliche getan um einen der Vorderen Sitzplätze zu erhaschen, kommen wir nun also am Ende zum Höhepunkt.







Kongress: The Cell Processor Programming Model
Der letzte Tag des LinuxTAGs und IBM packt überraschenderweise endlich zum CELL-Prozessor aus und wir sind glücklicherweise dabei: "The audience is listening" - ein Mann betritt den Saal und gibt noch schnell etwas auf seinem Thinkpad ein, dann ist es soweit: Er stellt sich vor: Arnd Bergmann ist sein Name, er arbeitet bei IBM Deutschland, genauer gesagt in der Entwicklung in Böblingen (Bei Stuttgart). Wirkt er auf uns wie ein typischer IBM-Mitarbeiter, die man jedes Jahr auf der CeBIT in ihren Anzügen vorgeführt bekommt? Nein. Arnd Bergmann ist durch und durch Kernel-Hacker und er hat etwas dabei, dass alle sehen wollen, der Weinbrenner-Kongress-Saal applaudiert, im Erdgeschoss des Kongresszentrums ist die Hölle los: Eine IBM CELL Prototyp-Platine wird aus ihrer Antistatischen-Verpackung befreit und in die Luft gehalten, wir erkennen zwei Kerne und schießen schnell ein Foto. Wahre Euphorie! Ein Geek neben uns kann seine Begeisterung kaum in Worte fassen: "Das, das, das wird die Welt verändern". Ganz so wird es wohl nicht ausfallen, aber schön und eine tolle Überraschung war es dennoch. Niemand hatte damit gerechnet, schon gar nicht am letzten Tag des LinuxTAGs und vor allem nicht am späten Nachmittag, als bereits einige Besucher auf dem Heimweg waren. Wir sind jedenfalls froh, bisher die einzigen zu sein, die über dieses Event exklusiv Berichterstattung leisten konnten, abgesehen von den kleinen Erwähnungen als Text, die bereits hier und da die Runden drehen. Freuen Sie sich also auf etwas ganz besonderes Bildmaterial.











Der Vortrag beginnt, gesprochen wird weniger über den CELL an sich und dessen genaue Spezifikationen und vor allem nicht über IBMs Pläne für dessen Verwendung, sondern eher um dessen Programmierung unter Linux, vor allem wie die Abfrage und somit die Programmierung der einzelnen SPUs (Synergistic-Processing-Units), die auf dem Struktur-Plan als "SPE" ("E" für Element) eingezeichnet sind, ablaufen soll. Die momentane Lösung würde nämlich noch keine große Rechenleistung, so Arnd Bergmann. Der Chip und dessen potenzielle Leistungsentfaltung kann man ohne spezielle Software nicht im Ansatz ausschöpfen, da die zusätzlichen SPUs nicht automatisch von SMP-Anwendungen wie in DC-CPUs angesprochen werden. Man müsse vielmehr verstehen, dass die Abfrage vom Zentrum ausgeht, dem PPC-Kern und dessen "PPE" (Power-Processor-Element), der die einzelnen SPUs verwaltet. Man könne dies zwar auch mit viel Aufwand separat bewerkstelligen - IBM sei jedoch im Begriff die Sache doch anders ablaufen zu lassen und habe folglich anderes vor. Die Programmierung, wie man sie gewohnt ist, würde aber dennoch funktionieren, jedoch nicht die potenziell enthaltene Kraft frei werden lassen, die der CELL beherbergt. Um diese notwendig werdende Aufgabe aber nicht auf den armen Programmierer der Anwendung auszulagern, werde es nötig sein den Kernel grundlegend anzupassen, so dass die Synchronisierung der einzelnen Prozesse zwischen den Kernen so in dem Kernel abläuft, der dann als Übersetzer des Codes der Anwendungen für die einzelnen SPUs fungiert. IBM stellt somit praktisch im Rahmen seines Vortrages den Vorschlag eines Interface-Modells vor, damit die übrigen Kernel-Hacker der Open-Source-Community in Zukunft an einem Strang ziehen. Eigentlich genial: Bestehende PPC-Applikationen würden nämlich so auf jeden Fall laufen, der CELL ist schließlich PPC970 kompatibel, der Vorteil der weiteren SPUs würde aber ohne weitere Anpassung der PPC-Applikationen laufen und sich in einer brachialen Leistung zeigen, wenn denn ein optimal auf den CELL ausgerichteter Kernel vorliegen würde. Das ist der Plan für die Zukunft, einen Kernel zu schaffen, der all dies möglich macht. Kein leichtes, aber machbares Ziel. Die bisherigen "pSeries", die bislang mit dem PPC970 liefen, sollen wohl so in Zukunft auf den CELL umgestellt werden, der durch GNU/Linux befeuert wird, nette Idee! Der bereits von IBM bekannte "Blade"-Form-Faktor soll scheinbar so Platz für die CELLs ermöglichen, damit in Zukunft mehrere dieser Platinen parallelisiert gefahren werden können. die Prototypen sind bereits im Blade-Format ausgeführt und besitzen auch dessen Anschlussstecker. Mit Preisen für einen solchen Rechner kann man im Moment schwer rechnen, wer es jedoch darauf anlegt einen CELL mal zu besitzen, der kann durchaus für einen mittleren vierstelligen Euro-Wert bereits mit einem pSeries-CELL-Rechner demnächst eingedeckt werden. Der CELL wird aller Vorrausicht nach also keine reine Illusion, zumindest im oberen Workstation- und Host-Segment.


  


Momentan und wohl auch zum Teil in der Zukunft, sollen die SPUs des CELL aber auch die Möglichkeit über den Kernel geben, zunächst über ein "Pseudo-Dateisystem" gesteuert zu werden. Das Ganze heißt "spufs" und soll so über Unterverzeichnisse, die von der Anzahl der SPUs abhängig sind, einen virtuellen Space bereit halten. Momentan ist bekanntlich bei acht Stück das Ende erreicht. Die verfügbaren SPUs sollen sich aber z.B.: Über eine Binary komplett steuern lassen - der pro SPU zur Verfügung stehenden Cache von 256 KIB soll so komplett nutzbar werden. Man ist man im Moment in der Phase, einen "Super-Scheduler" zu entwickeln, der bei Bedarf weitere Kontexte nachlädt und vorherige aus den SPUs kickt. Hierbei handelt es sich um reine Software-Optimierung, der CELL ist hiernach bereits seit Monaten fertig und wartet nur noch auf die Serien-Produktion und die passende Software aus der Open-Source-Ecke.


           

           

           

           

  


Deutlich wird vor allem, dass IBM auf jeden Fall Energie darin investiert hat, zu zeigen, dass der IBM CELL weitaus mehr ist, als ein Chip, der in einer Konsole vor sich hin werkeln soll. Die volle Spezifikation des Prozessors soll bei erscheinen des CELL offen gelegt werden, damit die Open-Source-Community frei und ohne aufwendiges Reengineering für den CELL entwickeln kann. So wird es aus einem vorangegangenen Gespräch an diesem Tag mit einem anderem IBM-Mitarbeiter deutlich, dass Mitproduzent SONY lediglich der Erste Großabnehmer für den CELL sei und man sich bereits seit Jahren in der Planung befindet, wie in Zukunft eine wesentlich größere Menge des CELLs abzusetzen sei, hierfür ist ein perfekter Linux-Support und vor allem jetzt schon ein halbwegs laufendes System zur Präsentation, notwendig. Image ist bekanntlich fast alles (wir berichteten) - vor allem bei einem Premium-Hersteller wie IBM.


  


Faszinierend ist der momentane Zustand des gesamten Projektes "CELL" aber allemal, der CELL wurde im Betrieb gezeigt und zwar mit Linux, einige Programme sind allem Anschein nach bereits erfolgreich portiert. Bilder vom Monitor und dessen Output durften wir jedoch nicht machen, unser Gedächtnisprotokoll sagt uns aber, dass bereits eine graphische Oberfläche, vermutlich KDE sowie bereits einige bekannte Programmen wie EMACs und ähnliches am Start waren. Aussagen zur Performance würden den Job des netten IBM-Mitarbeiters gefährden, er versicherte uns aber, dass der Prototyp, der als "Blade" (~ 23 cm * ~ 43 cm) mit zwei Prozessoren im SMP-Ausführung zu sehen war, sehr schnell war - zumindest in der jetzigen Fassung mit acht SPUs, wenn sie denn über eine intelligente Programmierung mit dem spufs, auch ausgelastet werden. Mit insgesamt 1024 MIB XDRAM-RAMBus On-Board von TOSHIBA war das Board zwar nicht typisch "Monster", jedoch mehr als Erfolgsversprechend, wenn man bedenkt, dass die auf der Platine aufgelöteten ICs im Dual-Channel-Modus liefen. Das PCB war vermutlich doppelt so hoch wie ein normales PCB - ein enormer Verdrahtungsaufwand war an allen Stellen erkenntlich. Der "Informant" war sich aber sehr Gewiss, als er davon sprach, dass acht SPUs, die als Vektor-Einheiten fungieren, nur der Anfang seien. Die Zahl werde man aller Vorrausicht nach in Zukunft beliebig zur Basis zwei mit einem Exponenten versehen, die wir heute als SPU-Anzahl haben. Meint er damit in der Tat bis zu 256 SPUs fragten wir daraufhin - ein Grinsen machte sich bei ihm breit. Gut - das haben wir verstanden. ;-) Möglich sei dies aber heute nicht, da die Fertigung in 90 nm bei dieser Anzahl von SPUs einen viel zu große Silizium-Fläche erfordern würde. Die Ausbeute pro Wafer würe so viel zu gering werden. Grundlegend gilt nämlich: Werden die Chips von der Fläche her größer, so kann auch nur ein Fehler in einer beliebigen nicht Redundant ausgeführten Logik-Einheit dazu führen, dass der Ganze "Mega-Chip", der eine Unmenge an Silizium-Fläche verschlingt, für den Sonder-Müll-Container reif ist. Mit Glück würde man bei 90 nm so aus den gängigen Wafer-Größen vielleicht gerade eine handvoll Chips gewinnen, der Preis wäre so pro einen CELL-Chip viel zu hoch. Deshalb ist es momentan noch geschickter mit einer einstelligen SPU-Anzahl zu arbeiten um den Preis realistisch zu halten. Spätestens mit weiter schrumpfenden Strukturbreiten - sprich dem bald aufkommenden Verfahren in 65 nm, dass IBM bereits erprobt, aber im Gegensatz zu Intel (wir berichteten) noch nicht ganz zur Serienreife gebracht hat, werden wir vermutlich CELLs sichten, die einen wahren SPU-Zellen-Verbund darstellen, mit wesentlich mehr als acht SPUs ggf. 16 oder gar 32. - denkbar ist einiges. Der Takt wird wohl so immer weniger eine Rolle spielen, sondern die Menge der zur Verfügung gestellten SPUs, jedenfalls im heiß umkämpften High-End-Workstation- & Host-Segment des IT-Markts, wenn der CELL als Vergleich herangezogen wird.



Der gesprächige IBM-Entwickler war trotz strikten Informations-Verbot, aber dennoch zu einigen weiteren Informations-Outputs bereit. So gab er bekannt, das die ausgestellten CPUs mit jeweils 2,4 GHz liefen und der Stromverbrauch bei maximal 300 Watt für die komplette Aufstellung, aufgrund des Netzteils, liege. Zieht man also die an den Prototypen angeschlossenen Geräte ab und rechnet ein wenig herum, so kommt man auf mehr oder weniger ~ 100 Watt Wärmeverlustleistung pro CELL. Man sei aber bereits mit selektierten CELLs sehr nahe an die 3,0 GHz gekommen, jedenfalls seien 2,8 GHz mit aufwendigerer Kühlung und stärkeren Netzteilen momentan kein Problem, so der IBM-Entwickler.

Mit der Konfrontation zu SONYs Veröffentlichungstermin der PlayStation III und vor allem dem Ausstiegs Apples aus dem PPC-Geschäft hatte man wohl gerechnet und auch einige Argumente ohne lange zu überlegen auf der Hand, so sprach der IBM-Entwickler, dass Angesichts des Beta-Status des Produktes "CELL", der Launch-Termin der PlayStation III wahrscheinlich nicht realistisch sei. Immerhin komme man zwar gut voran, fertig sei man aber noch lange nicht. Abschließend zu diesem Thema, sagte man uns nur, dass die Entwickler, die bei SONY sich dafür verantwortlich zeichnen, den CELL zu implementieren, momentan unter extremen Hochdruck und sehr abgeschottet arbeiten. Das Selbe gilt für Microsofts Leute, die statt dem CELL einen dreifachen PPC-Kern einsetzen. Der Stand der Hardware, die jedoch die Kernel-Entwickler für Linux bekommen, sei aber ebenfalls Brandneu. Unzählige noch schnell vor dem LinuxTAG angebrachte Kabel, die einige Lötpunkte miteinander verbinden, deuten noch auf vereinzelte nachträglich angebrachte Bug-Fixes, wie eine verkehrt herum eingebaute Diode und ähnliches wie z.B.: Angehobenen Versorgungs-Spannungen zur Festigung der Stabilität usw. hin. Was die vereinzelten Kabel aber genau auf der Platine zu suchen haben "wusste" man offenbar nicht wirklich, da dies die Sache der Ingenieure und nicht der anwesenden Softwareentwickler sei.

Den Ausstig Apples dagegen (wir berichteten) sieht man gelassen, den Anteil, den Apple bei IBM mit dem Kauf der PPC-Prozessoren hatte, war den eigenen Aussagen nach, so gering, dass es finanziell keine Rolle für IBM spiele, ob Apple nun mitmacht oder nicht. Man geht aber davon aus, dass Apple sich damit mehr Schaden hinzugefügt hat, als es Nutzen bringt - in den Augen von IBM habe x86 keine wirklichen Vorteile im Professionellen Einsatz, der Umstieg Apples würde demnach also den Mac eher als Spielkonsole und "Klicki-Bunti-Maschine" verkommen lassen, statt es wie seit je her als Workstation darstehen zu lassen. Man bedaure auch den Image-Schaden, den sich Apple damit hinzufüge, so jedenfalls der IBM-Entwickler. Eine weitere Zusammenarbeit aber werde mit Apple wohl in diesem Jahrhundert nicht mehr stattfinden, so viel sei man sich immerhin sicher.


     


Interessant war auch die Aussage, dass man keinen großen Second-Level-Cache brauche. So wie es AMD bereits vorgemacht hat, kann man durchaus mit weniger als 1024 KIB Second-Level-Cache viel Performance, dank des integrierten Memory-Controllers und einer brachialen RAM-Transfer-Leistung erreichen - die Hardware hierfür liefert exklusiv TOSHIBA. Auf den Prototypen-Boards waren deutlich TOSHIBA-Bausteine in BGA-Bauweise, direkt auf der Platine aufgelötet, einsehbar. Die CELLs selbst, schienen ebenfalls auf die Platinen gelötet. Laut dem IBM-Mitarbeiter habe dies jedoch einen Grund, da ein genaues Sockel-Design sowohl für die XDRAM-RAMBus-Module sowie für den CELL, noch nicht fest stehe. Aus diesem Grund begnüge man sich zunächst mit dieser Lösung - es tue schließlich seinen Zweck. Zurück zum Second-Level-Cache, der bei uns weitere Fragen aufwarf, immerhin gehen viele vermeintliche Power-User immer noch davon aus, dass hier eine größere Kapazität auch eine größere Leistung zur Folge hat - dies ist jedoch aus den oben genannten Gründen aus heutiger Sicht, wenn ein interner Memory-Controller vorliegt, nicht mehr ausschlaggebend. Für spezielle Anforderungen, in denen eine höhere SPU-Anzahl wichtiger ist, soll es sogar weitaus weniger als 512 KIB Second-Level-Cache werden um Platz für weitere SPUs zu machen. Es wird deutlich, dass der CELL sehr stark skalierbar ist und vom High-End-Handy bis zum Großrechner alle Anforderungen für eine moderne CPU-Architektur erfüllt, spätestens mit der von Arnd Bergmann in seinem Vortrag, angesprochnen Kompatibilität zum PPC970 und der Möglichkeit den CELL bei der Programmierung so anzusprechen, als sei es eine SC- statt DC-CPU, werde man die Software-Entwickler für sich gewinnen können, davon gehe man sehr stark aus - letztlich seien die Reaktionen der Geeks auf dem LinuxTAG mehr als ein Zeichen dafür. Auch sei die Arbeit für ein Umstricken eines z.B.: Sehr nah an x86 programmierten Programms keine unmögliche, sondern machbare Sache, die nicht sehr viel Zeit erfordere. Alles in allem hat IBM mit den Strukturen des Programm-Modells zur vereinfachten Programmierung des PPE, der die SPUs verwaltet, alles getan um eine breite Akzeptanz in der Open-Source-Community aufzubauen. Hoffen wir nur noch, dass der CELL so wie er momentan gezeigt wurde, auch für Normalsterbliche Geeks erhältlich sein wird, wir setzen viel Hoffnung, in die Annahme, dass es wohlmöglich irgendwann in der Tat auch Consumer-Desktop-Produkte auf Basis des CELL geben wird. Und wenn dies aus welchen Gründen auch immer nicht geschieht, so gibt es ja immer noch die Leute, die sich um Gamecubes und XBOXen in diversen LUGs (Linux-User-Groups) scharren und dort mit wenig finanziellen Aufwand aber viel Know-How GNU/Linux darauf laufen lassen.


  
Bild: Spielkonsolen mit Linux als vollwertige Computer nutzen. Bald auch mit Microsofts XBOX360 oder SONYs PlayStation III?




Hit me Baby one more time!
Wenn man seine Gedanken ein bisschen laufen lässt, so ergibt auch alles ein schlüssiges Bild: IBM liefert direkt zum Marktstart der PlayStation III ein GNU/Linux + SDK für den CELL und die Community muss nur noch die TCPA/DRM-Spielerei umgehen, eigentlich genial - wenn man bedenkt, dass SONY den Kauf der Konsole stark subventioniert und man so indirekt SONY die finanziellen Mittel aus dem Fass ohne Boden zieht, sich aber dennoch für eine tolle CPU bei IBM ohne wirklich etwas zu zahlen, über SONY, finanziell bedankt. Tolle Sache und wohlmöglich ein Trick 17 für das Guiness-Buch der Rekorde.





Weitere LinuxTAGe
Abschließend möchten wir noch auf andere Veranstaltungen hinweisen, die sich mit der Thematik der freien Software und vor allem Linux auseinandersetzen, da wäre zum einen die von uns bereits besuchte, aber weniger interessante "Linux-Halle" innerhalb der CeBIT, sowie kleinere, aber genau dadurch wertvollere Veranstaltungen, wie diese Link-Liste sie aufzeigt:

» http://www.berlinux.de
» http://www.practical-linux.de
» http://chemnitzer.linux-tage.de



Bild: Als ganz besondere Veranstaltung möchten wir noch ein mal auf "WHAT THE HACK" in diesem Sommer hinweisen (wir berichteten).





  

  


Bild: Auf der diesjährigen CeBIT trotz "eigener" Halle sehr wenig los, tolles Detail auf dem
letzten Bild: LinuxTAG-Werbung auf der CeBIT. In dem Sinne, bis zum nächsten LinuxTAG.


Interessante Links zum Thema


» LinuxTAG.org
» Kernel.org
» GNU.org
» Open-Source.org

 

Impressum 

"" 2002 - 2011. Alle Rechte vorbehalten.