Archiv der Kategorie: Software

Ati Catalyst 8.11 für Linux

Der offizielle RSS Feed hat mich heute morgen auf die neue Version aufmerksam gemacht, die nun endlich offiziell den neuen X.Org Server aus Ubuntu Intrepid (7.4 mit X-Server 1.5) unterstützt. Ehrlich gesagt weiß ich gar nicht, mit welcher Version mich die Ubuntu-Quellen ein paar Tage nach dem Release versorgt haben. Im Log-File sehe ich einen Eintrag mit

(II) ATI Proprietary Linux Driver Version Identifier:8.54.3
(II) ATI Proprietary Linux Driver Release Identifier: UNSUPPORTED-8.543.2
(II) ATI Proprietary Linux Driver Build Date: Oct 10 2008 21:37:39

Die Versionsnummer kommt mir recht merkwürdig vor, ist aber die einzige, die halbwegs in das normale ATI Schema passt. Die große Aufregung, dass es zum Release keinen funktionsfähigen Treiber gab, macht es extrem schwer verlässliche Informationen über die Suchmaschinen zu finden. War diese „8.543.2“ nun ein Zwischen-Release von ATI oder doch nur ein Community-„Hack“, um Alt mit Neu zu verbinden?

Wie auch immer, die 8.11 ist verfügbar und läuft auf meinem Rechner, bis der freie Treiber brauchbar ist.

Die manuelle Installation ist simpel:

1) Altes fglrx-Paket aus den offiziellen Quellen deinstallieren

1) Den neuen Treiber herunterladen und ins Verzeichnis wechseln

2) sudo chmod +x ati-driver-installer-8-11-x86.x86_64.run

3) sudo ./ati-driver-installer-8-11-x86.x86_64.run

4) Den Anweisungen folgen

5) sudo aticonfig –initial
-> (war bei mir nötig)

6) Neustart des X-Servers

Anschließend steht im Logfile:

(II) ATI Proprietary Linux Driver Version Identifier:8.55.2
(II) ATI Proprietary Linux Driver Release Identifier: UNSUPPORTED-8.552
(II) ATI Proprietary Linux Driver Build Date: Oct 28 2008 21:22:33

Nun läuft auch mein Compiz-fusion wieder wie es soll.

Der letzte Zufluchtsort

Neuinstallationen stürzen mich in schöner Regelmäßigkeit in die Krise. In dieser Minute läuft auf meinem PC nur noch die Ubuntu Installation.

Bei der „Rückabwicklung“ meiner Windows XP Installation hab ich es irgendwie geschafft, das BS so zu verbiegen, dass die explorer.exe nicht mehr startet. Dabei hab ich nur so viele unwichtige Programme wie möglich deinstalliert, um das zweiten Komplettbackup auf einen einzigen DVD-Rohling zu bekommen. Zum Glück schlummert auf einer anderen Festplatte ein kompletter Dump der Partition im lauffähigen Zustand. Allerdings bzip2 gepackt – bis ich das wieder aufgespielt habe, kann ich den Kram auch stundenlang zusammen frickeln.

Und eigentlich möchte ich ja Windows Vista installieren – da sind mir aber beim Brennen ein paar Datenfehler auf die Installationsmedien geraten. Argh. Das Neubrennen bereitete Schwierigkeiten, weil der NTFS Treiber den Datenträger nur noch gezwungenermaßen anfassen möchte. „NTFS logfile is unclean“ – dem Vista Installer sei dank. Darum lade ich parallel zu meinen Installationsversuchen, das ISO neu vom MSDNAA Server der FH. Vielleicht ist mein Notebook ja in der Lage das ISO vollständig auf eine DVD-RW zu schreiben (andere Rohlinge hab ich gerade nicht zur Hand).

Schön das ich mit Ubuntu noch einen letzten Zufluchtsort habe, bis mir Vista den MBR überschreibt.

Nachtrag: Windows Vista bricht die Installation jetzt schon vor der ersten Eingabemaske ab: error message 0x00000e9 (IDE und AHCI Modus). Die Windows XP Installation stürzt sogar ab.

Nach dem Booten kommt: „Fehler beim Laden des Betriebssystems“. Jackpot!

Wenns ein grub-install unter grml nicht behebt, fang ich an zu heulen.

Nachtrag2: Läuft wieder. Aber bei der Partitionstabelle ist was im argen.

FrOSCon 2008: Sonntag

Die Bahnverbindung war heute morgen etwas knapper und so war ich erst auf die Sekunde im ersten Vortrag.

In Programmdokumentation leicht gemacht – Wenn aus Hass Liebe wird wurde sehr anschaulich vermittelt, welche Personengruppen ihre jeweiligen Erwartungen an die Dokumentation eines Programmes haben – sei es der Endanwender, der Administrator, andere Entwickler oder im kommerziellen Umfeld auch der Verkäufer des Produktes. Es gab Tipps wie sich diese meist lästige Aufgabe so in die Entwicklung einbinden lässt, dass alle beteiligen Personen (sich selber eingeschlossen) mit dem Ergebnis zufrieden sind. Ein sehr schöner Vortrag mit anschaulichen Struktogrammen, der bestimmt seine Spuren in einigen OpenSource-Projekte hinterlassen wird.

Die Frage nach dem besten System zur automatischen Generierung der Doku aus dem Code heraus und dem perfekten Redaktionssystem war natürlich auch schnell auf der Tagesordnung, lässt sich aber nach Aussage der Referentin nicht allgemein beantworten. Mist!

Advanced JavaScript Programming – Features, Patterns and Techniques im Anschluss hätte ich mir auch sparen können. Nur mit meinen Grundkenntnissen aus dem Blick in den Code einige Webseiten bewaffnet, konnte ich nur resigniert den Kopf über das Klassen-Konzept und den Umgang mit Funktionen und Attributen schütteln. JS ist wohl keine Sprache mit der ich mich ernsthaft anfreunden könnte. Wenn ich mich recht erinnere, begann der Vortrag auch mit dem Eingeständnis der Bemerkung, dass im Browser halt kein ernsthafte Alternative verfügbar sei. 😛

Die folgende Keynote „Simple is hard“ von Rasmus Lerdorf, dem Erfinder der Script-Sprache PHP war wiederum ein echtes Highlight. Er begann mit einer kurzen Geschichte von PHP, das erst im Laufe der Jahre zu der umfangreichen Sprache gewachsen ist und schilderte dann die Schwierigkeiten bzw. der Unmöglichkeit, in der jetzigen Version missratene Sprachelemente zu verändern, ohne Millionen von Benutzern auf die Barrikaden zu schicken.

Im zweiten Teil machte er intensiv Werbung für den Verzicht auf PHP Frameworks, indem er das ( etwas realitätsfremde) Beispiel einer simplen Ausgabe von „Hello World“ in einem HTML Dokument unter verschiedenen Frameworks in Benchmarks vorstellte. Zur Anwendung kamen dort einige sehr interessante Tools, um sich z.B. die Aufwandsverteilung innerhalb eines Scriptes zu visualisieren, oder den Include-Baum graphisch darzustellen.

Google: Siege, strace, PECL=>gengraph.php, callgrind & kcachegrind

Die großen Frameworks lieferten dabei natürlich katastrophale Ergebnis, weil unzählige überflüssige Bibliotheken geladen wurden. Die Feststellung, dass dabei gerade redundante „require_once“ Anweisungen die Performance signifikant verschlechtern, war (zumindest für mich) überraschend.

Den Folien zum Vortrag gibt es bereits im Netz unter folgender URL: http://talks.php.net/show/froscon08

Einige (zum Teil nur sinngemäße) Zitate:

„Whenever PHP sucks, it has a historical reason.“

„I hate them all!“ (Anm.: die Frameworks)

„Using frameworks ist killing the enviroment“

„Lerdorf: Require_Once is evil.

Zuhörer: Why is it part of PHP?

Lerdorf: *silence*“

Es gab also Hinweise, wie man gutes PHP programmiert und woher das schlechte Image der Sprache herrührt.

How to design and build an inexpensive distributed file system war ein Überblick, wie sich OpenAFS und Hadoop für verteilte Dateisysteme einsetzen lassen und wie eine typische Installation aussieht. z.B. Verteilung der Dienst/Aufgaben auf eine Anzahl von physikalischen Servern.

Auch hier war der Vortrag gegen Ende auf einem Level, das sich eher an die anwesenden Admins richtete, die ein solches System evtl. selber aufbauen und skalieren wollen. Für mich also ein Blick über den Tellerrand.

In Clusterbau mit Linux-HA Version 2 wurden nach einer größeren Einführung in „heartbeat“, die Neuerung der Version 2 vorgestellt und mögliche Einsatzfälle durchgespielt. Von der Software und der groben Funktionalität hatte ich zwar schon einmal gehört, aber nun bin ich halt um das Wissen reicher, dass mehr als nur ein Hardwaredefekt oder ein Programmabsturz als Bedingung für die Übernahme eines Services durch Backuprechner herhalten kann.

Systemmonitoring mit Nagios brachte dem Zuhörer die Einsatzmöglichkeiten einer zentralen Überwachung der Unternehmens-Hardware näher. Von Parametern der Dienste und Server, über Umgebungsdaten der Rechenzentren, bis hin zu Füllständen der Netzwerkdrucker, lassen sich mit unzähligen PlugIns Daten zusammentragen und auswerten, um Missstände gemäß erstellter Richtlinien den verantwortlichen Personen zu melden (Email, SMS, ….) oder vollautomatische Gegenmaßnahmen zu ergreifen. Die Daten können darüber hinaus auch archiviert (z.B. als Beleg der Verfügbarkeit) und dem Nutzer visualisiert werden (z.B. CPU-Last …).

Systemadministration++ – Was in der Praxis wirklich hilft hätte auch unter dem Titel „Wie ich ein guter Administrator werde“ im Programm stehen können. Es gab Tipps zu Fehlervermeidung (Root-Konsolen rot einfärben, …) und unzählige Appelle, wie in der täglichen Arbeit vorgegangen werden sollte (z.B. nicht am Produktivsystem herumspielen, testen testen testen, kleine Änderung -> große Auswirkungen, …).

Ich hatte also auch heute wieder die gesunde Mischung aus Themen, die ich am eigenen Rechner ausprobieren kann und technischen Verfahren, die ihre Anwendung oft nur in Hochverfügbarkeits-Rechenzentren finden. Darüber hinaus die Erkenntnis, dass Club-Mate (3x Gratisgutschein bei Anmeldung) so schmeckt, wie Tabak riecht und trotzdem einigermaßen trinkbar ist. 🙂

Hoffentlich habe ich auch im nächsten Jahr Zeit zur FrOSCon zu gehen, denn diese Mischung aus Messe, Konferenz und Geektreffen hat wirklich etwas für sich.

Die Unterlagen und Videos der Vorträge sollen auch dieses Jahr ihren Weg ins Netz finden, es lohnt sich also, die Webseite in einigen Wochen noch einmal zu durchstöbern. http://www.froscon.de

Folgendes werde ich nächste Woche selber austesten, damit die Erinnerung nicht zu schnell schwindet: OpenVZ, Xen, multiple X-Server und Grafikkarten, Wmii, Nagios und evtl. die Cluster-Geschichten in Zusammenhang mit virtualisierten Server (was zugegebenermaßen etwas sinnlos ist, aber funktionieren sollte).

FrOSCon 2008: Samstag

FrOSConEin interessanter Tag war das heute in Sankt Augustin.

OpenVZAm Eingang gab es Namensschild und Stofftasche mit Infomaterial und Kulli. Nach der ersten Begrüßung im AudiMax, begann die Konferenz für mich mit einem Vortrag über OpenVZ – einer Virtualisierungslösung, die in den Kernel gepatcht, mehrere unpriviligierte Root-Dateisysteme mit dem Kernel des „Muttersystems“ verwaltet. Dazu gibt es dann eine Reihe von Tools, um die Systemcontainer zu verwalten (Starten, Stoppen, Ressourcen verteilen, …) und sogar im laufenden Zustand auf ein anderes System zu verschieben.

An eine kurzen Einleitung zum Thema Virtualisierung ansich und der Positionierung von OpenVZ in diesem noch recht neuen Feld, schloss sich eine Gegenüberstellung von Vor- und Nachteilen an. Darauf folgte dann ein größerer Block von Beispiele, wie die Utilities verwendet werden und diverse Details (PIDs, Dateisystem, CPU-Quotas, …) von beiden Seiten der Virtualisierungsschicht ausschauen.

Durch den überschaubaren Eingriff ins Muttersystem (Kernelpatch), scheint mir OpenVZ die einfachste Methode zu sein, um auf kleinen unkritschen Servern die unterschiedlichen Dienste zu kapseln – z.B. mehrere einfache V-Server auf einem einzigen Hostingserver. Die Einschränkungen tauchen natürlich schnell da auf, wo die einzelnen Maschinen exklusive Kernel-Kunktionen oder gleich einen anderen Kernel benötigen.

wiki.openvz.org

XenDer nächste Vortrag unter der Überschrift „Virtualisierung mit Xen“ packte das gleiche Thema von einer ganz anderen Seite an. Nach einem weiteren Technologie-Überblick wurde großes Augenmerk auf die Hochverfügbarkeit der Lösung mit Xen gerichtet und so eine Konfiguration mit geclusterten Dateisystemen (Open-Sharedroot) vorgestellt, die entsprechend komplex und umfassend portierbar/skalierbar war.

Alles hochinteressant, wenngleich ich einen solchen Aufbau bei mir zu Hause wohl kaum zustande bringen kann (trotz verfügbarer LiveCD) – und Ausprobieren macht ja am meisten Spaß.

Bleibt mir von diesem Vortrag also vor allem ein tiefer Einblick in die Funktionsweise von Virtualisierungs-Lösungen in großen Unternehmen und die Gegenüberstellung zu „simpleren“ Konzepten wie OpenVZ.

www.atix.de | www.opensharedroot.org | xen.org

Minix 3Nach der Mittagspause suchten wir uns zügig gute Plätze für die Keynote „Minix 3“ von Betriebsystemguru Andrew S. Tanenbaum – Autor einiger der Standardwerke der Informatik und Entwickler von Minix (das ja bekanntlich Herrn Torvalds zu seinem Linux inspiriert hat).

Mit Kritik an den „fetten und verbuggten Betriebsystemen“ der Gegenwart hielt er sich natürlich nicht zurück und rührte sehr humorvoll (Was man mit ein paar Sprüchen, Cliparts und Statistiken nicht alles machen kann 😉 ) die Werbetrommel für die neuste Minix-Version, die den Status „Lehr-Betriebssystem“ längst abgeschüttelt haben soll.

Die zahlreiche Beispiele zu Minix Schichten-Modell (Treiber komplett im Userspace, …) und Features (wie den Reincarnation Server, der z.B. gecrashte Treiber ähnlich einem Watchdog kontinuierlich überwacht und ggf. neu startet) brachten den Vortrag aber auch noch auf eine technischere Ebene.

Viel Neues, wenn man sich noch nie mir dem Thema „Mikrokernel“ auseinandergesetzt hat. Die anwesende Fangemeinde war – der Prominenz des Redners entsprechend – um jedes Wort dankbar und gut aufgelegt. ;)Eine Minix3-LiveCD war in der Stofftasche, also wird es ebenfalls ausprobiert.

Eine Etage höher sollte es dann im Workshop: X-Server – Der Blick unter die Haube praktisch zur Sache gehen. Unter Anleitung wurde – zwischen Vortragsteilen – von dem mitgebrachten Laptops am X-Window-System herumgebastelt. Angefangen von der Rollenverteilung der Komponenten moderner Desktop Enviroments, über spezielle X-Server und wie abseits von der klassischen Anwendung mehrere X-Instanzen auf einem Rechner kontrolliert werden, bis hin zu den Möglichkeiten X-Clients und X-Server über die Entfernung (sicher) zu verbinden.

Die 4 Stunden Workshop zogen sich gegen Ende etwas in die Länge (auch aufgrund von Schwierigkeiten mit dem Testsystem). Vieles hatte ich mir auch schon vorher im Netz angelesen. Doch durch die angeleiteten Versuche, kann ich die Theorie nun immerhin „theoretisch praktisch“ umsetzen. Und für jedes Detail, dass mir im Zusammenhang mit dem X-Server klarer wird, bin ich sehr dankbar – so verworren wie die Zusammenhänge dort inzwischen sind.

Vermisst habe ich insgeheim ein paar Worte zu den beschleunigten Oberflächen wie XGL oder AIGLX bzw. wie sich diese ins Bild einfügen. Wahrscheinlich hätte dies einfach den Rahmen der Veranstaltung gesprengt.

www.x.org

Ich ziehe also ein postives Fazit nach diesem Samstag und kann mich auch über die Fahrt nach Sankt Augustin nicht beschweren. Und weil sich das morgen (sonntags) leider etwas schwieriger darstellt, hol ich mir jetzt eine Mütze Schlaf.

FrOSCon

Dieses Wochenende werde ich auf der FrOSCon in Sankt Augustin bei Bonn verbringen. Dort in der Fachhochschule Bonn-Rhein-Sieg findet nun zum dritten Mal eine Tagung rund um freie Software statt.

Im Programm stehen eine ganze Reihe von Vorträgen, die mich näher interessieren: z.B. eine Einführung in die Virtualisierung mit Xen, die Minix 3 Keynote und der X-Server Workshop am Samstag (für den ich mir noch dringend ein Ubuntu auf den Lappi installieren muss – und nein, nicht nur, weil ich bestimmt schon beim Booten von Vista aus den hinteren Reihen mit Papierkügelchen eingedeckt werde ). 😉

Am Sonntag höre ich mir „Programmdokumentation leicht gemacht„, „Clusterbau“ und „Systemadministration++“ an, was mir höchstwahrscheinlich ein paar Stufen zu hoch sein wird, aber hoffentlich den Horizont erweitert.

Die FrOSCon ist die erste Veranstaltung dieser Art, die ich besuche – entsprechend bin ich gespannt, wie sich das Publikum zusammensetzen wird. Ich erwarte eine Menge nerdige T-Shirts mit OS-spezifischer Propaganda … 😉

Mein Ubuntu 8.04

„Hardy Heron“ läuft nun schon das Wochenende über friedlich auf meinem Haupt-Rechner. Die Effekte von CompizFusion habe ich inzwischen so konfiguriert, dass sie mir nicht im Weg sind, sondern alleine die Übersicht erhöhen. Dazu muss ich mich aber zunächst wieder an die Arbeit auf mehreren Arbeitsflächen gewöhnen.

Meine Programmauswahl:

Internet BrowserFirefox
Email ClientThunderbird
Feed ReaderLiferea
Mediaplayer Totem, VLC, Rythmbox, Mplayer
Instant MessengerPidgin
FTP ClientFilezilla
Image ManipulationGIMP, Blender
Office SuiteOpenOffice

Das Lesen und Schreiben auf meine NTFS-Partitionen funktioniert einwandfrei und meine SATA Platten werden beim Hotplugging ohne jene 4 Sekunden-Pause ein- und ausgehangen, wie ich sie von Windows XP leider gewohnt bin. Truecrypt entschlüsselt Container sowie komplette Devices, die anschließend direkt vom Desktop aus verwendbar sind.

Mein letztes POP3 Konto lasse ich nun extern abrufen, so dass es auch über IMAP abrufbar ist. Meine RSS-Feeds und Bookmarks würde ich auch noch gerne von jedem Ort abrufen/benutzen können, aber die PlugIn-Auswahl ist recht begrenzt, wenn man sich nicht an externe Anbieter binden möchte.

So lächelt mich mein Desktop nach dem flotten Bootvorgang in etwa an:

Wallpaper: Rising Ubuntu 2
Windows Decoration: Lowfat Lefty (Emerald)

Die Icons in der unteren rechten Ecke gehören zu einem WindowList-Ersatz mit dem selben Namen, der als Screenlet daherkommt und mir bisher, trotz ungewöhnlicher Position, noch nicht im Weg war – ganz entschieden habe ich mich da aber noch nicht.

Eine schöne Anleitung für eine schnelle Einrichtung einiger praktischer Pakete lässt sich übrigens hier finden.

Noch ausstehende/ungelöste Probleme:

  • Sound des Flash-Plugins wird trotz bekanntem Hack (‚FIREFOX_DSP=“aoss“‚ in „/etc/firefox/firefoxrc“) noch nicht zuverlässig ausgegeben.
    Lösung:
    [/etc/firefox/firefoxrc] FIREFOX_DSP=“alsa“
    [gnome-sound-properties] Alles auf „alsa“ ändern, Softwaremixer im zweiten Reiter einschalten.
  • Build-Chain für C/C++ ordentlich einrichten und eine geeignete IDE aussuchen. Eclipse, Anjuta, …
  • Evtl. Ersatz für die Batchverarbeitung von Bilddateien in Stile einer GUI wie Irfanview, wenn ich zu faul für ImageMagick bin.
  • Flackern des Kartenausschnitts in Google Earth

Aber mit Blick auf das Ganze bin ich wirklich sehr zufrieden. 🙂

Windows XP SP 3 und Ubuntu 8.04

Die finale Version des letzten Servicepacks ist erhältlich und nach der Installation ziemlich unspektakulär. Ein seit Monaten stockendes Windows-Update, dass mir immer wieder aufs neue vorgesetzt wurde, ist nun glücklicherweise verschwunden. Natürlich konnte Microsoft es nicht lassen, den Internet Explorer wieder heimlich in die Schnellstart-Leiste zu schieben. 😉

Beim fälligen Neustart habe ich gleich den letzten Release Candidate von Ubuntu 8.04 (inzwischen auch final erhältlich) ins Laufwerk gelegt und die Live-CD gestartet.

Alles „business as usual“ – nur habe ich heute zum ersten Mal versucht unter Linux meine WLAN Karte zu betreiben – der große Grund warum Linux bisher nicht auf meinem Desktop zu finden ist. Die Einrichtung funktionierte mit dem unfreien Atheros-Treiber problemlos und nach Eingabe meines Netzwerkschlüssel konnte ich auch gleich die Firefox 3 Beta ausprobieren. 🙂 Da habe ich die Neuerungen an der WLAN-Front wohl eiskalt verschlafen.

Da alle Windows-Programme für mein Studium inzwischen auf meinem Laptop laufen und nur noch ein einziges verbliebenes POP3-Konto zwischen mir und der zwischenbetriebssystemlichen Datenkonsistenz steht, werde ich dem Dual-Boot „XP <-> Ubuntu“ eine Chance geben.

Dem aktuellen Stand der NTFS-Unterstützung muss ich vorher noch auf den Grund gehen, denn als letzte Meldung habe ich da nur die Neuankündigung eines neuen Dateisystem-Treibers vor über einem halben Jahr im Gedächtnis. Da hat sich inzwischen bestimmt einiges getan.

Auf meine erste lokale XGL Installation bin ich besonders gespannt. 🙂

Auch habe ich heute einige Artikel über Hardware-Virtualisierung gelesen. In dem Bereich ist allerdings so viel veralteter Kram im Netz zu finden, dass mir ein Supervisor, auf dem dann beide Betriebssysteme aufsetzen, noch ein zu großes Risiko ist. Nach dem Rückspielen des Backups hab ich aber evtl. eine Festplatte für Experimente frei. Aber kann z.B. eine aktuelle 3D-Grafikkarte zwischen den Kontexten hin- und herschalten?

Vielleicht kennt ihr ja eine aktuelle Informationsquelle, die mir so einige Fragen beantworten kann?

Zeroshell auf CF in Alu

Gestern Nachmittag habe ich wieder mit meiner Boser HS-6252 CPU-Karte herum gespielt. Die soll nämlich – ohne Backplane – aber mit Netzteil in ein großes Aluminium-Gehäuse wandern, damit ich es einfach in den Keller neben den Router werfen kann, ohne es je wieder anfassen zu müssen. Soweit zumindest der Plan.

Das Gehäuse habe (bzw. drei davon) liegen schon länger im Schrank, ein OpenFrame Schaltnetzteil liefert saubere 5V und der „2x CompactFlash auf IDE“- Adapter kam gestern an. Wahrscheinlich vollkommen unnötig zu erklären, dass alle Teile (ich meine sogar die CF-Karten) eBay-Schnäppchen waren. 😉

Als ich auf die Schnelle testen wollte, wie stabil das Board ohne Lüfter an der frischen Luft arbeitet, bin ich über die Linux-Distribution Zeroshell gestolpert, die nicht nur in etwa den gewünschten Funktionsumfang hat, sondern auch gleich ein 512MB CF-Image anbietet.

Um das RAW-Image unter Windows über meinen externen USB-Cardreader auf die Karte zu ziehen, musste ich schon ein wenig suchen, bis mir das passende Programm entgegen sprang. rawwritewin war mein erster Gedanke, ist aber leider (zumindest im GUI) auf Diskettenlaufwerke beschränkt und so leider unbrauchbar.

physdiskwrite dagegen, ist als Teil des m0n0wall Projektes genau für diesen Einsatzfall gedacht. Vorsicht: Auf der Kommandozeile reichen ein/zwei unüberlegte Tastenanschläge aus, um versehentlich eine andere Partition in den Tod zu reißen. 😉

Fünf Minuten später konnte ich dann schon über Netzwerk auf die die Konfiguration zugreifen und dabei prüfend den Finger auf dem CPU Kühler legen. Bei humaner Umgebungstemperatur wird es unter Volllast schon äußerst brenzlig, auch wenn die Logs noch keinen Absturz verzeichnet haben.

Darum werde ich einen weiteren meiner Winterm Thinclients auseinander nehmen, um dem eingebauten Heatpipekühler einer neuen Bestimmung zuzuführen. So kann ich hoffentlich die zulässige Betriebstemperatur dauerhaft einhalten.