Hallo werte Mitfedditor:innen,
Ich möchte hier meine gestrige Erfahrung mit euch teilen und euch um eure ähnlichen Erfahrungen erfragen.
Zum Setting: Ich nutze zuhause als Server für Plex und ein paar andere Dienste einen Headless Mac Mini Late 2012 (ja, Apple ist hier nicht so beliebt, but hear me out). Dieser läuft auch seit seiner Anschaffung in 2012 24/7 durch. Hab ihn zwischendurch mal mit RAM und SSDs aufgerüstet aber das ding lief. Ist aber auch schon länger aus dem OS-Support raus (lief mit Catalina 10.15.7) und man merkt auch bei aufwändigeren CPU-lastigen Tasks, dass die CPU in die Jahre gekommen ist.
Daher habe ich mich kürzlich dafür entschieden, den Rechner auszutauschen und habe mir am Dienstag einen Mac Mini 2023 mit M2 Prozessor bestellt, da dieser einfach ein energieeffizientes Powerhouse ist (und ja ich bin mir der Nachteile durch festverlötete Hardware bewusst). Jedoch hatte ich mir gar keine großen Gedanken um die Datenübernahme gemacht. Wer Plex kennt, weiß dass sämtliche Metadaten lokal gesammelt werden und wenn diese Struktur auch nur ein bisschen aufgerissen wird, fängt Plex an zu spinnen. Ich hatte zwar ein Time Machine (Apples integrierte Backup Software) Backup, aber wusste auch nicht wie gut das geht, da die ja auch eine andere Architektur (alt x86_x64, neu ARM64) haben.
Gestern kam das Gerät an. Angeschlossen, hochgefahren, ein paar Voreinstellungen gemacht und dann wurde ich vom Migrationsassitenten begrüßt. Alles was ich nun tun musste, war dafür sorgen, dass beide Geräte im selben Netzwerk sind. Dann musste ich noch auf dem alten Mac Mini ebenfalls den Migrationsassistenten starten und auf dem neuen Mac den alten als Quelle auswählen.
Dann hat der Assistent ca. ne halbe Stunde gerödelt und gab mir dann die Mitteilung, dass alles fertig ist. Ich war skeptisch, da der alte Mac wie gesagt schon sehr alt ist und eine ganz andere Prozessorarchitektur hat. Ich weiß, Apple hat für diesen Schritt auf ARM Prozessoren viel mit Rosetta etc. gemacht, aber konnte mir echt nicht vorstellen, dass das nach dem Transfer gut funktioniert.
Was soll ich sagen, ich habe mich in den neuen Mac eingeloggt, und alles war so, wie ich den alten Mac verlassen habe. Plex startete automatisch und hat meine Netzlaufwerke nach Serien durchsucht. Noch ein paar kleine Einstellungen und der Umzug war schon beendet. Nur drei Apps liefen unter der neuen Architektur nicht mehr, wovon ich zwei eh nicht mehr brauchte und eine war MS Edge, die ich einfach neu laden konnte. Ich glaube, das hat mich insgesamt 2 Stunden Downtime gekostet und das hauptsächlich, da ich im Home Office war und auch noch gearbeitet habe. Ich bin echt sehr positiv überrascht. Gerade weil ich in der Vergangenheit oft negative erfahrungen beim Umzug eines Rechners hatte. Bei Windows habe ich meistens nur ein paar Ordner und meine SSD mit Steam Spielen mitgenommen, bei Linux hab ich das System meist lieber von neu aufgesetzt und meine Änderungen nachträglich eingepflegt.
Habt ihr da schon ähnliche positive Erfahrungen gemacht? Gibt es gute Tools für Windows und Linux, die einen Umzug auf ein neues Gerät ähnlich komfortabel machen?
Dies soll kein Bashing o.Ä. sein. Ich nutze Windows, Mac und Linux so wie ich es gerade brauche und es für mich am besten passt und wünsche mir, dass solche Dinge auf allen Systemen so einfach und positive Erfahrungen sind.
Hier ist meine Erfahrung mit einem Rechnerumzug von Slackware Linux:
externe Festplatte an alten PC anschließen
dd if=/dev/nvme0n1 of=/dev/sda
neuen PC von Slackware Live USB booten
externe Festplatte anschließen
dd if=/dev/sdb of=/dev/nvme0n1
neuen PC neu starten
Anschließend ist auf dem neuen PC alles wie auf dem alten, buchstäblich Bit für Bit.
Der Kernel aktiviert dann automatisch die Treiber die er für die neue Hardware braucht.
Geht mit Arch auch. Hab die neue SSD eingebaut und vom Live-System gebootet, dann per dd die alte HDD auf die SSD geklont, Partition bis zum Ende erweitert, Dateisystem vergrößert, HDD raus, SSD umgesteckt.
Hat direkt geklappt.
Das heißt, du hast nachher wirklich einen 1:1 Klon. Könntest du auch gleichzeitig auf eine höhere Distribution oder andere Architektur umziehen? Slackware läuft ja auch auf x86 und ARM, wenn du jetzt von einem x86 Rechner auf einen ARM Rechner umziehst, würde das Prozedere so funktionieren? Oder dein alter Rechner hat 14.2 und du willst einen neuen Rechner mit 15.0 aufsetzen, funktioniert das Prozedere dann auch? Das war für mich das imposante, dass ich gleichzeitig ein Upgrade um mehrere OS Versionssprünge und einen Wechsel der Architektur von x64 auf ARM64 gemacht habe.
Bei einem Umzug von 14.2 auf 15.0 würde ich erst upgraden (bzw. hätte ich das unabhängig von einem Rechner-Umzug schon längst gemacht), und dann die Festplatte klonen.
Bei einem Umzug auf ARM müsste ich neu partitionieren und neu installieren, mein home-Verzeichnis rüberkopieren, eine neue initramfs erstellen und alle zusätzliche Software die ich brauche neu kompilieren, nachdem ich den build für jedes einzelne Paket prüfen und an ARM anpassen müsste.
Slackware ist nicht die Distro die ich für ARM wählen würde.
Okay, ich gehe mal davon aus, bei Slackware fällt die Option “Ich kann meinen alten Rechner (aus beispielsweise Kompatibilitätsgründen) nicht höher als Version X Updaten” einfach flach da, Slackware ja quasi auf ner Kartoffel problemlos läuft (Mindestanforderung: 486 processor, 64MB RAM (1GB+ suggested), About 5GB+ of hard disk space for a full install). Das war ja meine Ausgangssituation, der Mac Mini hat als letztes richtiges OS Update September 2020 bekommen und seither nur noch Sicherheitsupdates. Seitdem sind 4 major OS Updates rausgekommen, die ich auf dem alten Rechner nicht mehr installieren konnte, aber ich sehe, das Problem gibt es bei Slackware schlicht nicht.
Ja, das Problem “das neue System kannst du auf deinem alten Rechner nicht mehr installieren” gibt es bei Linux nicht wirklich.
Selbst für 32bit-Rechner wie den alten Pentium gibt es noch viele Optionen.
Wie gut laufen denn die Upgrades bei Slack? Bei Ubuntu und Debian hab ich schon das ein oder andere System bei nem Dist Upgrade aufs höhere Release zerschossen. Bei meinem Raspberry habe ich neulich von Bullseye auf Bookworm geupgraded und das ging recht gut, aber das auch nur mit einer sehr spezifischen Anleitung. Ein Schritt falsch und das System war hin. Hatte zum Glück vorher ein Backup gezogen. Also intuitiv und einfach ist für mich anders.
Bei Slackware läuft das eigentlich immer problemlos. Weil es halt buchstäblich nichts anderes macht als alle vorhandenen Pakete updaten, alle neuen installieren und alle obsoleten löschen. Du hast die gleiche Paketauswahl auf deinem PC wie die Entwickler, es wurde also vorher schon genau so wie du es bekommst getestet. Und die Entwickler legen noch mehr Wert auf Stabilität als die von Debian.
Das klingt auf jeden Fall abenteuerlich. Zugegeben bin ich jetzt nicht der Bewanderdste im Linux-Bereich. Ich hab an meinen Raspberrys schon die ein oder andere Bastelei wie PiHole, HomeAssistant in Docker mit Signal und MQTT Schnittstellen oder sowas gemacht, aber wenn es um irgendwas mit Bootloader geht, steh ich auch meist erst mal wie der Ochs vorm Berg und muss mich erst mal wieder einlesen, was denn jetzt zu tun ist. Wohl auch, weil ich, auch wenn ich FiSi bin, in meinem aktuellen Beruf so gut wie keine Berührungspunkte mit Linux hab. Und in meiner Freizeit bin ich dann meist froh wenn die Dinge einfach laufen und ich mich nicht zwangsweise damit beschäftigen muss, wie ich jetzt mein System wieder zum laufen bringe, nachdem ich nichts Böses ahnend ein Dist Upgrade gemacht habe 😅
Inzwischen hat sich da gerade bei den großen Distros, wie du bereits sagtest, viel gebessert. Bei Ubuntu kann man doch inzwischen sogar übers UI ein Dist Upgrade machen. Und das macht vermutlich auch nicht viel anderes, als was ich mit meiner Anleitung bei meinem Raspi beim Upgrade gemacht habe, nur als Script oder Programmablauf zusammengefasst und ein bisschen UI drübergehauen. Und ich meine mich zu erinnern, dass selbst das in ner VM mal nicht geklappt hat und danach nicht mehr bootete.
Ich les auch oft in Gaming Communities und da ist die Linux-Fraktion inzwischen auch sehr gut vertreten (wenn auch an Steam Zahlen gesehen noch nicht wirklich groß), aber wenn man mal etwas liest, merkt man schnell, dass man doch einige Einbußen im Vergleich zu nem Windows System hat. Es läuft schon sehr viel und Valve hat da auch viel für getan, aber es gibt leider immer noch sehr sehr viel, insbesondere AAA Titel, die den Sprung noch nicht geschafft haben oder erst nach einiger Zeit und optimierung laufen. Ich freu mich natürlich, wenn sich da in Zukunft noch viel mehr tut, aber aktuell scheu ich mich noch davor meinen Gaming PC auf Linux umzustellen. Und mit Dualboot lauf ich irgendwann immer in Probleme (was in der Regel Windows schuld ist, aber das bringt mich nicht weiter).