Die Surface Headphones im Test

Microsoft muss sich schon seit längerer Zeit neu orientieren. Mit dem Betriebssystem geht es auf sehr lange Sicht nicht mehr richtig weiter, da die jungen sich alle relativ früh an Android gewöhnen und im Hardwarebusiness fasst man gefühlt immer noch Fuß.
Vor kurzem gab es tief in der Nacht für relativ kurze Zeit die Surface Headphones für einen recht guten Preis, und so konnte ich dort auch einmal Hand anlegen

Vorweg sei einmal gesagt, dass ich kein Audioprofi bin. Ich kenne zwar den Unterschied zwischen HiFi und Normalo und meine auch den Unterschied zwischen unkomprimiert und MP3 zu hören, das mag aber alles Pseudoeffekt sein.

Die Surface Headphones kommen wie für die Serie üblich in einem doch hochwertigen Karton an, der eher an Smartphones erinnert, aber der Designsprache der Linie total entspricht.

Im Karton ist erst einmal – und das ist schön – eine Tragetasche, in der die Kopfhörer auch gleich drin sind. Mit dabei ein USB Type C Kabel (endlich lernt Microsoft mal, dass USB Type C auch zum Laden verwendet werden kann) und ein Klinkenkabel.
Ich schätze aber mal, dass das Klinkenkabel so gut wie gar nicht benötigt wird. Immerhin handelt es sich hier um Bluetooth-Kopfhörer und das wird in meinen Augen auch der Haupteinsatzzweck sein.

Designtypisch für die Serie sind die Oberflächen aus Aluminium und in hellem Grau gehalten. Immerhin soll es sich zu den Surfaces gesellen. Auch der komplette Rest des Hörers ist in verschiedenen Grautönen.

Aus der Packung angeschaltet haben die Kopfhörer erst einmal ca. 60 % Akkuladung und schalten sich direkt in einen Suchmodus ein. Wie ein übliches Bluetooth Gerät zum Smartphone geklickt und schon kann es losgehen.

Cortana begrüßt, nennt die Akkulaufzeit in Reststunden und von welchen Geräten man gerade Ton hören sollte (Die Kopfhörer können zu zwei Geräten parallel Verbindung halten).
Positiv: Auch Android sieht den Akkustand der Kopfhörer und kann diesen anzeigen. Hier lernt Microsoft also auch, dass es nichts bringt eigene Hardware auch an eigene Software zu binden und die Surface Headphones nutzen hier Standard-Bibliotheken aus dem Bluetooth Konsortium.

Der linke Drehregler am Kopfhörer stellt die Welt leiser und der rechte dreht die Musik lauter. Cortana erkennt, ob Musik läuft und sagt an, wann Maximum erreicht ist, ansonsten ist dies während der Musik mit einem Piepen zu hören. Wenn die Geräuschverstärkung aktiv ist, passiert dies genau so. In Musik mit Piepen, sonst Cortana.

Schade ist, dass die Erstsetup-Anleitung nicht direkt auf die Kopfhörer reagiert. Dreht man bei der Ansicht dann auch tatsächlich den Drehregler, hätte ich ein kurzes „gut gemacht“ gefolgt vom nächsten Schritt erwartet. Bei Apple und Google würde ich dies fast schon voraussetzen.

Noise Cancelling

Active Noise Cancelling ist immer so ein Ding. Letztendlich Antischall und in Kürze erklärt: Das Gegenteil von dem der Mikrofone aufgezeichneten Signal in Echtzeit über die Kopfhörer abgespielt. Beide Schallwellen gleichen sich aus und zack: Stille.
Das Schwierige daran ist, dass jedes Gehör anders ist und man ganz genau herausfinden muss wie viel die Kopfhörer ohnehin schon mechanisch aus dem Ohr raushalten. All das bestimmt die Stärke der dann auszuwerfenden Schallwellen.
Bei den Bose QC30 die ich hier schon einmal vorstellte, ergab dies in frühen Firmwareständen meist ein ganz lustiges, relativ hoch klingendes Hundegebell eines viel zu kleinen Dackels, wenn denn mal ein doch größerer Hund zu hören war. Auch eines der großen Probleme bei den QC30 war, dass Druckwellen und deren Ton von aneinander schnell vorbei fahrenden Zügen via ANC relativ schmerzhaft ans Trommelfell weitergegeben wurden, Bose glich dies relativ schnell aus und so war dies kein großes Problem mehr.

Es lohnt sich also, nicht nur bei Microsoft, sondern bei fast allen ANC-Kopfhörern die Apps zu behalten und auch mal zu öffnen. Zumindest Bose hat fast ständig Firmwareupdates mit neuen Versionen der ANC-Software. Man kann nur hoffen, dass das Microsoft ebenso tut.

Soweit ein kleiner Ausflug in die Technik. In meinem näheren Umfeld habe ich leider keine Hunde, und wenn, dann sehr ruhige Hunde denen das „sprechen“ fieser Weise abtrainiert oder gar abgezüchtet wurde oder welche die mit ihrer Situation scheinbar zufrieden sind. Auch hat sich jetzt mein Lebensstil etwas geändert. Ich bin kein Pendler mehr und damit ist die verlorene Lebenszeit in Zügen faktisch gar nicht mehr vorhanden. Käme es wieder zum Pendeln, wäre nun relativ schnell ein Auto gekauft und beim Fahren sind Kopfhörer sowieso tabu.
Ich werde das Noise Cancelling also nicht auf die gleiche Weise wie bei den Bose QC30 testen können.

Da das ANC der Surface Headphones regelbar ist (für mich eine Grundvoraussetzung für ANC-Kopfhörer) war ich mit diesen auch bereits auf dem Fahrrad unterwegs. Dazu gehört dann auch der entsprechende Fahrtwind.
Die Surface Headphones spielen den Fahrtwind auch 1-2 Sekunden bei passendem Wind in die Ohren ab, haben dann aber einen hörbaren „Schalter“ der das ganze einmal wegschaltet (Die Bose QC30 tun an Fahrtwind auch mit aktueller Firmware faktisch gar nichts, was vielleicht sogar besser ist). Da man auf dem Fahrrad ganz besonders unter Kopfhörern sich üblicherweise häufiger umschaut passiert das auch relativ häufig. Für windige Gegenden ist die Variante Microsoft vom Noise Cancelling also für Spaziergänge geeignet, aber nur unter Bedingungen zum Radfahren (mal abgesehen davon, dass dich die Polizei mit kleinem Bußgeld belegen kann, wenn dies entdeckt wird).

Moderater Straßenlärm zu Corona-Stillstands-Zeiten ist überhaupt kein Problem. Ein vor dem Haus auf unebenem Kopfsteinpflaster fahrendes Auto hört man natürlich.
Allerdings werden Türen die beim Schließen, weil sie verzogen sind gegen einen Widerstand gedrückt werden und dann natürlich knallen, problemlos ab ca. der Hälfte der Stärke unterdrückt. Von konstanten Rauschgeräuschen spreche ich hier gar nicht erst, weil das unter anderem auch einer der ersten Einsatzgründe für Geräuschunterdrückung ist.

Ton

Ausführlich über die Schallunterdrückung kann man immer schreiben. Aber man sagt ja, dass man mit Kopfhörern ja auch Dinge hören kann. Das funktioniert natürlich auch mit den Surface Headphones.
Alles in allem stehen sie denjenigen die ersetzt werden – den Razer Electra – nichts entgegen. Noise Cancelling am stationären PC ist vielleicht ein bisschen übers Ziel hinaus und sie werden ja auch mit dem Surface auf Reisen gehen – aber damit kann ich jetzt mein Reiseset auf die Bose Quietcontrol 30, ein paar Bowers & Wilkins C5 und eben die Surface Headphones, wenn sie denn mitmüssen, einschränken.

Vergleichen möchte ich die Surface Headphones primär mit den Bose Kopfhörern. Ein Vergleich mit HiFi-Inears wie die C5 ist einfach nicht angebracht. Die Surface Headphones versuchen gar nicht erst sich im HiFi Bereich zu platzieren, dann braucht man sie auch nicht mit HiFi vergleichen.

Aufgrund der Bauweise haben die Surface Headphones einen recht kräftigen Basston, das bekommen die Bose InEars zwar auch hin, aber über die Over-Ears wirkt der Bass noch einmal ein bisschen kräftiger. Im Vergleich Bose und Bowers & Wilkins würde aber trotzdem B&W gewinnen, weil dort das Klangerlebnis komplett ohne Geräuschunterdrückung einfach echter wirkt.
Im Ersteindruck hatte ich das Gefühl, dass ich mich besonders auf die Mitten konzentrieren muss, um diese auch zu hören. Ganz so verteufelt wie „beats by dr. dre“ (die man als Liebhaber von Musik nun wirklich nicht kaufen sollte) sind die Surface Headphones nicht – das mag aber auch daran liegen, dass ich jahrelang keinen Over-Ear aufgesetzt hatte und nur InEar-Ton im Ohr hatte.

Schlussendlich habe ich mir dann (wie bei fast überall) einen kleinen EQ eingesetzt:

Mit dieser fast vertikalen Linie fahre ich meinen Musikgeschmack quer durch die Genres eigentlich meist gut.
Alles in allem ist der Ton schon ausgeglichen und vergleichbar mit den Bose In-Ears

Anschließend noch die Mikrofone:

Folgende Minute habe ich einfach mal gelabert. Initial als mp4-Audio, zwecks WordPress einmal mit den Höchsteinstellungen zur MP3 gemacht. Hört einfach selbst:

Ein Problem der Bandbreite

Bluetooth hat eine extrem schmale Bandbreite. Nutzt ihr wie ich mehrere Geräte aus dem Surface-Lineup und betreibt ihr eure Maus und Tastatur womöglich ebenfalls via Bluetooth werdet ihr das über die Surface Headphones recht schnell merken.
Würde ich diesen Text via Bluetooth an meinem Microsoft Modern Keyboard tippen, hätte ich alle Nas lang kurze Aussetzer im Ton. Das liegt scheinbar daran, dass sich alles ein Megabyte teilen muss. Ganz besonders merkt man das beim Fingerprint via Bluetooth, aber richtig störend wird es erst wenn ihr mit Bluetooth-Geräten in Spielen unterwegs seit – unabhängig davon ob zeitkritisch oder nicht.
Ihr solltet also darauf achten beim Einsatz der Surface Headphones beim Spielen möglichst wenig Traffic über andere Geräte zu haben.

Doppelverbindung oder nicht

Ein kleines weiteres „Ärgernis“: Die Surface Headphones können sich mit zwei Geräten gleichzeitig verbinden. Manchmal verhaspeln sich die Kopfhörer aber und ignorieren Audio von einem Gerät. Um das dann zu beheben, müsst ihr entweder bei einem Gerät Bluetooth deaktivieren, oder das andere Gerät in der App trennen. Nervig, aber machbar, und sicherlich etwas das Microsoft bereits in der Liste der Fehler hat.

Die App

… ist relativ rundimentär. Die Surface Headphones suchen, sie verbinden und dann die jeweiligen Einstellungen anzeigen – nicht viel mehr. Allerdings kommen über die App auch die Firmwareupdates, und das ist, weil eine Android und iOS-Variante fehlt, noch der einzige Weg diese zu aktualisieren. (Warum eigentlich nicht direkt in Microsoft Update zusammen mit den anderen Gerätetreibern?)
Was die App nicht kann: Lautstärke und ANC-Stärke via Mausklick setzen, dass muss weiterhin über die Drehregler passieren.

Fazit

Die Microsoft Surface Headphones sind gute Kopfhörer, die einen für die Geräteklasse starken Bass haben, aber im Prinzip nichts am Ton vernachlässigen. Für viele wird es womöglich auch Noise-Cancelling vom Smartphone weg, hin zu professionelleren Arbeiten am Laptop bringen. Weil sie eben via Noise-Cancelling nicht originalgetreuen Sound wiedergeben sind sie nur bedingt etwas für Musik- oder Videoproduzenten, aber zum normalen Arbeiten und „Abschalten“ auf Reisen ein guter Begleiter, der sich nicht nur aufs Handy konzentriert.

Wünschen würde ich mir aber trotzdem noch eine Android- und iOS App. Wenn Microsoft im Hardwarebusiness Fuß fassen will, dann ist auch dort eine App (die genau so Firmwareupdates macht wie die Desktop-App) angesagt.
Fast alle Probleme, die ich mit den Surface Headphones hatte, sind via Software oder Firmware lösbar. Generell sind fast alle Geräteprobleme, die mir in der Surface Serie untergekommen sind auch auf Software zurückzuführen, was aber auch heißt, dass Microsoft mit der Hardware einen verdammt guten Job macht.
Technische Kniffe benötigt es nur zum Management vieler verschiedener Surface Zubehör-Geräte in parallelem Einsatz. Mit Surface Keyboard, Surface Mouse, Surface Headphones und Surface Dial könnte es relativ knapp werden im schmalen Äther den Bluetooth zur Verfügung hat (Stichwort Traffic Shaping und QoS im Bluetooth-Bereich).

Für die Zukunft erwarte ich regelmäßige Softwareupdates, die einerseits die Probleme ausbessern, aber andererseits auch Verbesserungen, z.B. im Noise Cancelling mitbringen und würde auch zu In-Ear-Kopfhörern oder einem kleinen Bluetooth-Headset in der Surface-Serie nicht nein sagen.

TL;DR

Pro:

  • Das Noise Cancelling versucht Fahrtwind auszugleichen
  • Tonqualität trotz Bluetooth ausreichend
  • Das veränderte „Druckgefühl“ bei aktivem ANC ist vorhanden, aber nicht stark und bei weitem schwächer als bei den Bose QuietControl 30.

Verbesserungsvorschläge:

  • Wenn schon Cortana auf den Kopfhörern ist sollte man auch eine Titelansage per Cortana-Stimme machen können. Für diejenigen die dies wollen.
  • Nur um es noch etwas flüssiger zu machen: Die Verpackung verweist relativ zentral auf die „App“ hin die man sich herunterladen kann. Viele können sich denken, dass es sich hier dann nur um eine Windows-App handelt, aber wenn man schon von „App“ und nicht von „Windows-App“ spricht, kann man doch auch eine iOS- und Android-App nachlegen, oder?

Contra:

  • Weil die Kopfhörer mit mehreren Geräten verbunden werden können verhaspelt sich der Kopfhörer manchmal und ignoriert das Audio eines Gerätes während das andere eigentlich ebenfalls Still ist.
  • Die Stufe zwischen Geräuschverstärkung und ANC sollte noch eine Stufe „ANC aus“ enthalten.
  • Die Mikrofontaste gibt keinerlei Audio-Feedback ob aktiv oder nicht (wenn das überhaupt deren Funktion ist).
  • Die Power-Taste könnte erhobener sein. Will man die Kopfhörer die ersten Male „blind“ ausschalten kann man sich nur die Mikrofontaste erfühlen und muss dran denken, dass eine fast nicht fühlbare Taste darüber ist.
  • Nutzt man wirklich alle Bluetooth-Zubehörteile (Maus, Tastatur und Kopfhörer) kann es zu kurzen Aussetzern im Ton kommen.

Die richtigen Starter-Fragen im IT-Support

Es kommt stark darauf an welche Fragen gestellt werden damit die nachfolgende Bearbeitung auch erfolgreich wird. Einerseits kann man sich an ITIL halten, aber alleine das Schema ist nur das Konstrukt für einen guten Support.

Es wird nie perfekt sein können

Erst einmal muss man wissen, dass es nie perfekt sein kann und auch nie perfekt sein wird. Wie alles im Leben ist auch der Support ein konstantes Streben nach Glück. In vielen Firmen wird man das auch spüren und dann entweder daran verzweifeln, oder weiter streben. Hier möchte ich mal meine ganz persönliche Sicht auf die Dinge rund um ITIL und Prozessmanagement schildern.

Auch kleine Positionen haben große Wirkung

Erst einmal geht es um die wirtschaftliche Priorisierung einzelner Prozess-Schritte, natürlich sind die bearbeitenden Personen, die eine Störung endgültig beheben, die wirtschaftlich erfolgreichsten. Deshalb ist man geneigt sein Hauptaugenmerk genau auf diese zu legen und deren Arbeitsstruktur so gut es geht zu verbessern.
Der fatale Fehler dabei: Der ganze ITIL-Prozess, oder nennen wir ihn ab jetzt einfach Geschäftsprozess, hängt an mehreren Elementen.
Funktioniert die Aufnahme nicht, kann die Nachbearbeitung nicht funktionieren und überlastet die Nachbearbeitung die Aufnahme entstehen Flüchtigkeitsfehler und ein Trend zur Vereinfachung entsteht – sprich: Eine äußerst schädliche Bevorzugung von Quantität. Welches dann wiederum für die Nachbearbeitung ungenaue oder unpassende Fälle bedeutet.

Ein Fallbeispiel

Prinzipiell sehe ich die Grundstruktur für „Tickets“ eher in einigen Fragen:

  1. Was wollten Sie gerade tun?
  2. Warum können Sie dies gerade nicht ausführen?
  3. Falls Sie eine Fehlermeldung sehen, in welchem genauen Wortlaut ist diese?
  4. Was haben Sie kurz vor der Fehlermeldung getan? Oder was taten Sie, um Ihr Ziel zu erreichen?

Ganz wichtig dabei ist es dem Kunden zu erklären, dass auch der banalste Zusammenhang zählt. Das Verständnis von Zusammenhang zwischen Ursache und Fehler ist in jedem Menschen anders und jeder hält etwas anderes als Selbstverständlich. Es mag auch für den Kunden sicherlich ungewöhnlich sein zu schildern, dass er gerade auf einen Button nicht klicken kann, aber genau das ist etwas, was er als Selbstverständlichkeit ansah und deshalb sonst verschwiegen hätte.

Das Ganze würde ich gerne noch einmal an einem Beispiel veranschaulichen:

  1. Was wollten Sie gerade tun?
    „Ich wollte eine Auftragsbestätigung an unseren Lieferanten senden.“
  2. Warum können Sie dies gerade nicht ausführen?
    „Ich habe unseren Lieferanten angerufen, bei ihm sei nichts angekommen“.
  3. Falls Sie eine Fehlermeldung, in welchem Wortlaut ist diese?
    „Es gab keine Fehlermeldung.“
  4. Was haben Sie kurz vor der Fehlermeldung getan? Oder was taten Sie, um Ihr Ziel zu erreichen?
    „Ich habe Outlook geöffnet, eine E-Mail an die Adresse lieferant@firma.de geschrieben und abgesendet. Nach einigen Stunden rief ich an und fragte nach dem Eingang der Mail.“

Hier ist schon eine Falle eingebaut. Es wird vermutlich sehr wohl eine Fehlermeldung gegeben haben, die der Anwender allerdings nicht als zusammengehörig ansah.
Wir gehen jetzt davon aus, dass der Lieferant wegen kompromittiertem Netzwerk beim E-Mail-Provider gesperrt wurde und deshalb keine Mails empfangen oder senden kann bis er seinem Provider die von ihm vorgeschlagenen Maßnahmen bestätigt.
Meistens ist es der Empfängerfirma entweder nicht bekannt, oder relativ spät bekannt – immerhin ist es ein „erstaunlich ruhiger Tag“ der nun mal eben auch so auftreten könnte.

Prinzipiell ist das einzige, was nach der Störungsaufnahme getan werden muss, nachzusehen was mit dieser E-Mail geschah. Entweder filtert man im Ablaufprotokoll vom Exchange nach der MessageID und findet darüber die delivery-failed Nachricht des Empfängerproviders, oder man forstet per Fernwartung im Outlook nach entsprechenden Rückmeldungen.

Ist man dann nicht an große wirtschaftliche Prozesse gebunden, kann man der Empfängerfirma natürlich anbieten gegen Bezahlung beim Provider-Problem zu helfen, ansonsten ist man mit dem Ticket durch.

Die Lösung ist also zu empfehlen den Auftrag an den Lieferanten per Fax oder anderen Möglichkeiten zu geben.
Wichtig hierbei ist nicht die Rückmeldung „wir können nichts tun“ – welche auch stimmen würde – sondern eher der Vorschlag und die Erklärung was genau los ist und warum nicht direkt behoben werden kann.

Die Lösung sieht also so aus:
„Ihr Lieferant ist leider gesperrt worden, da dieser Probleme mit eventuellen Schädlingen in seinem Netzwerk hat oder haben könnte. Wir empfehlen Ihnen die Bestellung, falls möglich, per Fax oder Telefon aufzugeben.“

Das bezweckt im Idealfall einen Kunden der beim Lieferanten anruft und diesen auf die Probleme aufmerksam macht, sofern es nicht bereits während der Behebung des Tickets passiert ist.

Ohne Fragen beginnt Wildwuchs

Was der obere Vorgang beschreibt sind die richtigen Fragen die zu stellen sind. Wird dem Kunden ein freier Lauf gegeben, wäre die Meldung „E-Mails funktionieren nicht, wir haben das mit mehreren Mails getestet“ – wobei dann meist verschluckt wird, dass man ja seinem Hauptlieferanten auf mehreren seiner Adressen hat versucht zu erreichen. Was auch erklärbar ist, weil der Unterschied zwischen Domain und E-Mail-Adresse nicht bekannt sein muss und sich geschäftliche Beziehungen oftmals genau so wie gute Freunde auf erstaunlich wenige Beziehungen beschränken.

Letztendlich habe ich relativ gute Erfahrung mit dem simplen Fragenkatalog gemacht. Natürlich darf man sich auf diesen nicht festbeißen und darf nicht gleich alles verteufeln das nicht genau dem Muster entspricht, aber diese Fragen geben auch denjenigen, die Hilfe suchen den richtigen Anstoß auch diese Fragen zu beantworten, so wird auch die Behebung danach einfacher, auch wenn diese in der operativen Störungsbehebung mal länger dauert. Zum Beispiel, wenn sich komplexere Fehlerursachen herausstellen, die schon im ursprünglichen Service Design aufgetreten sind.

In a nutshell:

Um eine Störung zu beheben, solltest du nicht versuchen die Störung zu erkennen, sondern verstehen, warum es der Kunde gerade nicht tun kann und was das für Auswirkungen auf den Betrieb deines Kunden hat. Dein Helfer-Instinkt wird dich sowieso zur Fehlersuche bewegen.

Visa mit 2 % Cashback bis Mitte April

Visa will das eigene Zahlungsnetzwerk in Deutschland pushen und bietet einfach mal so 2 % aller Transaktionen bis 25 € als Cashback an.

https://pixabay.com/de/photos/kreditkarte-master-card-visa-karte-851506/

Das Ganze ist möglich, wenn ihr eure Visa Nummer einmal auf euren Namen und eure E-Mail-Adresse bindet. Sprich: Ihr euch anmeldet. Das geht relativ schnell über diese Seite und läuft dann noch bis zum 15. April.
Tatsächlich ist Visa neben Mastercard noch nicht unbedingt in Deutschland angekommen.

Mastercard versucht aktuell aggressiv gegen SEPA und die EC-Karte zu feuern. Das wird auch mit relativ innovativen Angeboten einiger Direktbanken geschafft, so zumindest in meinen Augen. Visa hat hier in Deutschland erst mit dem Ökobankprojekt Tomorrow.one* auf den Stützen der Solarisbank-Dienstleistungen einen Schritt ins Debitkartensystem gemacht.
Im Bereich der Kreditkarten ist auch Visa noch fest in der Hand der Filialbanken.

Wer das ganze noch auf die Spitze treiben möchte (und idealerweise internes Scoring bei der DKB Bank hat) kann in den ersten Probemonaten der Curve-„Sammel-Debitkarte“* die dortigen 1 % Cashback auf seine lokalen Supermärkte oder Discounter mitnehmen und das ganze dann auf die Visa der Hilton-Kreditkarte ziehen die das Ganze dann noch mal als Hotelbonusmeilen entlohnt.

Kleine Fußnote bzgl. „Sternchenlinks“:
Die mit * markierten Links sind Partnerlinks, die Entlohnung für mich sieht hierbei wie folgt aus: Bei Curve bekomme ich pro Registrierung einen Gegenwert von 5 GBP und bei Tomorrow.one gibt es einen Hoodie bei drei geworbenen Personen als materiellen Gegenwert und einen 10 € Gutschein für Flixbus-Reisebusse bei Eröffnungen bis zum 15.03.2020 (was relativ unwahrscheinlich ist). Euch entstehen dazu natürlich keine Nachteile oder Zusatzkosten.
Die Visa-Aktion sowie eine eventuelle Eröffnung einer Hilton-Kreditkarte wird für mich als Werber nicht entlohnt.

Whatsapp wird weggefacebookt

Starker Titel, aber diese Jahreswende spült mir Google ziemlich viele WhatsApp-Neuigkeiten auf die Mattscheibe. So soll man jetzt Werbung im Feed haben und kann An Freunde zahlen. Dafür wird dann zumindest für Deutschland der freie Export von Nachrichten genommen. (Wusstet ihr dass es das gibt? Habt ihr das schon genutzt? Nein? Dann wissen wir zumindest warum Facebook das raus optimiert)

Die Werbung soll vermutlich so aussehen wie sie in Instagram ebenfalls aussieht. Mitten in den Stories irgendeine auf „Story“ spielende Werbung die dann nun mal euren Chat-Keyword-Interessen entspringt.
Allerdings wird dadurch die App immer mehr zu einem Facebook-Messenger (also der eigentlichen Chat-App von Facebook).
Der Messenger von Facebook war noch nie so groß beliebt, genau das ist ja der Grund warum für extrem viel Geld Whatsapp gekauft wurde. Nun greift aber nicht Whatsapp den Messenger an, sondern die Entwicklung geht genau anders herum. Das Team wurde von Facebook aufgekauft und scheinbar von ihrem noblen „Whatsapp muss sicher und vertrauenswürdig sein“ Gedanken abgewendet.

Das sind erst einmal zwei valide Gründe warum eine Firma eine andere kauft. Man braucht deren Software (oder Produkte) oder man braucht deren Arbeitskraft (oder deren Ideen).
Das Problem dabei: Whatsapp wurde genau für den noblen Gedanken populär werbefrei und vertrauenswürdig zu sein. Die überwiegende Mehrheit der Nutzer wird dies von Facebook nicht sagen wollen.
Wird Whatsapp also immer mehr zum Facebook Messenger sehe ich eher den gleichen Effekt den Facebook als Plattform sowieso schon hat. Die aktuelle Generation nimmt man mit, die nächste verliert das Interesse oder hat einfach keinen Bedarf.
Damit wird dann Telegram als der inzwischen zweitgrößte Messenger hoffentlich ein Teil vom Kuchen abbekommen.
In gewisser Art wird Facebook demnach Whatsapp „wegfacebooken“. Entweder weil sie es nicht anders können, oder weil sie den Langzeiteffekt vieler Tätigkeiten nie oder nicht ganz betrachten werden.

Google Stadia angefasst

Vor kurzem ging bei mir die Stadia Founders Edition ein. Leider um einige Tage verspätet, aber pünktlich zwei Tage nach Launch hatte ich das Paket aus den Niederlanden vor Ort. Googles erster Versuch in den Spielemarkt zu kommen.

Als kleine Randnotiz möchte ich hier einmal die erstaunlich effiziente Verpackung anmerken. Aus viel mehr als einem Quadratmeter Pappe bestand die Umverpackung nicht. Clever gefaltet genau um die Box von der Stadia Founders Edition drum herum. Aber darum soll es ja nicht gehen.

Die Google Stadia Founders Edition. In der Produktbox abgebildet auf einem Schreibtisch liegend vor einer Microsoft Tastatur, die oben im Bild abgeschnitten dargestellt ist.
Der Controller der Founders Edition. Die Akzentfarbe ist ein helles Orange, dass bei anderer Lichttemperatur oft pinker wirkt als es ist.

Erst einmal sind in der Founders Edition ein Google Chromecast Ultra, 3 Monate Stadia Pro, natürlich der Controller und entsprechende Netzteile enthalten. Da Google empfiehlt für den Chromecast ein Ethernet-Anschluss bereitzustellen, hat das Netzteil entsprechende Möglichkeiten dazu. Leider werden die Chromecasts weiterhin mit MikroUSB angeschlossen, daher liegen in der Box ziemlich unnütz zwei verschiedene Netzteile drin. Vorhanden ist ein Chromecast-Netzteil und ein Standard USB A Netzteil. Immerhin wissen wir dass Google dank Benson Leung (dem USB-Kabeltester) mit den Kabeln und Netzteilen zumindest keinen Blödsinn macht. Beide Netzteile verweisen, auch wenn nur ganz dezent markiert, direkt auf Google und keine chinesischen Markennamen.

Das Stadia-Setup

Die Verbindung war eigentlich relativ einfach. Chromecast anschließen, diesen in der Google Home App einrichten, Google Stadia App herunterladen, diese öffnen. Danach mit dem zuvor erhaltenen Anmeldecode anmelden und Stadia Pro Abo abschließen.
Der Controller selbst kann in der Stadia App hinzugefügt werden und fragt euch wirklich nur nach eurem WLAN-Passwort, danach ist der Controller mit einem Tastencode den euer Chromecast anzeigt einsatzbereit.

Spieleauswahl

Jedes Spiel – auch die in Stadia enthaltenen – müssen erst einmal in der App aktiviert werden. Anschließend werden sie auch auf dem Chromecast angezeigt und sind spielbar.
Anders als viele Behaupten ist fast der gesamte Spielekatalog den Google bereits ankündigte vorhanden und kaufbar – da hilft auch Stadia Pro nur mit Rabatten, wenn auch mit ordentlichen Rabatten. Die einzigen beiden „Gratis“-Spiele die integriert sind Destiny 2 und Samurai Showdown.
Ich habe beide kurz angespielt und kann mit dem Inhalt dieser Spiele absolut nichts anfangen. Bei beiden fehlt jegliche Story-Bindung oder jeglicher Sinn hinter den Spieleraktionen gänzlich. Destiny 2 ist in meinen Augen sinnloses rumgeballere, und Samurai Showdown ist ein ausgeklügeltes Kampfspiel, das sicherlich seine Fans hat, mit dessen Spielkategorie ich aber nichts anfangen kann.
Da allerdings von Red Dead Redemption 2 bis hin zu Assassin’s Creed Odyssey und NBA-Spielen fast alles kaufbar – und spielbar – ist, soll das nicht allzu schwer wiegen.
Zum Testen habe ich mir also Tomb Raider geleistet, welches für Stadia Pro noch kurzzeitig für 10€ im Angebot ist. (Dass es sich hier um die Definitive Edition handelt sollte klar sein. Ich lasse ich das daher im Beitrag einfach komplett weg)

Ist das jetzt auch flüssig?

Im groben und ganzen kann ich sagen – ja, es läuft flüssig. In Destiny 2 habe ich ein paar mal Artefakte gesehen, stehen geblieben oder geruckelt hat bis jetzt nichts. Das einzige was ich erlebte sind Spieleserver die zur Stoßzeit offline sind. Also Load Balancing-Probleme der Spielehersteller, kein Problem von Stadia. Stadia hat sich korrekt verhalten und einen Videostream gezeigt der informierte dass die Server nun mal eben offline sind.

Zugeben muss ich allerdings, dass die Spiele jetzt nicht sonderlich Grafikaufwendig sind. Ich merke qualitativ einen ganz deutlichen Unterschied zwischen Tomb Raider in 1080p und Red Dead Redemption 2 in 2560x1080p auf dem PC laufend. Das mag aber auch an dem zeitlichen Unterschied liegen der zwischen der Entwicklung der Spiele liegt.
Der Chromecast versucht von Haus aus den Monitor mit HDR anzusteuern. Da mein Monitor das nicht kann, wirken die Farben im Chromecast extrem knallig und manchmal unrealistisch.
Ich habe kein Vergleich zu Tomb Raider auf dem PC oder irgendwelchen Konsolen, daher kann ich hier nur über Stadia berichten.

In Tomb Raider mag es auch ein paar Artefakte gegeben haben, da hier die Story den Spieleraktionen aber tatsächlich noch einen Sinn gibt fällt das auch nicht allzu stark auf.

Stadia für Google Chrome, also das Spielestreaming durch simples aufrufen von stadia.google.com funktionierte auf meiner Seite bisher noch nicht. Hier sind die Probleme hausgemacht, der Popupblocker von Google Chrome verhindert aktuell noch die Funktion der eigenen Seite.

Wird sich Stadia halten können?

In meinen Augen – ja, nicht wegen der Technik, sondern wegen des Vertriebsmodells. Stadia hat keine Art von Spieleabo wie PlayStation Now oder so, sondern versucht nur den Spielebesitz zu digitalisieren. Kauft man sich in Stadia ein Spiel ist es genau so teuer wie bei Steam, allerdings ist dann der Ausgang auch gleich. Du kannst dieses Spiel dann auch immer spielen, nur im Stadia Fall dann per Streaming ohne vorhergegangenen Download.
Das Gefühl ein Spiel zu besitzen dürfte also bei Stadia größer sein als bei den Spieleabo-Services, was glaube ich einen relativ großen Vorteil bringen wird, vorausgesetzt dass es Google immer möglich sein wird das Spielestreaming quer zu finanzieren. Früher oder später wäre auch per Spielestreaming wirklich der gesamte Kaufpreis in Stream-Bereitstellung geflossen.

Randnotizen

Gespielt wurde an einem LG IPS Monitor, 21:9, der Chromecast Ultra kann auch weiterhin nur die Standardauflösungen ansteuern, zeigt auf dem Monitor also schwarze Balken rechts und links des Bildes an. Das Kurzfazit in diesem Beitrag bezieht sich also rein auf 1080p Gamestreaming.
Dieser Monitor will und wird auch keinen TV darstellen, auch ist er nicht ausgelegt aufs Gaming, sondern wirklich ein klassischer, wenn auch sehr guter, Computermonitor.

Dies ist mein erster Kontakt mit Gamestreaming, vergleiche zu gemieteten AWS-Servern oder Angebote von Drittanbietern fehlen.

Gespielt wurde an einer 100 Mbit/s Leitung die über Vodafone Kabel läuft, zeitweise ist diese Leitung durch eine andere Person parallel in Verwendung gewesen, auch mit ausgelastetem Uplink eines anderen Gerätes habe ich bei Stadia keine Probleme feststellen können.

Verbesserungsmöglichkeiten

  • Gamestreaming in exotischen Auflösungen. WQHD, 21:9 und co. vom Chromecast ansteuern können. Dies ist für Gaming-Monitore gar nicht mal mehr so exotisch.
  • Controller der die WiFi Verbindung im Standby behält: Das verbinden des Controllers geht ausreichend schnell und wird durch Vibrationen mitgeteilt, wer allerdings sofort nach Einschalten versucht den Code einzutippen der dem Controller sagt welcher Monitor nun zu verwenden ist, der wird immer ein bis zwei Versuche brauchen. Ein WiFi Handshake benötigt nun mal eben einige Zeit.
  • Spielesynchronisationen und lokaler Cache. Teile der Map könnten beim Spielen auf dem PC tatsächlich auf der Platte oder gar im RAM gecached werden, ist die Internetleitung nicht schnell genug kann also die lokale GPU als Backup einspringen.
    Anders eben auch Spielesync: Wer auf Stadia ein Spiel besitzt sollte es sich zumindest auch auf den PC herunterladen und lokal spielen können.

In der Powershell mit Systemvariablen arbeiten

Ganz schneller Tipp in einem ganz kurzen Beitrag: Irgendwann kommt man nicht drum herum in seinen Powershell-Scripts irgendwann einmal Umgebungsvariablen zu brauchen. Es gibt etliche Wege dorthin zu kommen, aber am praktischsten ist dieser:

$env:UMGEBUNGSVARIABLE

Damit kann man in Scripts ohne gleich .NET Module laden zu müssen ganz einfach Umgebungsvariablen einbauen.
Das Praktische an $env – Es ist wie sonst auch als Pfad nutzbar.

Beispiele:

xcopy $env:LOCALAPPDATA\Packages\Microsoft.Windows.ContentDeliveryManager_cw5n1h2txyewy\LocalState\Assets .\spotlightassets\
 cd .\spotlightassets\
 ren . *.jpg

Das Script funktioniert eigentlich nicht mehr, die Windows Spotlight Assets werden jetzt scheinbar nicht mehr dort abgelegt. Ursprünglich kopierte das Script die jeweiligen „Windows Blickpunkt“ genannten Sperrbildschirm-Bilder leserlich in einen anderen Ordner.
Aber anhand dieses Beispiels sieht man dass die Variablen wie überall auch einfach in Pfade einbaubar sind, ohne große Umwege zu gehen.

Google möchte auch in Deutschland Bankkonten anbieten

Der Codename Cache bei Google deutet auf Ambitionen hin ein Bankkonto unter der Marke Google anzubieten. Ähnlich wie PayPal mit der MasterCard in den USA kann Google also auch hierzulande mit einer entsprechenden Girokarte kommen.

pixabay stevepb https://pixabay.com/de/photos/kreditkarte-master-card-visa-karte-1520400/

Dem Wallstreet Journal wurde erzählt dass Google ein entsprechendes Konto in Deutschland eröffnen möchte. Hiermit würde man dann vermutlich unter der Google Pay Marke nicht einfach nur Zahlungsdienstleister werden, sondern eben auch gleich im SEPA-System einsteigen und das Geld der Kunden verwalten.
Da viele der aktuellen Jugendlichen mit Google aufgewachsen sind könnte dies ganz gehörigen Gegenwind gegen bestehende Filialbanken und auch Direktbanken geben. Aufgrund der Datenbasis die Google bereits hat, ist es dem Internetriesen schon heute viel genauer möglich z.B. Kreditrahmen für Kunden zu berechnen als es Filial- und Direktbanken mit Eigeninformation und Schufa tun könnten.
Mit Projekten wie der SolarisBank ist es außerdem nichts schweres mehr grundlegendes Banking bereitzustellen und Zugang zum SEPA-System zu bekommen.

Inwiefern Google das Bankkonto ausstattet ist noch unklar, auch Gebühren sind noch nicht bekannt. Heise Online berichtet, dass man die Banklizenz von der Citibank nutzen wolle um als Dienstleister fungieren zu können.
Neben Google hat bereits auch Facebook die Ambition als Zahlungsdienstleister einzusteigen, dies zeigen schon die Bemühungen zur Facebook eigenen Libra-Währung.
Ausnahmsweise Apple ist hier schon zuvorgekommen und möchte die Goldman Sachs Apple-Karte demnächst ebenfalls in Deutschland anbieten (welche allerdings eine Kreditkarte mit Verfügungsrahmen und kein Debitkonto ist).

Mich würde es freuen wenn Google Kontomodelle ähnlich der Amex Silver und Gold Karten in Deuschland für mehr Kunden anbietet und z.B. Britische und Amerikanische Meilen-Kreditkartenmodelle mit etwas mehr Nachdruck in Deutschland einführen könnte.
In den Meldungen ging es allerdings primär um ein Debitkonto, also um ein Geld-Depot um den Großteil eurer Ersparnisse als Buchgeld zu verwahren, was dann letztendlich genau an die Aufgabe der Banken geht.
Um das Jahr 2015 herum gab es von Google bereits Kreditkarten in den USA, hier dann allerdings ausschließlich für Firmenkunden die AdWords genutzt haben.

Etwas über Banken

Es gibt in Deutschland genau zwei harte Meinungen: Direktbank-Fans und Filialbankangehörige.
Eins vorweg: ich bin aus der Riege der Filialbank-Fans, und das hat mehrere Gründe die ich hier einmal versuche zu erklären. Beide Seiten machen etwas richtig, und ohne Direktbanken könnten sich die Filialbanken nicht verbessern – so wie es nun mal eben überall in der Wirtschaft der Fall ist.
Ich habe hierfür keinen Sponsor, dieser Beitrag wird komplett ohne Affiliates und ohne externe Links sein, weil ihr das entscheiden müsst. Ich würde zwar gerne, aber ich möchte bei diesem Thema kein Geld verdienen, weil ich das ethisch inkorrekt finde Leute zu Banken zu bewegen die einen auch noch dafür bezahlen. Ich hatte ehemals schon über Banken geschrieben, aber Meinungen ändern sich und es gibt im Laufe der Jahre immer was zu ergänzen.

Eine Bank aussuchen

Erst einmal geht es hier jetzt um Banken, um Geldhäuser – nicht um Kontomodelle. Welches Modell ihr wählt ist vollkommen irrelevant, oder so personenbezogen dass ich das gar nicht empfehlen kann. Es geht hier also wirklich nur um Geldhäuser.
Es gibt auf dem Markt viel zu viel. Und alles hat seine Daseinsberechtigung. Immerhin bedienen verschiedene Banken nun mal eben auch andere Interessen. Auf der einen Seite die Ökobanken die mit aufkommenden Globulifreaks und regelmäßigen Biomarkt-Besuchern ihre Nische entdeckt haben. Dann die Wirecard die ihr Marketing aktiv auf die Jugend ausrichtet und relativ gute Startup-Spinoffs hervorbringt, sei es N26 oder wieder irgendwas mit Kryptowärung.
Auch sollte man bedenken dass Wirecard mit dem Rotlichtviertel groß geworden ist und in Deutschland das Porno-Business auch weltweit mit Ländern verglichen nicht unbedingt unwichtig ist.

Vielleicht versteht ihr schon worauf ich hinaus will. Wenn man sein Geld lagert, dann sollte es stabil lagern. Lagern kann es jeder, und gerade die neuesten Startups tun alles dafür dein Hauptkonto zu werden – Schließlich ist es deren Performance-Messwert. Im Ernstfall liegt es dort dann ein paar Jahre und dann gibt das Startup nach 5 Jahren eben zu dass es pleite ist und bittet dich eindringlich dein Geld woanders hin zu nehmen. Die Idee war also nicht gut, oder irgendwas im Management ist grandios schief gelaufen.
Gerade das ist für meine Auswahl ein relativ wichtiges Kriterium. Es kommt dabei nicht darauf an wie viel Geld ihr dort lagert, auch wenn es exponentiell mit größeren Mengen immer wichtiger wird, damit angefangen zu haben nach der Sicherheit von Banken zu forschen ist bereits ab dem ersten Euro hilfreich.
Daher stellen N26, Revolut, Tomorrow, Monese, iCard und wie sie alle heißen, eben noch kein stabiles Konto dar. Wenn sie nicht bewiesen haben einer Größe wie dem Sparkassenverbund ordentlich Kunden streitig machen zu können und zudem seit mindestens 5 Jahren stabil auf dem Markt stehen ist eine Bank nicht sicher im Stand.

Wenn ihr auf dieser Schiene seid, wird euer Bankberater natürlich anfangen von Einlagensicherung und co zu sprechen, das empfinde ich aber als Standard-Equipment einer Bank und im Vergleich absolut nicht nennenswert. Ausnahme ist die Private Einlagensicherung – aber da spielen wir dann im Bereich des Service für die reichsten 5%, um die es hier gar nicht erst geht. Die Menschheit ist eben ein zwei-Klassen-System und die oberen Klassen wollen das Klassensystem natürlich koste es was es wolle aufrecht erhalten.

Die drei Bankenklassen

Simpel und einfach – Meine Unterscheidung

  • Filialbanken: Sparkasse, Volksbank, Commerzbank, … und am Ende der Liste irgendwann Santander und co.
  • Große Direktbanken: ING-diba, DKB, Comdirekt. Nach dem Muster: „du weißt dass es sie gibt und sie scheinbar so groß sind wie einige Filialbanken“
  • Normale Direktbanken, Regionalbanken (Sparkassen wegen ihrem Verbund ausgenommen) und Startups: Norisbank, Wüstenrot, BMW-Bank, und irgendwann halt auch N26, Revolut und co.

Warum ich das so einteile? Wegen den Sicherheitsgedanken. Die ersten beiden Klassen stehen stabil im Geschäft. Bei denen kann man davon ausgehen dass sie bis zu deinem Renteneintritt funktionieren werden, solange sich halt keiner im Taschenrechner vertippt oder – okay das ist jetzt extrem fies: Die Bremer Landesbank nachmacht. (Insider wissen wovon ich rede).
Die unterste Klasse ist verdammt attraktiv. Aber auch nur so attraktiv weil sie gelernt hat kämpfen zu können. Sie können den Filialbanken sagen was diese zu tun haben (also indirekt – über ihr Marketing, über ihre Feature-Geladenen Kontomodelle et cetera). Die Filialbanken ächzen unter dem psychischen Druck den die kleinen Direktbanken aufbauen, stehen aber weiter stabil da und können auch mit den sich ändernden Altersklassen noch funktionieren. Auch über Jahre hinweg.

Lohnt sich also ein 10€ Girokonto?

In meinen Augen: ja. Die Filialbank hat dir dafür zwar freien Zugang zu Bargeldeinzahlung und co zu geben und alles was sie an Service aufzubieten hat, aber für diese 10€ bietet sie dir Stabilität während sie nicht darauf angewiesen ist mit deinem Geld in instabile Zertifikats-Märkte oder in Risikogeschäfte zu gehen, weil sie aus Not gedrungen auf der anderen Seite der Finanzwelt Gewinn scheffeln muss.
Daher halte ich es für gerechtfertigt auch 5-10€ pro Monat zu geben, dafür dass eine Bank dein Geld zur Verfügung stellt. Im Hintergrund passiert damit sehr viel mehr als ihr euch vorstellen könnt – und das was dort passiert ist, ist meistens auch gerechtfertigt nicht immer öffentlich.

Prolog und Fazit: Die Bankenwelt ändert sich

Sie ändert sich konstant. Was für eine Bank ihr auswählt ist mir vollkommen egal. Ihr solltet aber bedacht entscheiden welche „Bankenklasse“ ihr wählt. Stabilität sehe ich als wichtiger an als vieles andere.
Features wie SEPA-Realtime und GiroPay sind letztendlich nur Gimmicks, die ein Resultat daraus sind dass die kleinen Direktbanken eben nun mal mit Features prahlen oder gekonnt Kartensystem-Funktionen in Szene stellen. Was sie erreichen können haben wir gesehen. Einen Laden zu finden der MasterCard nicht akzeptiert ist heutzutage schwer. Vor einigen Jahren war ein MasterCard-Besitzer aber eben noch ein Exot. Im Bereich der „Gimmicks“ wird sich auch vieles ändern. Der nächste Step in meinen Augen ist logisch folgend die Verbreitung der Akzeptanz „exotischer“ Karten wie Diners Club oder JCB. Die Kontomodelle sind dann nur ein notwendiges Übel eurer Auswahl – die dann an vielen anderen Faktoren hängt. Tendiert ihr zum amerikanischen Konsumdenken ists vielleicht die DKB-Hilton-Karte (ja ich weiß DKB macht Affiliates, aber ich schwöre euch, hier läuft nix), denkt ihr an Stabilität oder eben solche Features wie Giropay ist es dann eben auch die lokale Sparkasse.
Geht es dann in Richtung Depot ist man vielleicht nicht mehr so auf ein Land gebunden – aber geht meines Erachtens immer noch nach diesem Klassensystem vor.

Ohne Änderung kann die Banken-Welt nicht funktionieren, so wie es niemand in der Wirtschaft kann. So ändert sich die Bankenwelt auch immer wieder. Was mir die Möglichkeit gibt immer wieder Gedanken aufzuschreiben.

Eine Windows 10 Enterprise ISO „herunterladen“

Paketierung von Windows Installern macht einiges relativ einfach. Viele Firmen und Personen die ich bereits sah machen vieles bzgl. der Windows Installation noch mit USB-Stick oder mit ISO-file dass sie lokal auf den Rechner ziehen. Zudem macht Microsoft sich mit den Enterprise-Downloads relativ rar. Ja, es gibt ein Enterprise zum herunterladen, das ist allerdings eine Demo, die auch eine Demo bleibt wenn sie eigentlich in Domänennetzen mit KMS-Installation unterwegs ist. Hier tappt also jeder unbedarfte (teilweise auch ITler) eben in die Falle und installiert eine Demo im Glauben es sei gar keine – weil es ja KMS gibt.

Wenn z.B. die Vorgabe „Clients alle Windows Enterprise“ eingehalten werden muss gibt es allerdings DISM – auch wenn man jetzt nicht gleich eine PXE-Boot Umgebung aufbaut lohnt sich dann doch ein Blick in DISM rein, weil es dann z.B. auch die manuelle Installation deutlich vereinfacht. Gerade wenn PXE-boot demokratisch im Unternehmen unmöglich ist, spart DISM mindestens einige Stunden ein.
Das Vorgehen ist ganz einfach und völlig unabhängig davon welche Edition von Windows 10 nun vorinstalliert war.
Wie überall, erst mal die OOBE durchklicken (die out of the box experience – der Erststart mit den ganzen Berechtigungsfreigaben für Windows-Dienste) und während dann die Paketverwaltung an der Installation von Software arbeitet:

dism /online /Set-Edition:Enterprise /productkey:NPPR9-FWDCX-D2C8J-H872K-2YT43

(der Key hier kommt von den öffentlichen KMS-Setup Keys. Stark vereinfacht tut der nicht viel mehr als dem Rechner zu befehligen dass er doch wohl nach einem KMS-Server suchen müsste und diesen höflich darum bitten sollte den Rechner entsprechend in die Volume License zu packen)

Statt ISO „drüberbügeln“ in ein paar Minuten fertig. Das gleiche geht auch per GUI übers Aktivierungsmenü in den Einstellungen ([Win]+[I]), aber dort ist einerseits der KMS-Setup key nicht hineinkopierbar und die Powershell ist in der Regel schneller.
Die einzige Voraussetzung hier: Der LAN- oder WLAN-Anschluss muss ein Domänen-Netz ausspucken, auch wenn hinterher noch ein Neustart notwendig ist.

So, jetzt aber zum reißerischen Titel, den ich ehrlich gesagt nur wegen SEO so genannt habe:
Das gleiche lässt sich auch mit Windows Images machen. Sprich: man kann mit DISM ebenfalls ISO-Images so anpassen, dass aus egal welcher ISO-Edition ein Enterprise ISO wird. Nicht die Evaluation, sondern eine ISO die sonst auch hätte über das VLSC heruntergeladen werden können.
Erst einmal muss man an irgendeine ISO kommen und am besten geht das übers Media Creation Tool.
Habt ihr die bekommen einmal im Archivprogramm öffnen und die .\sources\install.wim „extrahieren“ (wobei extrahieren hier das falsche Wort ist, das ist mehr eine Kopie – aber das ist nebensächlich).

Danach: – ich bleibe hier der Einfachheit im Ordner C:\wimfile als mount und C:\temp als Arbeitsverzeichnis:
Dism /Mount-Image /ImageFile:C:\temp\install.wim /MountDir:C:\wimfile
Dism /Image:C:\wimfile /Set-Edition:Enterprise
Dism /Unmount-Image /MountDir:C:\wimfile /Commit

(Es gibt noch viel mehr DISM Optionen, ich halte das aber hier kurz und zweckgebunden)

Danach ist eure C:\temp\install.wim eine Enterprise-Datei und sobald ihr innerhalb der ISO die install.wim wechselt oder eine neue ISO bastelt (Archivlink) gibt es dort einen vollwertigen Enterprise-Installer.

Warum Microsoft die „echte“ Enterprise ISO so rar macht und dann aber mit DISM genau das anbietet entzieht sich meiner Kenntnis. Ich hatte damals über den Feedback-Hub (darauf hört Microsoft tatsächlich) schon mal vorgeschlagen dass man die VLSC-ISO doch mal öffentlich zur Verfügung stellen könne – Lizenzierung ist ja schließlich was anderes als simple Installation. Aber wie so häufig verschwindet das im Microsoft-Universum mehr oder weniger gelesen. – Aber in der Regel könnt ihr euch mit DISM das jonglieren von USB-Sticks oder ISO-Dateien einfach sparen und so kommt ihr gar nicht erst in Versuchung eine SSD unnötig mit Schreibzyklen zu befeuern.

SSD Power Cycling, langsam gewordenes reparieren

Ich hätte nie gedacht, dass so etwas funktionieren würde – mit einem eigentlich recht simplen Power Cycling habe ich jetzt bereits mehrfach diverse SSD-basierte Rechner mit verschiedenen Fehlern einfach repariert.

Falls das System urplötzlich langsam wird, oder gar „Einfriert“ – oder nicht wirklich einfriert sondern nur äußerst träge reagiert – dann könnte daran tatsächlich auch die SSD schuld sein.
Nach einem Neustart ist dann kurz erst einmal alles wieder in Ordnung (die SSD-Controller sind darauf ausgelegt für kurze Zeit höhere Datenraten durchzujagen, dann aber doch langsamer zu werden, aber eben nicht zu langsam) – aber nach 10 Minuten Arbeit ist wieder alles träge.

Was half ist das erstaunlich unbekannte „SSD Power Cycling“. Man hilft dem Wear Leveling der SSD (z.B. auch nach harten Reboots sinnvoll) das Zeug zu machen was es tun soll, ohne durchs Betriebssystem gestört zu werden.
Der simple Trick:

Rechner an, ins BIOS-Menü rein und stehen lassen. Länger stehen lassen, 30 bis 60 Minuten.

Der Trick dabei: Das BIOS greift nicht auf den Datenkanal der SSD zu. Es legt weiterhin die 12v-Schiene vom Netzteil via SATA-power (oder eben PCI-e) an, aber die SSD bekommt einfach nichts zu tun. Dann kann der Controller sein Wear Leveling durchführen, ohne sich partout an Steuerbefehle vom System halten zu müssen.
Windows selbst kann das Wear Leveling der SSD nicht beeinflussen, allerdings könnte es sein dass durch harte neustarts oder besonders viel Lese- und Schreibaktivität das Wear Leveling derartig gestört wird, dass solche Probleme auftreten.

In der Regel hat mir das bisher bei einigen Fehlern aus der Patsche geholfen. Um auf solch eine Lösung zu kommen muss man schon etwas um die Ecke denken, weil ein langsames Windows in der Regel ja doch von zu viel Arbeitslast auf der CPU oder zu viel Daten im RAM erzeugt wird. Allerdings erfordert das eine gewisse Logik zu erkennen ob ein System für das was drauf läuft eigentlich ausreichend ist.