Die Zukunft von macOS mit ARM-Prozessoren?!

Im Übrigen steht nirgends, dass die Signatur nur auf dem signierenden Rechner gültig ist und ausgeführt werden kann. Es würde manchen Zeitgenossen helfen den Aluhut gelegentlich mal abzunehmen ;)

Da braucht man schon ein gültiges Dev Cert, sonst sagt Gatekeeper ja nö.
Wenn dein selbstsigniertes überall laufen würde, wäre das Angriffsszenario ja auch einfach.
 
  • Gefällt mir
Reaktionen: wegus und RonVandermeer
Nö, auch dein selbst signiertes läuft weiterhin auf jedem beliebigen Rechner. Es bleibt lediglich dabei, dass der Gatekeeper davor warnt und du es beim ersten Start mit Rechtsklick - Öffnen starten musst, was mit einem gültigen Developer-Zertifikat nicht notwendig ist. Ist ja heutzutage auch schon so, nur eben ohne Signierung.

Bisher:
Unsigniert = Gatekeeper warnt = erstmaliger Start per Rechtsklick, läuft
Selbstsigniertes Zertifikat = Gatekeeper warnt = erstmaliger Start per Rechtsklick, läuft
Developer Zertifikat = Läuft

Zukünftig:
Unsigniert = Läuft nicht
Selbstsigniertes Zertifikat = Gatekeeper warnt = erstmaliger Start per Rechtsklick, läuft
Developer Zertifikat = Läuft

Nochmal: das Signieren verhindert nicht, dass Schadcode ausgeführt werden kann. Es verhindert eine ganz spezielle Angriffsmethode, nicht mehr und nicht weniger.
 
  • Gefällt mir
Reaktionen: herberthuber, wegus, MACombat und 3 andere
Wenn Du es zulaesst, wird das genauso laufen, wie es jetzt laeuft. $WILDWESTINTERNETAPP runtergeladen, gestartet, das Ok gegeben, Passwort eingegeben, Rechner verseucht... Ok, das letzte hoffentlich nicht. Aber genau so laeuft das ja heute auch schon. Und das soll sich angeblich nicht aendern.
 
Ebenso wie die von @lisanet angesprochenen Angriff auf einzelne Binaries oder Dateien eines Pakets, deren Signatur dann plötzlich nicht mehr zum Rest des Bundles passt.
Das hatte ich nicht bedacht und ich denke in der Tat, dass das das einzige ist, wogegen das selbst signieren hilft. Beim Rest wird es wohl sein wie bisher: Brain 1.0 hilft immer.
 
Das hatte ich nicht bedacht und ich denke in der Tat, dass das das einzige ist, wogegen das selbst signieren hilft. Beim Rest wird es wohl sein wie bisher: Brain 1.0 hilft immer.
Und gegen Code Injection.
Und gegen GlueBall-Angriffe.
Und gegen Runtime Code Manipulation.
Und gegen Runtime Memory Manipulation, allerdings nur wenn die Signatur auch zur Laufzeit überwacht wird (was derzeit noch nicht eindeutig aus den Unterlagen hervorgeht).
Und mit Sicherheit noch gegen eine Vielzahl anderer Angriffsmethoden auf die ich gerade nicht komme oder die noch nicht entdeckt wurden.

Klar, am Ende ist es ein Tropfen auf den heißen Stein, aber jeder Tropfen zählt. Dumm nur wenn am Ende Endanwender unbedarft Sicherheitsmechanismen aushebeln weil irgendwo im Internet irgendwer behauptet hat, dass das nötig ist um der Zwangsbevormundung zu entgehen. Da hast du absolut recht, Brain 1.0 ist der beste Sicherheitsmechanismus den es gibt.
 
  • Gefällt mir
Reaktionen: MACombat, electricdawn und lisanet
Wobei man sich auf das Code-Signing wohl auch nicht sooo stark verlassen sollte. In der Vergangenheit gab es da auch schon ein paar mal Probleme. So ganz lässt es sich dann doch vermeiden, das Hirn einzuschalten.
 
Dumm nur wenn am Ende Endanwender unbedarft Sicherheitsmechanismen aushebeln weil irgendwo im Internet irgendwer behauptet hat, dass das nötig ist um der Zwangsbevormundung zu entgehen.
und das ist der Punkt. Catalina ist an der Grenze des Erträglichen, was die User Bevormundung betrifft.
Wird die Schraube noch mal angezogen nervt das sicher genug Leute, die dann alles ausstellen mit nicht kalkulierbaren Risiken - der Vista UAC Effekt sozusagen.
 
Was mich eigentlich mehr nervt als diese Art der Userbevormundung sind diese scheiß Popups von irgendwelchen beschissenen Programmen, die im Hintergrund liegen und sich dann einfach mal in den Vordergrund drängen. Das war seinerzeit einer der Gründe, warum ich mich damals von Windows abwandte und zum Mac wechselte weil es das da nicht gab aber diese beknackte Unsitte wird auch in Mac OS immer und immer mehr. Was mir in der Richtung als letztes negativ auffiel war Mail mit dem völlig bekloppten Default-Split-Screen-Scheiß wenn man grad mit einem anderen Programm im Full-Screen-Mode ist. Ganz klar, man schickt ein Programm in den Full-Screen-Mode nur weil man ja schon bei der erstbesten Mail, die man bekommt, direkt zwei Programme auf dem Bildschirm haben will. Wer sich diese Kack-Funktion ausgedacht hat gehört gerädert und gevierteilt.
 
nervt ... scheiß ... beschissenen ... drängen ... beknackte ... negativ ... völlig ... bekloppten ... -Scheiß ... Kack- ... gerädert ... gevierteilt.
Kann es sein, dass ich da einen gaaaanz leichten Unmut raushöre? :D

Im Ernst, kann mir schon vorstellen, dass das nervt.
 
  • Gefällt mir
Reaktionen: electricdawn und Madcat
Ja, aber sowas von. Heute hatte ich da mal wieder einen Großangriff von diesen Popups. Die gehen mir sowas von auf den Geist, früher hats auch gereicht wenn das Programm-Icon im Dock hüpfte. Warum da heute sich nen Popup vordrängeln muss und meinen Arbeitsfluss stören muss weiß man wahrscheinlich nur in Cupertino.
 
Wahrscheinlich weil 98% der Anwender von hüpfenden Icons oder seitlich hereinhuschenden Mitteilungen dank Tunnelblick gar nichts mitbekommen :noplan:
Meine Frau gehört zu dieser Spezies Anwender. Da können im Dock zehn Symbole wild durch die Gegend springen und von rechts im Sekundentakt Mitteilungen reinrutschen, sie sieht davon gar nichts. Absolut Null.

Ich bin da ganz bei dir, mich nerven diese Pop-Ups auch. Aber das ist wohl leider der Gang der Dinge aufgrund der Diktatur der Masse.
 
  • Gefällt mir
Reaktionen: ma2412, Madcat und electricdawn
Ich bin da auch skeptisch trotz doller Benchmarks der Intel Emu auf Geekbench.
Kann man ja alles tunen, damit die gut aussehen.
Warten wir mal auf die Real World Performance.
Die Grafik wird eh nichts, weil das Apple eh immer egal war.
Vor allem ist das eine die technisch mögliche Leistung, das andere ist das was Apple aus verkaufstechnischen Gründen daraus macht. Wenn Einsteigergeräte zu stark werden, kannibalisieren sie die teuren Pro-Geräte, da wird auch gern schonmal ohne Not ein Chip heruntergedrosselt
 
Vor allem ist das eine die technisch mögliche Leistung, das andere ist das was Apple aus verkaufstechnischen Gründen daraus macht. Wenn Einsteigergeräte zu stark werden, kannibalisieren sie die teuren Pro-Geräte, da wird auch gern schonmal ohne Not ein Chip heruntergedrosselt
Ich sehe das positiver. Apple kann es sich nach so einer Ankündigung doch gar nicht leisten, in der real world Performance schlechter abzuschneiden als ein vergleichbares, vorheriges Intel-Model. Wenn die nun aber schon soviel Puffer haben, dass sie einzelne Cores oder engines abschalten können, und dennoch flotter unterwegs sind, als das vorherige Intel-Modell, dann wäre Apple Silicon aber schon echt verdammt weit.

Apropos Grafik. Ein WWDC-Thema war u.a. die Änderungen der Grafik mit dem Prinzip eines Tile Based Deffered Renderings. Das war sehr interessant, weil es eine Vorgehensweise beschrieb, die besonders die Speicherzugriffe bei einzelnen Grafikoperationen drastisch reduziert. Und da der Speicherzugriff im klassischen Design mit dGPU im Grunde der Flaschenhals ist, kann da real word gesehen, einiges an Performance raus kommen, auch wenn die GPU selbst nicht diese Top-Werte liefert. Zudem sind Operationen derart konzipiert, dass sehr viel parallel zwischen CPU und GPU ablaufen kann, so dass auch hier die reinen CPU bzw. GPU Benchmarks wenig über die real world performance aussagen. Das macht echt Lust auf Apple Silicon

Hier der Link für diejenigen, die das mal ansehen wollen -> https://developer.apple.com/videos/play/wwdc2020/10631/
 
  • Gefällt mir
Reaktionen: Bozol, Madcat und Moriarty
Apropos Grafik. Ein WWDC-Thema war u.a. die Änderungen der Grafik mit dem Prinzip eines Tile Based Defferd Renderings. Das war sehr interessant, weil es eine Vorgehensweise beschrieb, die besonders die Speicherzugriffe bei einzelnen Grafikoperationen drastisch reduziert. Und da der Speicherzugriff im klassischen Design mit dGPU im Grunde der Flaschenhals ist, kann da real word gesehen, einiges an Performance raus kommen, auch wenn die GPU selbst nicht diese Top-Werte liefert. Zudem sind Operationen derart konzipiert, dass sehr viel parallel zwischen CPU und GPU ablaufen kann, so dass auch hier die reinen CPU bzw. GPU Benchmarks wenig über die real world performance aussagen. Das macht echt Lust auf Apple Silicon

Hier der Link für diejenigen, die das mal ansehen wollen -> https://developer.apple.com/videos/play/wwdc2020/10631/

Zur Grafik: Ja, tolle Technologie! Sicherlich sehr leistungsstark - im Benchmark. Im „real life“ auch? Ja und nein.

Ja, weil es sicherlich von einigen Developern dafür Anwendungen geben wird, die das unterstützen.

Und Nein, weil ich fürchte, dass diese Anwendungen durch ihre Nischigkeit nicht dazu beitragen werden, dass das Leistungsplus auch entsprechend eine breite Käuferschicht findet - da aber z.B. Im Gamingbereich quasi nur (langjährige) Projekte lohnen, die auch eine sichere Refinanzierung haben, wird auch zukünftig eher kein Cyberpunk 2077 oder Witcher 4 auf dem Mac zu erwarten sein. Es wird also platt gesagt keinen interessieren, was die iGPU in den neuen ARM-Chips kann, wenn für Assassins Creed Valhalla oder den Flightsim 2020 trotzdem eine Xbox oder eine der neuen Nvidia-Karte der Generation 3xxx (die werden ja auch nicht schlafen...) für den PC her muss.

„Dann werden die Publisher halt neben PC und Konsolen ‚nebenbei‘ einen Mac-Port machen“ könnte man meinen. Dies wird aber durch ARM eher schwerer als leichter. Publisher überlegen sich heute schon dreimal, ob sie überhaupt beide großen Konsolen bedienen, die Switch fällt trotz großer Userbase nicht selten hinten über.
AAA-Games sind zu kostspielig in der Entwicklung als dass auch nur das geringste Risiko eingegangen wird.

Klar, iOS-Ports sind leicht zu erstellen - aber all diese pastellfarbenen Arcade-Titel mit ihren immer gleichen künstlerisch wertvollen Comic-Assets sind nicht gerade das, was die Leistungsfähigkeit einer völlig neuen Spieleplattform demonstriert.
Metal ist gut gemeint, aber Gamer brauchen halt DirectX.

Daher glaube ich, dass am Ende nicht die technische Leistungsfähigkeit im Benchmark entscheidet, sondern die Real Life-Leistung. Und dafür braucht es jemanden, der die Speerspitze des Möglichen (z.B. im Gaming) auf die Plattform bringt, damit die überhaupt zeigen kann was geht.
 
Aus genau den Gründen die @mj nennt, halte ich die Signierung auch für per se nicht schlecht!
 
Zur Grafik: Ja, tolle Technologie! Sicherlich sehr leistungsstark - im Benchmark. Im „real life“ auch? Ja und nein.
Äh, ich habe doch gerade von der real world performance gesprochen und nicht von Benchmarks. Zudem, hast du dir das Video angesehen? Auch da geht es um real world Performance.

Und warum geht es nun wieder nur um AAA-Games? Ist das der Grund einen Mac zu kaufen?

Ich bin nicht in der Spielentwicklung und kann daher nur das sagen, was ich lese. Aber ist nicht sowohl Unity als als Unreal auf Metal verfügbar? Werden Games nicht auf Basis dieser Engines entwickelt?
Alleine die Demo auf der WWDC von Shadow of the Tomb Raider unter Rossetta 2 fand ich schon absolut flüssig. Ob das nun für jeden ein AAA-Game ist, darüber lässt sich streiten. Es ist jedenfalls nicht ein, wie du gesagt hast, pastellfarbener Arcade-Titel.
 
Und warum geht es nun wieder nur um AAA-Games? Ist das der Grund einen Mac zu kaufen?

Genau aus dem Grund, weil du von der „real world“-Perfomance gesprochen hast. Und da ist bei GPUs nunmal nichts aussagekräftiger als ein AAA-Spiel. Und zwar nicht einfach nur irgendwie lauffähig, sondern in 4K/60, mit maximalen Effekten, Raytracing, etc.

Was soll denn deiner Meinung nach eine Real-Life-Anwendung sein, die die Überlegenheit der ARM-GPUs effektiv ausspielen würde?

btw.: die großen Produktionen haben meist eigene Engines, Unity wird gern für kleine bis mittlere Projekte von (Indie-)developern genommen.
 
Genau aus dem Grund, weil du von der „real world“-Perfomance gesprochen hast. Und da ist bei GPUs nunmal nichts Aussagekräftiger als ein AAA-Spiel. Und zwar nicht einfach nur irgendwie auffällig, sondern in 4K/60, mit maximalen Effekten, Raytracing, etc.

Was soll denn deiner Meinung nach eine Real-Life-Anwendung sein, die die Überlegenheit der ARM-GPUs effektiv ausspielen würde?
Ich habe niemals von irgendeiner Überlegenheit gesprochen. Und wenn für dich AAA-Games der Grund sind einen Mac zu bewerten, okay, kannst du tun.

Und real life Performace ist für mich auf dem Mac z.B. das rendern von Bildern in Photoshop oder Lightroom, oder Videoschnitt / -konvertierung, oder rendern in Safari, So unterscheiden wir uns eben. Du willst AAA-Games auf dem Mac, sonst taugt die Grafik nicht für dich. Ich nehme für AAA-Games meine PS4. Jeder Jeck ist anders.

Edit: @Moriarty Zählt für dich Shadow of the Tomb Raider als AAA-Game und kennst du die Demo dazu von der WWDC?
 
Ich mag keine Konsolen. ;) Controller sind für mich ein Graus. Deswegen ist die Spieleleistung bei Macs für mich schon wichtig. Aber ist schon klar, dass das nie das Hauptinteresse von Apple war.
 
Zurück
Oben Unten