Apple Event Apple Special Event am 22. Juni 2020 um 19 Uhr

Also: Wenn heute wirklich der A12Z lief, welcher ja nur eine Graphikeinheit mehr hat, als der A12 von vor zwei Jahren und sämtliche Software flüssig lief - nun, dann erwarte ich in zwei/drei Jahren ein MacBook Pro in Form eines Surfbooks. Ich will dann ein iPad haben, wenn ich das Display abnehme, aber ein MBP, wenn ich es benötige.

auf kurz oder lang wird es darauf hinauslaufen. Hoffentlich mit dem Dateisystem von macOS und nicht iOS und der Möglichkeit Software auch abseits des Apple Stores zu installieren.
 
Wenn ich mal so die Sessions überfliege für die WWDC, dann kommen da schon ein paar geile Dinge in den nächsten OS-Versionen:
- Detecting Hand Poses with Vision
Create a virtual drawing app by using Vision’s capability to detect hand poses.
- Implementing Interactions Between Users in Close Proximity
Enable an iPhone to measure the relative position of other iPhones.
- Providing Hands-free App Control with Intents
Resolve, confirm, and handle intents without an extension.
- Receiving Voice and Text Communications on a Local Network
Provide voice and text communication on a local network isolated from Apple Push Notification service by adopting Local Push Connectivity.

etc.pp.
Da ist viel mehr zu erwarten, als das was da heute gezeigt wurde. Und SwiftUI scheint auch endlich fertig zu sein.
 
auf kurz oder lang wird es darauf hinauslaufen. Hoffentlich mit dem Dateisystem von macOS und nicht iOS und der Möglichkeit Software auch abseits des Apple Stores zu installieren.
Na gut und ich dachte, ich habe es schnell genug editiert :D
Aber ja, das will ich haben.
 
yep, mal sehen, wie weit dann der Zwang kommt.
Und endlich nervt ein eingehender Anruf nicht mehr!
 
Ha, watchOS 7 bringt doch etwas und zwar sogar für die Kurzbefehle!
:iD: :drink:

Es gibt endlich wieder eine Kurzbefehle App auf der Uhr und man kann Befehle auch direkt auf das Zifferblatt legen zum schnellen ausführen!

Ausserdem hat Siri auf der Uhr auch ein gutes Update bekommen inkl. offline Translation und Text diktieren!

(@Ezekeel :i;): )
 
Auch interessant: Rosetta 2 ist *kein* Emulator. Statt dessen werden die Binaries vor der Ausführung portiert:
(https://developer.apple.com/documentation/apple_silicon/about_the_rosetta_translation_environment)

Overview
Rosetta is a translation process that allows users to run apps that contain x86_64 instructions on Apple silicon. Rosetta is meant to ease the transition to Apple silicon, giving you time to create a universal binary for your app. It is not a substitute for creating a native version of your app.

To the user, Rosetta is mostly transparent. If an executable contains only Intel instructions, macOS automatically launches Rosetta and begins the translation process. When translation finishes, the system launches the translated executable in place of the original. However, the translation process takes time, so users might perceive that translated apps launch or run more slowly at times.

The system prefers to execute an app’s arm64 instructions on Apple silicon. If a binary includes both arm64 and x86_64 instructions, the user can tell the system to launch the app using Rosetta translation from the app’s Get Info window in the Finder. For example, a user might enable Rosetta translation to allow the app to run older plug-ins that don’t yet support the arm64 architecture.
 
Auf die Gefahr mich zu wiederholen: ?

Völlig nichtssagende Grafik zum Sleeptracking.

Beim Tracking erwarte ich nicht nur eine Grafik ob ich nun 6 oder 8 Stunden im Bett war, da brauchts mind. sowas wie bei Autosleep mit allem drumherum (Phasen, rem, puls, geräusche, schnarchen, usw.)

Blasphemie sowas überhaupt SleepTracking nennenzu dürfen. Und dies nach jahrelangen Entwicklungen...

Gecheckt?
 
Ach und iMessage wird so etwas wie Thread innerhalb einer Konversation haben. Also Slack-style? Richtig verstanden...bin da etwas verwirrt.

FaceTime Bild-im-Bild wird auch spannende ein es mehrere Teilnehmer sind.
 
@Deine Mudda
Das erste Rosetta hat schon auf dieser Basis funktioniert. Und ich fand es nicht so unerträglich träge, wie @mj meint. Aber das hängt natürlich auch davon ab, welche Software man dringend benötigt, und ob die jahrzehntelang nicht für ARM neu kompiliert wird.

Für mich wäre das dann ein Zeichen, genau diese Software links liegen zu lassen, und zu einem Konkurrenzprodukt zu wechseln. Klar, kann man nicht immer. Aber immer öfter. ;)
 
Völlig nichtssagende Grafik zum Sleeptracking.

Beim Tracking erwarte ich nicht nur eine Grafik ob ich nun 6 oder 8 Stunden im Bett war, da brauchts mind. sowas wie bei Autosleep mit allem drumherum (Phasen, rem, puls, geräusche, schnarchen, usw.)

Blasphemie sowas überhaupt SleepTracking nennenzu dürfen. Und dies nach jahrelangen Entwicklungen...

Gecheckt?

Mehr kommt mit der neuen Watch.
 
Völlig nichtssagende Grafik zum Sleeptracking.

Beim Tracking erwarte ich nicht nur eine Grafik ob ich nun 6 oder 8 Stunden im Bett war, da brauchts mind. sowas wie bei Autosleep mit allem drumherum (Phasen, rem, puls, geräusche, schnarchen, usw.)

Blasphemie sowas überhaupt SleepTracking nennenzu dürfen. Und dies nach jahrelangen Entwicklungen...

Gecheckt?
Wart halt mal ab, was bei der endgültigen Vorstellung kommt, das war alles nur ein Einblick (Ich wiederhole mich) über das, was kommt. Ist doch wirklich nicht so schwer zu verstehen.
 
@Deine Mudda
Das erste Rosetta hat schon auf dieser Basis funktioniert. Und ich fand es nicht so unerträglich träge, wie @mj meint.

Meines Wissens hat PPC Rosetta den Code nur "bei Bedarf" übersetzt - also on-the-fly, wenn er ausgeführt wurde. Die neue Beschreibung oben liest sich so, als ob erst das komplette Binary übersetzt wird und dann erst ausgeführt wird. :noplan: Man wird sehen...
 
Wie sieht das ganze eigentlich mit EGPU unter ARM aus an einer TB3 bzw. dann vermutlich TB4 Schnittstelle ? wird es dies noch weiterhin geben?
 
Zurück
Oben Unten