Für das ERP-Thema müsste man mal gesondert ein Thema aufmachen.
Das Video gibt mir folgendes u Denken:
Bei der Maus haben wir diese Operatoren:
Link Klick, Rechtsklick, Bewegen der Maus, Bewegen der Maus bei Linksklick, Mausraddrehen, Klick in Mausrad.
Die Mightymouse hat sicher noch mehr. Die kenne ich aber nicht so richtig.
Viele Newbis sind aber schon mit diesen Operatoren und den Operationen, die man damit durchführen kann, überfordert.
Es gilt also am Touchscreen ebenfalls reduce to the max zu betreiben.
Einzelne Anwendungen wie Photoshop, CAD oder 3D-Design Programme können dann noch was draufsetzen. Aber an den Grundoperatoren orientiert!
Andererseits ist das Arbeiten mit verschiedenen Fingern doch intuitiver als mit der Maus.
Vergrößern, verkleinern, markieren, Linien zeichnen, Anfassen und Bewegen, drehen, deformieren, anstoßen und weggleiten lassen, Tastatur herbeiholen, Menüs aufrufen, das Dock hervorzaubern
alles das sollte mit intuitiven Gesten und Berührungen möglich und erlernbar sein.
Bisher hat bei solchen Tasks Apple die Nase vorn. Es gehört nicht zu MS Kernkompetenz solche Dinge gut zu machen. Bin ich mal gespannt.
Und: Soll man ständig mit den Armen auf Bildschirmhöhe herumfuchteln oder auf den Tisch starren (der ein Bildschirm ist)? Ob das gesund ist?
Oder läuft es auf einen Kompromiss hinaus: Ein Multitouchpad, das die Maus ersetzt und den Bildschirm repräsentiert. So kommt dann jeder auch mit altem CRT Bildschirm zu Multitouch. Das wäre allerdings ein Schachzug von MS.