banner
Heim / Nachricht / Mit diesen Gesten steuern Sie Apple Vision Pro
Nachricht

Mit diesen Gesten steuern Sie Apple Vision Pro

May 28, 2023May 28, 2023

Apple Vision Pro, Apples neues „Spatial Computing“-Gerät, verfügt nicht über einen hardwarebasierten Steuerungsmechanismus. Es basiert auf Eye-Tracking und Handgesten, um Benutzern die Manipulation von Objekten im virtuellen Raum vor ihnen zu ermöglichen. In einer aktuellen Entwicklersitzung erläuterten Apple-Designer die spezifischen Gesten, die mit Vision Pro verwendet werden können, und wie einige der Interaktionen funktionieren.

Gesten funktionieren parallel zu den Augenbewegungen und die vielen Kameras im Vision Pro verfolgen mit großer Genauigkeit, wohin Sie schauen. Die Augenposition ist ein Schlüsselfaktor bei der gezielten Ausrichtung auf das, mit dem Sie mit Handgesten interagieren möchten. Wenn Sie beispielsweise ein App-Symbol oder ein Element auf dem Bildschirm betrachten, zielen Sie darauf ab und heben es hervor. Anschließend können Sie eine Geste ausführen.

Handgesten müssen nicht großartig sein und Sie können Ihre Hände im Schoß behalten. Apple fördert dies sogar, denn es verhindert, dass Ihre Hände und Arme durch das Halten in der Luft ermüden. Für das Äquivalent eines Tippens ist nur eine kleine Pinch-Geste erforderlich, da die Kameras präzise Bewegungen verfolgen können.

Zusätzlich zu Gesten unterstützt das Headset Handbewegungen wie das Tippen in der Luft, obwohl es den Anschein hat, dass diejenigen, die eine Demoversion erhalten haben, diese Funktion bisher noch nicht ausprobieren konnten. Gesten funktionieren natürlich zusammen, und um beispielsweise eine Zeichnung zu erstellen, schauen Sie auf eine Stelle auf der Leinwand, wählen mit der Hand einen Pinsel aus und zeichnen mit einer Geste in die Luft. Wenn Sie woanders suchen, können Sie den Cursor sofort dorthin bewegen, wo Sie suchen.

Während dies die sechs wichtigsten Systemgesten sind, die Apple beschrieben hat, können Entwickler benutzerdefinierte Gesten für ihre Apps erstellen, die andere Aktionen ausführen. Entwickler müssen sicherstellen, dass sich benutzerdefinierte Gesten von den Systemgesten oder üblichen Handbewegungen unterscheiden, die Benutzer möglicherweise verwenden, und dass die Gesten ohne Belastung der Hand häufig wiederholt werden können.

Als Ergänzung zu Hand- und Augengesten können Bluetooth-Tastaturen, Trackpads, Mäuse und Gamecontroller mit dem Headset verbunden werden, außerdem gibt es sprachbasierte Such- und Diktiertools.

Mehrere Personen, die Vision Pro ausprobieren konnten, haben das Steuerungssystem mit dem gleichen Wort beschrieben – intuitiv. Die Designer von Apple scheinen es so konzipiert zu haben, dass es ähnlich wie Multitouch-Gesten auf dem „iPhone“ und dem iPad funktioniert, und bisher waren die Reaktionen positiv.

MacRumors-Videofilmer Dan Barbera konnte das Headset ausprobieren und war von der Steuerung beeindruckt. Seinen vollständigen Überblick über seine Erfahrungen können Sie auf unserem YouTube-Kanal sehen.

KlopfenDoppeltippenKneifen und haltenKneifen und ZiehenZoomenDrehen