it-swarm.com.de

Darstellung von Berührungsgesten in interaktiven Prototypen für Multi-Touch-Apps (Android / IOS)

Ich habe mich immer gefragt, wie wir Multi-Touch-Gesten wie Wischen, Kneifen usw. in Modellen/interaktiven Prototypen darstellen/zeigen können.

Zum Beispiel arbeite ich derzeit in Axure als Prototyp für eine Android App. Ich habe eine Funktion wie im Bild gezeigt. Oder wahrscheinlich (Langes Drücken, Verschieben, Heben) zum Löschen/Verschieben von Symbolen in Android.

Der Benutzer kann darüber interagieren und Tippen kann durch Onclick in Axure dargestellt werden, aber wie kann ich effektiv feststellen, dass eine bestimmte Geste auf einem bestimmten Element auf dem Bildschirm etwas bewirkt.

Ich möchte nur wissen, wie wir diese Gesten sowohl in statischen als auch in interaktiven Prototypen (wie in Axure) darstellen können.

enter image description here

5
carora3

Diese Open Source-Bibliothek ist anfangs ziemlich gut und deckt viele Arten gängiger Gesten ab: http://gestureworks.com/downloads/ icons-poster.Zip

Gestureworks


Alternativ ist auch dieser ziemlich gut: http://gesturecons.com

Gesturecons


Sie können auch versuchen, ein kurzes Video oder animierte GIF-Bilder zu erstellen, um das zu erstellen Gesten expliziter, VideoHive bietet viele Footages , die Sie zu diesem Zweck verwenden könnten.

10
wildpeaks

Aus diesem Grund bin ich kein Fan von Axure. Es ist interaktiv, aber nicht so interaktiv wie das Endprodukt, kann also möglicherweise die tatsächliche Interaktion nicht kommunizieren und wird normalerweise nur in der Zwischenzeit verwirren.

Für statische Modelle hat Luke Wroblewski eine nette Gesten-Notation:

http://www.lukew.com/ff/entry.asp?1071

3
DA01