Unsere tatsächliche Aufmerksamkeit wird messbar

Handys sollen nicht mehr im falschen Moment st?ren. Dafür muss zuerst unsere Aufmerksamkeit w?hrend der Smartphone-Nutzung besser verstanden werden. Informatiker der ETH haben ein System entwickelt, das den Blickkontakt zum Bildschirm erstmals im Alltag erfasst. Davon k?nnten auch Soziologen und Mediziner profitieren.

Vergr?sserte Ansicht: Was bewegt das Auge, wenn man auf ein Smartphone schaut? (Bild: Adobe Stock)
Was bewegt das Auge, wenn man auf ein Smartphone schaut? (Bild: Adobe Stock)

Wie viele Male schalten Sie Ihr Smartphone am Tag ein? Wie lange ist der Bildschirm eingeschaltet und wie viel Zeit ist welche App in Betrieb? Diese Daten sammelt jedes moderne Smartphone automatisch und stellt sie dem Nutzer unter Bezeichnungen wie ?Digitales Wohlbefinden? zur Verfügung. Aber Bildschirmzeit ist nicht gleich Bildschirmzeit und App-Nutzung ist nicht gleich App-Nutzung.

Manchmal sind wir über l?ngere Zeit konzentriert bei der Sache, ein anderes Mal schauen wir nur flüchtig auf den Bildschirm oder werden mehrfach durch Ereignisse in der Umgebung abgelenkt. Und gelegentlich wandert unser Blick erst gar nicht zum Smartphone, weil wir es nur unbewusst aktiviert haben.

Verst?ndnis der Anwenderaufmerksamkeit

?Die Aufmerksamkeit, die wir unserem Smartphone widmen, kann sehr unterschiedlich sein,? erkl?rt Mihai B?ce: ?Sie wurde aber noch nie in echten Alltagssituationen untersucht.? Der Doktorand am Institut für intelligente interaktive Systeme der ETH Zürich hat jetzt zusammen mit einem Masterstudenten und einem Professor der Universit?t Stuttgart ein System entwickelt, mit dem sich die visuelle Aufmerksamkeit auf das Smartphone im ganz normalen Nutzer-Alltag und über Wochen messen l?sst.

Es ben?tigt dafür nur die Frontkamera und Sensordaten des Telefons. Bisher waren umst?ndliche Messapparaturen mit Eye-Trackern oder das Ausfüllen von Frageb?gen notwendig, die das normale Leben h?chstens ann?hernd erfassen konnten.

Dabei geh?rt das Verst?ndnis der Anwenderaufmerksamkeit zu den wichtigsten Herausforderungen auf dem Weg zu zukünftigen mobilen Benutzerschnittstellen, wie B?ce betont. Diese sollen n?mlich ihrerseits aufmerksam werden und automatisch auf unsere aktuellen Bedürfnisse sowie auf die Situation Rücksicht nehmen, in der wir uns gerade befinden.

Es wird dann beispielsweise keine manuelle Nicht-St?ren-Einstellung mehr notwendig sein, um nicht durch eine unwichtige Meldung aus einer konzentrierten Besch?ftigung herausgerissen zu werden.

Nur 7 Sekunden am Stück und 4 Mal abgelenkt

Vergr?sserte Ansicht: Am Beispiel von Sander Staal, Co-Autor der Studie, ist zu sehen, wie die Blickkontakterkennung funktioniert. Ein grünes Rechteck bedeutet Augenkontakt, rot kein Augenkontakt.
Am Beispiel von Sander Staal, Co-Autor der Studie, ist zu sehen, wie die Blickkontakterkennung funktioniert. Ein grünes Rechteck bedeutet Augenkontakt, rot kein Augenkontakt. (Distributed Systems Group)

Und derartige Technologien scheinen je l?nger je notwendiger zu werden. B?ces Untersuchungen zeigen n?mlich, dass die visuelle Aufmerksamkeit, die wir dem Smartphone zukommen lassen, heute ausgesprochen zerstückelt ist. Gerade einmal rund 7 Sekunden dauert ein Augenkontakt mit dem Bildschirm im Durchschnitt, bevor der Blick abschweift.

Und das passiert nach jeder Entsperrung vier Mal für rund 2 Sekunden. Wie ablenkbar die Nutzer sind, h?ngt dabei von der einzelnen Pers?nlichkeit, aber auch der Umgebung des Nutzers sowie der Art der App ab, die gerade im Einsatz ist. Medizinische Anwendungen oder auch solche, die der Ausbildung dienen, fesseln beispielsweise wesentlich l?nger als Unterhaltungs-Apps.

Basis für unterschiedlichste Forschung

Den grossen Wert seiner Arbeit sieht B?ce aber nicht nur in diesen konkreten Untersuchungsresultaten, die mit dem System gewonnen werden konnten: ?Unser System soll vor allem auch eine Basis für andere Wissenschaftler darstellen. Wir werden darum neben den gesamten Videodaten auch alle unsere Algorithmen ver?ffentlichen.?

Profitieren k?nnten zukünftig nicht nur App-Entwickler, sondern beispielsweise auch Soziologen oder Psychologen, die mit dem System ohne grossen technischen Aufwand Studien zum Einfluss von verschiedenen Faktoren auf die Aufmerksamkeit durchführen k?nnten. Aber auch die Medizin w?re ein m?glicher Abnehmer der Technologie. ?nderungen im Aufmerksamkeitsverhalten k?nnten beispielsweise beim Monitoring von Patienten eingesetzt werden und auf problematische Entwicklungen hinweisen.

Bei der Entwicklung des Systems kam eine App zum Einsatz, die zus?tzlich zum Aufnehmen von Frontkamera-Videos bei jeder Handy-Entsperrung und dem parallelen Sammeln verschiedener Sensor- und Metadaten auch noch Datenschutz- und Verifizierungsfunktionalit?ten enthielt.

So konnten die Studienteilnehmenden über eine Review-Komponente selbst entscheiden, welche Videos sie zur Auswertung freigeben, und über ein Annotations-Game liessen sich Videosequenzen von anderen Teilnehmenden beurteilen. Mit Hilfe dieser dritten Komponente wurden in der Entwicklungsphase die Resultate der automatischen Blickkontakterkennung überprüft.

Infrastruktur als grosse Herausforderung

Insgesamt haben die Forscher in einem ersten Experiment mit 32 Teilnehmern und über einen Zeitraum von über zwei Wochen Videosequenzen von insgesamt 472 Stunden aufgenommen und anschliessend mit einem innovativen lernf?higen Blickkontakt-Erkennungssystem ausgewertet. Die einzelnen Videos konnten dabei mehrere hundert Megabyte gross werden. Es wurde also zwischenzeitlich viel Speicherplatz auf den Smartphones ben?tigt und auch die Upload-Zeiten zogen sich entsprechend in die L?nge. Und genau darin lag eine der gr?ssten Herausforderungen.

Mihai Bace
Wir führen bewusst keine Gesichtserkennung durch. Es wird einzig festgestellt, ob Blickkontakt mit dem Bildschirm besteht.Mihai B?ce, Doktorand am Institut für intelligente interaktive Systeme

Da die User eine App, die sie im Alltag behindert, schnell abschalten oder zumindest ihre Nutzung minimieren, mussten Mechanismen gefunden werden, die den Handyspeicher nicht überm?ssig belasten und auch nicht die ?bertragungskapazit?ten der Smartphones blockieren.

Zudem muss der Datenschutz jederzeit sichergestellt sein – es darf nur das auf den Auswertungsserver geladen werden, was von den Nutzern ausdrücklich über die Review-Komponente freigegeben wurde. ?Die App wurde von der Ethikkommission der ETH Zürich überprüft, und wir führen auch bewusst keine Gesichtserkennung durch. Es wird einzig festgestellt, ob Blickkontakt mit dem Bildschirm besteht,? erg?nzt B?ce.

Wenn unser Smartphone in Zukunft uns und unsere Bedürfnisse besser versteht, muss dies also nicht zwangsl?ufig auf der Auswertung von sensitiven pers?nlichen Daten beruhen. Mit dem System der Informatiker kann dies künftig vielleicht auch durch ein automatisches Erkennen des menschlichen Aufmerksamkeitsniveaus erreicht werden.

Literaturhinweise

B?ce M, Staal S, Bulling A. (2020). Quantification of Users’ Visual Attention During Everyday Mobile Device Interactions. In: Proceedings of the Conference on Human Factors in Computing Systems (CHI ’20). ACM, New York, NY, USA, 2020, 1–14. doi: externe Seite10.1145/3313831.3376449

B?ce M, Staal S, Bulling A. (2019). Accurate and Robust Eye Contact Detection During Everyday Mobile Device Interactions externe Seitearxiv.org/abs/1907.11115

Video-Pr?sentation des Papers: externe Seitewww.youtube.com/watch?v=SzLn3LujIqw

Video-Dataset der Untersuchung: externe Seitewww.emva-dataset.org

JavaScript wurde auf Ihrem Browser deaktiviert