Präzise Touchscreens dank KI

Weniger Tippfehler beim Ber¨¹hren einer Smartphone-Tastatur: Informatiker der ETH Z¨¹rich haben eine neue KI-L?sung entwickelt, dank der Touchscreens Ber¨¹hrungen mit einer achtmal h?heren Aufl?sung erkennen k?nnen. Zudem l?sst sich viel genauer herleiten, wo Finger den Bildschirm ber¨¹hren.

Vergr?sserte Ansicht: Informatiker der ETH Zürich haben eine neue KI-Methode entwickelt, mit der sich viel präziser ermitteln lässt, wo genau ein Finger den Bildschirm eines Handys berührt. (Bild: Adobe Stock)
Informatiker der ETH Z¨¹rich haben eine neue KI-Methode entwickelt, mit der sich viel pr?ziser als heute ¨¹blich ermitteln l?sst, wo genau ein Finger den Bildschirm eines Handys ber¨¹hrt. (Bild: Adobe Stock)

Das kennen wohl alle von uns: wer schnell eine Nachricht auf dem Smartphone eintippen will, trifft auf der kleinen Tastatur ¨C oder auf anderen Elementen der Benutzeroberfl?che ¨C mitunter die falschen Buchstaben. Das liegt nicht nur an uns, denn die Ber¨¹hrungssensoren, die das Eingeben per Finger auf dem Ber¨¹hrbildschirm (engl. touch screen) erfassen, haben sich seit ihrer Einf¨¹hrung Mitte der 2000er-Jahre nicht wesentlich ver?ndert.

Im Unterschied zu ihren Ber¨¹hrungssensoren erreichen die Bildschirme von Smartphones und Tablets mittlerweile eine nie dagewesene visuelle Qualit?t, die mit jeder neuen Ger?te-Generation noch deutlicher zu sehen ist: h?here Farbtreue, h?here Aufl?sung, sch?rferer Kontrast. W?hrend ein iPhone-Telefon der neuesten Generation zum Beispiel eine Display-Aufl?sung von 2532x1170 Pixeln hat, kann dessen Ber¨¹hrungssensor nur Eingaben mit einer Aufl?sung von etwa 32x15 Pixeln erkennen ¨C das ist fast 80-mal niedriger als die Bildschirmaufl?sung: ?Und da fragen wir uns, warum wir auf der kleinen Tastatur so viele Tippfehler machen? Wir denken, dass wir in der Lage sein sollten, Objekte mittels Ber¨¹hrung pixelgenau auszuw?hlen, aber das ist nicht der Fall?, sagt Christian Holz, ETH-Informatikprofessor vom Sensing, Interaction & Perception Lab (SIPLAB) in einem Interview der Reihe ?Spotlights? des ETH-Informatikdepartements.

Mit seinem Doktoranden Paul Streli hat Holz eine k¨¹nstliche Intelligenz (KI) namens ?CapContact? entwickelt, die superaufl?sende Touchscreens erm?glicht. Diese k?nnen die Kontaktfl?che, wo sich Finger und Bildschirm-Oberfl?che tats?chlich ber¨¹hren, zuverl?ssig und deutlich genauer als heute ¨¹blich erkennen. In dieser Woche haben sie ihre neue KI-L?sung an der externe SeiteCHI 2021, der Fachkonferenz f¨¹r menschliche Faktoren in Computersystemen, vorgestellt.

Erkennen, wo Finger den Screen ber¨¹hren

Entwickelt haben die ETH-Forscher die KI f¨¹r sogenannte kapazitive Touchscreens, also die Art von Bildschirmen, die in jedem unserer Handys, Tablets oder Laptops existiert: Bei diesen Ber¨¹hrungsbildschirmen erkennen die Sensoren die Position der Finger jeweils daran, dass sich das elektrische Feld zwischen den Sensorleitungen durch die N?he eines Fingers ?ndert, wenn dieser den Bildschirm ber¨¹hrt. Ber¨¹hrungsbildschirme machen sich dabei die Eigenschaft zunutze, dass die Intensit?t einer ?Ber¨¹hrung? mit zunehmender Entfernung der Finger exponentiell abnimmt. Jedoch k?nnen sie den jeweils tats?chlichen physikalischen Kontakt mit der Oberfl?che nicht erkennen.

Die kapazitive Sensorik sei nie daf¨¹r entwickelt worden, um punktgenau herzuleiten, wo auf dem Bildschirm tats?chlich eine physikalische Ber¨¹hrung stattfinde, sagt Holz: ?Sie erkennt nur die N?he unserer Finger.? Die Touchscreens heutiger Ger?te errechnen somit die Position, wo die Eingabe mit dem Finger erfolgt, aus grob aufgel?sten N?herungsmessungen. Die Forscher mussten einerseits die geringe Aufl?sung der Sensoren erh?hen, anderseits mussten sie herausfinden, wie man aus den kapazitiven Messungen pr?zise auf den jeweiligen Kontaktbereich zwischen Finger und Bildschirmoberfl?che schliessen kann.

Dazu verwenden Streli und Holz, anders als bisher ¨¹blich, Touchscreens als Bildsensoren. Ein Ber¨¹hrbildschirm ist laut Holz im Grund eine sehr niedrig aufl?sende Tiefenkamera, die etwa acht Millimeter weit blicken kann. Eine Tiefenkamera nimmt nicht direkt Fotos auf, sondern kodiert die N?he von Objekten im Sichtbereich. Mit ?CapContact? nutzen die Forscher diese Einsicht aus, um durch ihre neuentwickelte KI-Methode die physikalische Kontaktfl?che zwischen dem Finger und dem Display hochaufl?send abzusch?tzen.

?Erstens errechnet ?CapContact? die tats?chlichen Kontaktfl?chen zwischen Fingern und Touchscreens bei einer Ber¨¹hrung?, sagt Holz, ?zweitens errechnet sie diese Kontaktfl?chen mit der achtfachen Aufl?sung aktueller Ber¨¹hrungssensoren, wodurch unsere Touch-Ger?te die Ber¨¹hrungen viel pr?ziser erkennen k?nnen.?

Um die KI zu trainieren, haben die Forscher ein spezielles Ger?t entwickelt, das die kapazitiven Intensit?ten, also die Beinahe-Ber¨¹hrungen, und die echten Kontaktkarten durch einen hochaufl?senden Drucksensor aufzeichnet. Indem sie die realen Ber¨¹hrungen von vielen Test-Teilnehmenden erfassten, erhielten die Forscher Trainingsdaten, mit denen ?CapContact? lernte, superaufl?send die Kontaktfl?chen aus den groben, niedrig aufgel?sten Sensordaten heutiger Touchscreens vorherzusagen.

Mit dem Abspielen des Videos akzeptieren Sie die Datenschutzerkl?rung von YouTube.Mehr erfahren OK
Die CapContact-Methode kann die Ber¨¹hrungen von Fingern auf den Touchscreens von Handys und Tablets viel genauer lokalisieren als die heutige Technik. (Video: CHI/SIPLAP)

Niedrige Aufl?sung als Fehlerquelle

?In unserem Beitrag zeigen wir, dass wir aus der von ?CapContact? berechneten Kontaktfl?che zwischen Finger und Handy-Bildschirm viel genauer die Position der Ber¨¹hrungseingabe herleiten k?nnen als dies aktuelle Ger?te verm?gen?, erg?nzt Paul Streli. Zudem zeigen die Forscher, dass ein Drittel der Fehler aktueller Ger?te darauf zur¨¹ckzuf¨¹hren ist, dass die Eingabeabtastung nur mit niedriger Aufl?sung erfolgt. ?CapContact? beseitigt diese Fehler mit maschinellem Lernen (Deep Learning).

Die Forscher weisen nach, dass ?CapContact? die Ber¨¹hrungsfl?chen auch dann zuverl?ssig erkennt und auseinanderh?lt, wenn Finger sehr nahe beieinanderliegend den Bildschirm ber¨¹hren. Das ist zum Beispiel bei der Pinch-Geste so, bei der man Daumen und Zeigefinger ¨¹ber einen Bildschirm bewegt, um Texte oder Bilder zu vergr?ssern. Diese Ber¨¹hrung k?nnen heutige Ger?t kaum unterscheiden. In einem Experiment setzten die Forscher zudem Sensoren ein, die viel niedriger aufgel?st waren als die, die man heute in Handys einbaut ¨C trotzdem erkannte ?CapContact? die Ber¨¹hrungen besser und konnte die Kontaktfl?chen deutlich genauer herleiten als Handys mit der heute ¨¹blichen Aufl?sung. Die Chance, dass diese KI-L?sung den Grund legt f¨¹r eine neue Ber¨¹hrungserkennung in k¨¹nftigen Handys und Tablets stehen damit gut.

Um Nachfolgearbeiten in dem Bereich zu erm?glichen, ver?ffentlichen die Forscher sowohl s?mtliche trainierten Deep Learning-Modelle und Quelltexte als auch den aufgenommenen Trainings-Datensatz auf ihrer externe SeiteProjektseite.

SIPLAB

Das Sensing, Interaction & Perception Lab (SIPLAB) untersucht die Interaktion zwischen Mensch und Technik und forscht an der Schnittstelle von Hardware- und Softwaresystemen.

externe SeiteWeitere Informationen

Literaturhinweis

Streli, P, Holz, C. CapContact: Super-resolution Contact Areas from Capacitive Touchscreens. CHI '21: Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems, May 2021, Article No.: 289, Pages 1¨C14. DOI: externe Seite10.1145/3411764.3445621.

JavaScript wurde auf Ihrem Browser deaktiviert