Daten-Labeling via Gestenerkennung mit Soli
Project Idea Metadata
- Project Idea Name: Daten-Labeling via Gestenerkennung mit Soli
- Date: 12/9/2022 3:48:08 PM
-
Administrators:
Project Idea Description
Kurzbeschreibung Ausgangslage
Beim Kategorisieren von Trainingsdaten für Machine Learning müssen oft die gegebenen Daten in mehrere Kategorien eingeteilt werden. Dies muss von einem Menschen gemacht werden, meistens indem jeder Datensatz (je nach Anwendung jedes Bild, jedes Wort, jede Grafik etc.) mittels der Tastatur irgendwie einer Kategorie zugeordnet wird. Idealerweise würde ein Tastendruck pro Datensatz reichen, häufig sind es mehr, weil z.B. ein Feld ausgefüllt werden muss o.ä. Bei grossen Datenmengen wird dies ermüdend und ist darum fehleranfällig.
Kurzbeschreibung Aufgabenstellung
Es gibt von Google ein neues Device namens «Soli», welches Gesten erkennen kann. In der Arbeit soll ein Tool entwickelt werden, welches die Datensätze (Bilder/Wörter/Grafiken) nacheinander auf dem Bildschirm darstellt. Mittels der Gestenerkennung von Soli soll dann die Benutzerin jeden Datensatz durch eine einfache Geste einer von 2-6 Kategorien zuordnen (z.B. Zeigen/Wischen nach links oben, rechts Mitte, links unten etc.). Es soll auch eine Geste für «rückgängig» geben, um eine soeben gemachte falsche Kategorisierung zurückzunehmen und neu zu machen.
Optional könnte danach geprüft werden, ob die Kategorisierung auf diese Art schneller und/oder weniger fehleranfällig ist als über die Tastatur.
Es gibt von Google ein neues Device namens «Soli», welches Gesten erkennen kann. In der Arbeit soll ein Tool entwickelt werden, welches damit beim Kategorisieren von Trainingsdaten für Machine Learning hilft. Die dargestellten Daten sollen nacheinander mittels Geste einer von 2-6 Kategorien zuordnen. Optional soll danach geprüft werden, ob die Kategorisierung auf diese Art schneller und/oder weniger fehleranfällig ist als über die Tastatur.