Forscher/-innen der Northeastern University und des Imperial College London haben in einem Experiment untersucht, wie oft die elektronischen Assistenten in „smarten“ Lautsprechern versehentlich aktiviert werden.
Je nach Assistent (Siri, Alexa, Google, Cortana) und verwendetem Lautsprecher lag die Rate der Fehlaktivierungen pro 24 Stunden zwischen 1,5 und 19 Mal. Die Forscher/-innen nutzen dialoglastige Fernsehserien für ihre Versuche. Aktivierungen durch darin enthaltene Aktivierungswörter wurden herausgerechnet.
Was bedeutet das für IT-Sicherheit in Unternehmen?
Die verwendeten Assistenten sind heute auch auf Telefonen allgegenwärtig. Werden diese in vertraulichen Sitzungen versehentlich aktiviert, so muss damit gerechnet werden, dass vertrauliche Informationen abfließen. Dazu ist keine Installation von Schadsoftware nötig.
Bei Apple werden immerhin „weniger als 1% der täglichen Siri-Aktivierungen“ von Menschen abgehört, um die Qualität der Assistenten zu verbessern. Bei anderen Anbietern soll diese Rate teilweise sogar höher liegen. Da die Anbieter diese Aufgabe weltweit, häufig in Niedriglohnländern ausführen lassen, ist nicht nachvollziehbar, wer und an welchem Ort unter Umständen an vertraulichen Gesprächen teilnimmt.
Je nach Assistent sollte man auf jeden Fall in den Einstellungen die Möglichkeit zur Teilnahme an Maßnahmen zur Qualitätsverbesserung oder ähnlich lautenden Klauseln deaktivieren.
Artikelbild: Ales Nesetril auf Unsplash