Sicherheitsforscher des chinesischen IT-Giganten Tencent haben bei Googles TensorFlow-System für künstliche Intelligenz schwerwiegende Sicherheitslücken entdeckt. Von Entwicklern auf der Plattform erstellte Bots lassen sich demnach fernsteuern, wenn diese eine als unsicher erkannte Komponente von Google nutzen.
Laut Yang Yong, Leiter eines Sicherheitsteams bei Tencent, ermöglicht die Sicherheitslücke die komplette Übernahme von Bot-Systemen, die dann missbräuchlich genutzt werden könnten. Aufgrund der von Bots verwalteten Daten und ihrer autonomen Funktionsweise sei dies besonders problematisch. Bei KI-Anwendungen zur Gesichtserkennung, die besonders in sicherheitsrelevanten Bereichen zum Einsatz kommen, könnten sich Hacker über TensorFlow unbemerkt Zugang verschaffen.
TensorFlow wurde von Google 2015 als kostenlos über die Cloud nutzbare Plattform für KI-Anwendungen eingeführt. Über verschiedene APIs lassen sich dort mit relativ einfachen Mitteln automatisierte Systeme mit künstlicher Intelligenz realisieren. Unter anderem kann Googles TensorFlow mit Mini-Rechnern wie dem Raspberry Pi eingesetzt werden. Eine im Sommer vorgestellte Schnittstelle für das KI-System ermöglicht etwa die automatische Objekterkennung in Bildmaterial.
TensorFlow nutzt auf Googles Servern laufende neuronale Netzwerke und Modellsimulationen, um sich selbst kontinuierlich zu verbessern. Die angebundenen Rechner dienen primär zur Erfassung und Übermittlung der benötigten Daten. In der Zukunft will Google aber noch stärker die Rechenleistung der Endgeräte mit einbinden, um die zu übertragenen Datenmengen deutlich zu reduzieren, und damit die Latenzen zu senken. Bestimmte, einfache TensorFlow-Funktionen lassen sich bereits jetzt mit den Ressourcen von Smartphones auch ohne Cloud-Anbindung nutzen.
Google investiert sehr intensiv in die KI-Forschung. Einer Forschungsgruppe des Konzerns ist inzwischen sogar die Entwicklung eines autonom lernenden Systems gelungen, welches selbst KI-Systeme erzeugen kann. Dieses wertet die Ergebnisse zahlreicher Instanzen verschiedener Tochter-KIs in jeweils leichten Variationen aus, um so das Design des Systems immer weiter zu optimieren.