Sie sind mehr als ein Datenpunkt. Das Opt-Out soll Ihnen dabei helfen, Ihre Privatsphäre zurückzugewinnen.
DIE NEUESTE WELLEDie Entwicklung der künstlichen Intelligenz hat viele von uns gezwungen, wichtige Aspekte unseres Lebens zu überdenken. Digitalkünstler müssen sich beispielsweise jetzt darauf konzentrieren, ihre Arbeit vor bildgenerierenden Websites zu schützen, und Lehrer müssen sich damit auseinandersetzen, dass einige ihrer Schüler möglicherweise Outsourcing betreibenAufsatz schreiben bei ChatGPT.
Aber die Flut der KI birgt auch erhebliche Datenschutzrisiken, die jeder verstehen sollte – auch wenn Sie nicht vorhaben, jemals herauszufinden, was diese Technologie denktDu würdest wie ein Wassermensch aussehen.
Ein Mangel an Transparenz
„Wir wissen oft sehr wenig darüber, wer unsere persönlichen Daten wie und zu welchen Zwecken nutzt“, sagt erJessica Brandt, politischer Direktor der Initiative für künstliche Intelligenz und neue Technologien an derBrookings Institution, eine gemeinnützige Organisation mit Sitz in Washington, D.C., die ihre Forschung zur Bewältigung einer Vielzahl nationaler und globaler Probleme durchführt.
Im Großen und Ganzen erfordert maschinelles Lernen – der Prozess, durch den ein KI-System genauer wird – viele Daten. Je mehr Daten ein System hat, desto genauer wird es. Generative KI-Plattformen wie Chatbots ChatGPT undGoogles Barde, plus Bildgenerator Dall-E erhalten einige ihrer Trainingsdaten durch eine Technik namens Scraping: Sie durchsuchen das Internet dazunützliche öffentliche Informationen sammeln.
Aber manchmal kann es aufgrund menschlicher Fehler oder Fahrlässigkeit dazu kommen, dass private Daten, die eigentlich nie öffentlich sein sollten, wie sensible Unternehmensdokumente, Bilder oder sogar Anmeldelisten, öffentlich zugänglich sein solltenseinen Weg in den zugänglichen Teil des Internets finden, wo jeder sie mithilfe der Google-Suchoperatoren finden kann. Und sobald diese Informationen ausgekratzt und dem Trainingsdatensatz einer KI hinzugefügt wurden, kann niemand mehr viel tun, um sie zu entfernen.
„Menschen sollten in der Lage sein, ein Foto frei zu teilen, ohne daran zu denken, dass es am Ende in ein generatives KI-Tool einfließt oder, noch schlimmer, dass ihr Bild am Ende zur Erstellung eines Deepfakes verwendet wird“, sagt erIvana Bartoletti, globaler Chief Privacy Officer eines indischen TechnologieunternehmensWipround Gastwissenschaftler für Cybersicherheit und Datenschutz am Pamplin College of Business der Virginia Tech. „Das Scrapen persönlicher Daten im Internet untergräbt die Kontrolle der Menschen über ihre Daten.“
Data Scraping ist nur eine potenziell problematische Quelle für Trainingsdaten für KI-Systeme.Katharina Körner, Senior Fellow für Privacy Engineering bei der International Association of Privacy Professionals, sagt, ein weiterer Aspekt sei die sekundäre Nutzung personenbezogener Daten. Dies geschieht, wenn Sie freiwillig einige Ihrer Daten für einen bestimmten Zweck preisgeben, diese jedoch letztendlich einem anderen Zweck dienen, dem Sie nicht zugestimmt haben. Unternehmen sammeln seit Jahren die Informationen ihrer Kunden, darunter E-Mail-Adressen, Versanddetails und die Art der Produkte, die sie mögen, aber in der Vergangenheit konnten sie mit diesen Daten nicht viel anfangen. Heutzutage bieten komplexe Algorithmen und KI-Plattformen eine einfache Möglichkeit, diese Informationen zu verarbeiten, um mehr über die Verhaltensmuster der Menschen zu erfahren. Dies kann für Sie von Vorteil sein, da Ihnen nur Anzeigen und Informationen angezeigt werden, die Sie tatsächlich interessieren könnten. Allerdings kann es je nach Postleitzahl auch die Produktverfügbarkeit einschränken und die Preise erhöhen. Koerner sagt, es sei für Unternehmen verlockend, dies zu tun, da einige bereits auf großen Datenmengen sitzen, die ihre eigenen Kunden bereitgestellt haben.
„KI macht es einfach, wertvolle Muster aus verfügbaren Daten zu extrahieren, die zukünftige Entscheidungen unterstützen können. Daher ist es für Unternehmen sehr verlockend, personenbezogene Daten für maschinelles Lernen zu verwenden, wenn die Daten nicht für diesen Zweck erfasst wurden“, erklärt sie.
Es hilft auch nicht, dass es für Entwickler äußerst kompliziert ist, Ihre persönlichen Daten selektiv aus einem großen Trainingsdatensatz zu löschen. Natürlich kann es leicht sein, bestimmte Angaben wie Ihr Geburtsdatum oder Ihre Sozialversicherungsnummer zu eliminieren (bitte geben Sie keine persönlichen Daten an eine generative KI-Plattform weiter). Aber die Durchführung einer vollständigen Löschungsanfrage, die beispielsweise mit der europäischen Datenschutz-Grundverordnung vereinbar ist, ist eine ganz andere Sache und vielleicht die komplexeste Herausforderung, die es zu lösen gilt, sagt Bartoletti.
[Verwandt: So verhindern Sie, dass Schulgeräte die Daten Ihrer Familie weitergeben]
Das selektive Löschen von Inhalten ist selbst in herkömmlichen IT-Systemen aufgrund ihrer Komplexität schwierigMicroservice-Strukturen, wobei jeder Teil als unabhängige Einheit arbeitet. Aber Koerner sagt, dass es im Kontext der KI noch schwieriger, wenn nicht sogar unmöglich sei.
Das liegt daran, dass es nicht nur darum geht, „Strg + F“ zu drücken und alle Daten mit dem Namen einer Person zu löschen – das Entfernen der Daten einer Person würde die kostspielige Prozedur erfordern, das gesamte Modell von Grund auf neu zu trainieren, erklärt sie.
Es wird immer schwieriger, sich abzumelden
Ein gut funktionierendes KI-System kann unglaubliche Mengen an Analysen liefern, einschließlich Mustererkennung, die seinen Benutzern hilft, das Verhalten von Menschen zu verstehen. Aber das liegt nicht nur an den Fähigkeiten der Technik, sondern auch daran, dass Menschen dazu neigen, sich vorhersehbar zu verhalten. Dieser besondere Aspekt der menschlichen Natur ermöglicht es KI-Systemen, einwandfrei zu funktionieren, ohne viel über Sie im Besonderen zu wissen. Denn welchen Sinn hat es, Sie zu kennen, wenn es ausreicht, Menschen wie Sie zu kennen?
„Wir sind an dem Punkt angelangt, an dem nur minimale Informationen erforderlich sind – nur drei bis fünf relevante Daten über eine Person, die ziemlich einfach zu erfassen sind – und diese sofort in das Vorhersagesystem aufgenommen werden“, sagt Brenda Leong, Partnerin beiBNH.AI, eine Anwaltskanzlei in Washington, D.C., die sich auf KI-Prüfungen und -Risiken konzentriert. Kurz gesagt: Es ist heutzutage schwieriger, vielleicht sogar unmöglich, außerhalb des Systems zu bleiben.
Dies lässt uns nur wenig Freiheit, da selbst Menschen, die jahrelang große Anstrengungen unternommen haben, um ihre Privatsphäre zu schützen, Entscheidungen und Empfehlungen von KI-Modellen treffen lassen. Das könnte ihnen das Gefühl geben, dass ihre ganze Mühe umsonst war.
„Selbst wenn es für mich hilfreich ist, indem man mir beispielsweise Kredite anbietet, die der richtigen Höhe für mein Einkommen entsprechen, oder Möglichkeiten anbietet, an denen ich wirklich interessiert wäre, wirkt es sich auf mich aus, ohne dass ich das in irgendeiner Weise wirklich kontrollieren kann“, fährt Leong fort.
Die Verwendung von Big Data, um ganze Gruppen von Menschen in Schubladen zu stecken, lässt auch keinen Platz für Nuancen – für Ausreißer und Ausnahmen –, von denen wir alle wissen, dass das Leben voll ist. Der Teufel steckt im Detail, aber auch in der Anwendung allgemeiner Schlussfolgerungen auf besondere Umstände, bei denen etwas sehr schief gehen kann.
Mehr Lektüre:iPhone/iPad bleibt bei kritischen Alarmen zu Hause hängen? 9 neueste Korrekturen!
Die Bewaffnung von Daten
Eine weitere entscheidende Herausforderung besteht darin, Fairness bei der algorithmischen Entscheidungsfindung zu gewährleisten – insbesondere, wenn die Schlussfolgerungen eines KI-Modells möglicherweise auf fehlerhaften, veralteten oder unvollständigen Daten basieren. Dass KI-Systeme das können, ist mittlerweile allgemein bekanntverewigen die Vorurteile ihrer menschlichen Schöpfer, Manchmalmit schrecklichen Folgenfür eine ganze Gemeinschaft.
Immer mehr Unternehmen verlassen sich dabei auf AlgorithmenHelfen Sie ihnen, Positionen zu besetzenoder bestimmen Sie aRisikoprofil des Fahrers, wird es wahrscheinlicher, dass unsere eigenen Daten gegen unsere eigenen Interessen verwendet werden. Sie könnten eines Tages durch die automatisierten Entscheidungen, Empfehlungen oder Vorhersagen dieser Systeme geschädigt werden, ohne dass Ihnen nur sehr wenige Möglichkeiten zur Verfügung stehen.
[Verwandt: Autonome Waffen könnten im Krieg schwere Fehler begehen]
Es ist auch ein Problem, wenn diese Vorhersagen oder Bezeichnungen in den Augen eines Algorithmus, der nicht zwischen wahr und falsch unterscheiden kann, zu Fakten werden. Für die moderne KI sind es alle Daten, ob persönlich, öffentlich, sachlich oder vollständig erfunden.
Mehr Integration bedeutet weniger Sicherheit
So wie Ihre Internetpräsenz so stark ist wie Ihr schwächstes Passwort, bietet die Integration großer KI-Tools mit anderen Plattformen Angreifern mehr Möglichkeiten, auszuspionieren, wenn sie versuchen, auf private Daten zuzugreifen. Seien Sie nicht überrascht, wenn einige von ihnen sicherheitstechnisch nicht den Standards entsprechen.
Und dabei sind noch nicht einmal alle Unternehmen berücksichtigtRegierungsbehördenSammeln Sie Ihre Daten ohne Ihr Wissen. Denken Sie darüber nachÜberwachungskameras in Ihrer Nachbarschaft,Gesichtserkennungssoftware, die Sie in einem Konzertsaal verfolgt, Kinder, die mit GoPros durch Ihren örtlichen Park laufen, und sogar Leute, die versuchen, auf TikTok viral zu gehen.
Je mehr Menschen und Plattformen mit Ihren Daten umgehen, desto wahrscheinlicher ist es, dass etwas schief geht. Mehr Spielraum für Fehler bedeutet eine höhere Wahrscheinlichkeit, dass Ihre Informationen im gesamten Internet verbreitet werden, wo sie leicht in den Trainingsdatensatz eines KI-Modells gelangen könnten. Und wie oben erwähnt, ist das furchtbar schwer rückgängig zu machen.
Was Sie tun können
Die schlechte Nachricht ist, dass Sie derzeit nicht viel dagegen tun können – weder gegen die möglichen Sicherheitsbedrohungen, die von KI-Trainingsdatensätzen ausgehen, die Ihre Informationen enthalten, noch gegen die Vorhersagesysteme, die Sie möglicherweise davon abhalten, Ihren Traumjob zu bekommen. Im Moment ist es unsere beste Lösung, eine Regulierung zu fordern.
Die Europäische Union macht bereits Fortschritte und verabschiedet den ersten Entwurf des KI-Gesetzes, das regeln wird, wie Unternehmen und Regierungen diese Technologie auf der Grundlage akzeptabler Risikoniveaus nutzen können. US-Präsident Joe Biden hat unterdessen Executive Orders dazu genutztVergabe von Fördermitteln für die Entwicklung ethischer und gerechter KI-Technologie, aber der Kongress hat kein Gesetz verabschiedet, das die Privatsphäre von US-Bürgern schützt, wenn es um KI-Plattformen geht. Der Senat hat Anhörungen abgehalten, um mehr über die Technologie zu erfahren, aber es ist ihm nicht gelungen, einen Bundesgesetzentwurf auszuarbeiten.
Während die Regierung arbeitet, können – und sollten – Sie sich für eine Datenschutzregulierung einsetzen, die KI-Plattformen einschließt und Benutzer vor dem Missbrauch ihrer Daten schützt. Führen Sie sinnvolle Gespräche mit Ihren Mitmenschen über die Entwicklung der KI, stellen Sie sicher, dass Sie wissen, wo Ihre Vertreter in Bezug auf die Datenschutzbestimmungen des Bundes stehen, und stimmen Sie für diejenigen, denen Ihr Wohl am Herzen liegt.
Lesen Sie weitere PopSci+-Geschichten.
