Jste více než datový bod. Možnost Opt Out je zde, aby vám pomohla získat zpět vaše soukromí.
NEJNOVĚJŠÍ VLNAvývoj umělé inteligence donutil mnohé z nás přehodnotit klíčové aspekty našeho života. Například digitální umělci se nyní musí zaměřit na ochranu své práce před weby generujícími obrázky a učitelé se musí potýkat s tím, že někteří jejich studenti potenciálně outsourcujípsaní eseje na ChatGPT.
Ale záplava umělé inteligence přichází také s důležitými riziky ochrany soukromí, kterým by každý měl rozumět – i když nemáte v plánu někdy zjistit, co si tato technologie myslí.vypadal bys jako námořník.
Nedostatek transparentnosti
"Často víme velmi málo o tom, kdo používá naše osobní údaje, jak a pro jaké účely," říkáJessica Brandtová, ředitel politiky pro Iniciativu umělé inteligence a rozvíjejících se technologiíBrookingsova instituce, nezisková organizace ve Washingtonu, D.C., která provádí výzkum, který využívá k řešení široké řady národních a globálních problémů.
Stručně řečeno, strojové učení – proces, kterým se systém AI stává přesnějším – vyžaduje hodně dat. Čím více dat má systém, tím je přesnější. Generativní platformy AI, jako jsou chatboti ChatGPT aBard společnosti Googlea generátor obrázků Dall-E získá některá ze svých tréninkových dat pomocí techniky zvané scraping: Zametají internetzískat užitečné veřejné informace.
Někdy však kvůli lidské chybě nebo nedbalosti mohou soukromá data, která nikdy neměla být veřejná, jako jsou choulostivé firemní dokumenty, obrázky nebo dokonce seznamy přihlášení,dostat se do dostupné části internetu, kde je může kdokoli najít pomocí vyhledávacích operátorů Google. A jakmile jsou tyto informace seškrábány a přidány do tréninkové datové sady AI, nikdo nemůže udělat mnoho pro to, aby je odstranil.
„Lidé by měli mít možnost svobodně sdílet fotografie, aniž by si mysleli, že to skončí tím, že to nakrmí generativní nástroj umělé inteligence, nebo, což je ještě horší – že jejich obrázek bude nakonec použit k vytvoření deepfake,“ říká.Ivana Bartolettiová, globální ředitel ochrany osobních údajů v indické technologické společnostiWiproa hostující člen kybernetické bezpečnosti a ochrany soukromí na Virginia Tech's Pamplin College of Business. "Odstranění osobních údajů přes internet podkopává kontrolu lidí nad jejich daty."
Data scraping je pouze jedním potenciálně problematickým zdrojem trénovacích dat pro systémy AI.Katharina Koernerová, vedoucí pracovník pro inženýrství ochrany soukromí v International Association of Privacy Professionals, říká, že dalším je druhotné použití osobních údajů. K tomu dochází, když se dobrovolně vzdáte některých svých informací za konkrétním účelem, ale nakonec budou sloužit jiným, se kterými jste nesouhlasili. Firmy již roky shromažďují informace o svých klientech, včetně e-mailových adres, dodacích údajů a toho, jaké druhy produktů se jim líbí, ale v minulosti s těmito údaji nemohli mnoho dělat. Složité algoritmy a platformy AI dnes poskytují snadný způsob, jak tyto informace zpracovat, aby se mohli dozvědět více o vzorcích chování lidí. Z toho můžete mít prospěch tím, že vám budeme zobrazovat pouze reklamy a informace, které by vás mohly skutečně zajímat, ale také to může omezit dostupnost produktů a zvýšit ceny v závislosti na vašem PSČ. Koerner říká, že pro firmy je lákavé to udělat, protože některé již sedí na velkých hromadách dat, které poskytli jejich vlastní klienti.
„AI usnadňuje extrahování cenných vzorů z dostupných dat, které mohou podpořit budoucí rozhodování, takže pro podniky je velmi lákavé používat osobní data pro strojové učení, když data nebyla shromážděna za tímto účelem,“ vysvětluje.
Nepomáhá ani to, že pro vývojáře je extrémně komplikované selektivně mazat vaše osobní údaje z velké sady tréninkových dat. Jistě, může být snadné odstranit konkrétní údaje, jako je vaše datum narození nebo číslo sociálního pojištění (neposkytujte prosím osobní údaje generativní platformě AI). Ale provedení žádosti o úplné vymazání v souladu s evropským obecným nařízením o ochraně osobních údajů je například úplně jiná bestie a možná nejsložitější výzva k řešení, říká Bartoletti.
[Související: Jak zabránit školním zařízením ve sdílení dat vaší rodiny]
Selektivní mazání obsahu je obtížné i v tradičních IT systémech díky jejich spletitostimikroservisní struktury, kde každá část funguje jako samostatná jednotka. Ale Koerner říká, že je to v kontextu umělé inteligence ještě těžší, ne-li v současnosti nemožné.
To proto, že nejde jen o to stisknout „ctrl + F“ a smazat všechna data s něčím jménem – odstranění dat jedné osoby by vyžadovalo nákladný postup přeškolení celého modelu od nuly, vysvětluje.
Odhlásit se bude stále těžší
Dobře vyživovaný systém umělé inteligence může poskytnout neuvěřitelné množství analýz, včetně rozpoznávání vzorů, které jeho uživatelům pomáhá pochopit chování lidí. Ale to není způsobeno pouze technickými schopnostmi – je to také proto, že lidé mají tendenci se chovat předvídatelným způsobem. Tento konkrétní aspekt lidské povahy umožňuje systémům umělé inteligence fungovat dobře, aniž by o vás věděly hodně. Protože jaký má smysl vás znát, když vám postačí znát lidi, jako jste vy?
„Jsme v bodě, kdy stačí jen minimum informací – stačí tři až pět relevantních dat o člověku, které je docela snadné získat – a ty jsou okamžitě vtaženy do prediktivního systému,“ říká Brenda Leong, partnerka společnostiBNH.AI, právnická firma ve Washingtonu, D.C., která se zaměřuje na audity a rizika AI. Stručně řečeno: V dnešní době je těžší, možná nemožné, zůstat mimo systém.
To nám ponechává malou svobodu, protože i lidé, kteří se roky snažili chránit své soukromí, budou mít modely umělé inteligence, aby za ně rozhodovaly a doporučovaly. To by v nich mohlo vyvolat pocit, že všechna jejich snaha byla k ničemu.
„I když je to pro mě užitečné, jako je nabídka půjček na správné úrovni pro můj příjem nebo příležitosti, o které bych měl opravdový zájem, dělá mi to, aniž bych to skutečně mohl jakkoli ovládat,“ pokračuje Leong.
Používání velkých dat k zaškatulkování celých skupin lidí také neponechává prostor pro nuance – pro odlehlé hodnoty a výjimky – kterých je, jak všichni víme, život plný. Ďábel se skrývá v detailech, ale také v aplikaci zobecněných závěrů na zvláštní okolnosti, kdy se věci mohou velmi pokazit.
Další čtení:iPhone/iPad uvízl na domácích kritických upozorněních? 9 nejnovějších oprav!
Ozbrojení dat
Další zásadní výzvou je, jak vštípit spravedlivost při rozhodování o algoritmech – zvláště když závěry modelu AI mohou být založeny na chybných, zastaralých nebo neúplných datech. V tuto chvíli je dobře známo, že systémy AI umíudržovat předsudky svých lidských tvůrců, někdys hroznými následkypro celou komunitu.
Jak stále více společností spoléhá na algoritmypomoci jim obsadit pozicenebo určit arizikový profil řidiče, je pravděpodobnější, že naše vlastní údaje budou použity proti našim vlastním zájmům. Jednoho dne vám mohou ublížit automatizovaná rozhodnutí, doporučení nebo předpovědi, které tyto systémy dělají, s velmi malou možností nápravy.
[Související: Autonomní zbraně mohou ve válce dělat vážné chyby]
Je to také problém, když se tyto předpovědi nebo štítky stanou fakty v očích algoritmu, který nedokáže rozlišit mezi pravdou a nepravdou. Pro moderní AI jsou to všechna data, ať už osobní, veřejná, faktická nebo zcela vymyšlená.
Více integrace znamená méně zabezpečení
Stejně jako je vaše přítomnost na internetu stejně silná jako vaše nejslabší heslo, integrace velkých nástrojů umělé inteligence s jinými platformami poskytuje útočníkům více zábran, o které se mohou pokusit získat přístup k soukromým datům. Nebuďte překvapeni, pokud některé z nich nesplňují bezpečnostní standardy.
A to ani nevezmeme v úvahu všechny společnosti avládní agenturysklízení vašich dat bez vašeho vědomí. Přemýšlejte obezpečnostní kamery ve vašem okolí,software pro rozpoznávání obličeje, který vás sleduje v místě konání koncertu, děti pobíhající po vašem místním parku s GoPros, a dokonce i lidé, kteří se snaží být virální na TikTok.
Čím více lidí a platforem nakládá s vašimi daty, tím je pravděpodobnější, že se něco pokazí. Větší prostor pro chyby znamená vyšší šanci, že se vaše informace rozlijí po celém internetu, kde by mohly být snadno seškrábnuty do trénovací datové sady modelu AI. A jak je uvedeno výše, je strašně těžké to vrátit zpět.
Co můžeš dělat
Špatnou zprávou je, že s tím teď nemůžete moc dělat – ani s možnými bezpečnostními hrozbami pocházejícími z datových sad pro školení AI obsahujících vaše informace, ani s prediktivními systémy, které vám mohou bránit v získání vysněné práce. Naším nejlepším řešením je v tuto chvíli vyžadovat regulaci.
Evropská unie již postupuje vpřed tím, že schválila první návrh zákona o umělé inteligenci, který bude regulovat, jak mohou společnosti a vlády používat tuto technologii na základě přijatelné úrovně rizika. Americký prezident Joe Biden k tomu mezitím použil exekutivní příkazyudělit finanční prostředky na vývoj etické a spravedlivé technologie umělé inteligenceKongres však nepřijal žádný zákon, který by chránil soukromí občanů USA, pokud jde o platformy umělé inteligence. Senát pořádal slyšení, aby se dozvěděl o této technologii, ale nepřiblížil se k sestavení federálního zákona.
Jak vláda pracuje, můžete – a měli byste – prosazovat regulaci ochrany osobních údajů, která zahrnuje platformy AI a chrání uživatele před nesprávným zacházením s jejich daty. Vedete smysluplné rozhovory se svým okolím o vývoji umělé inteligence, ujistěte se, že víte, jak si stojí vaši zástupci, pokud jde o federální nařízení o ochraně soukromí, a hlasujte pro ty, kterým leží na srdci vaše nejlepší zájmy.
Přečtěte si další příběhy PopSci+.
