3 Zagrożenia i obawy związane z prywatnością Chatbota, o których powinieneś wiedzieć
Chatboty istnieją od lat, ale rozwój dużych modeli językowych, takich jak ChatGPT i Google Bard, dał branży chatbotów nowe życie.
Miliony osób na całym świecie korzystają z chatbotów opartych na sztucznej inteligencji; jednak podczas eksploracji takich technologii należy wziąć pod uwagę potencjalne zagrożenia dla prywatności.
Gromadzenie danych
Chatboty znacznie ewoluowały od swoich wczesnych wcieleń jako podstawowi wirtualni asystenci, którzy mogli po prostu witać użytkowników. Współczesne chatboty są w stanie obsługiwać skomplikowane zapytania i spełniać szereg wymagań, często wymagających dużego wkładu ze strony użytkowników. Pomimo tego, że zapytanie jest proste, osoby zazwyczaj wolą, aby pozostało ono w granicach ich interakcji.
Zgodnie z sekcją wsparcia OpenAI , możesz usunąć logi czatu ChatGPT, kiedy tylko chcesz, a logi te zostaną trwale usunięte z systemów OpenAI po 30 dniach. Jednak firma zachowa i przejrzy niektóre dzienniki czatu, jeśli zostały oznaczone jako szkodliwe lub nieodpowiednie treści.
Inny popularny chatbot AI, Claude, również śledzi poprzednie rozmowy użytkownika. Centrum wsparcia Anthropic stwierdza, że Claude śledzi “twoje podpowiedzi i dane wyjściowe w produkcie, aby zapewnić ci spójne doświadczenie produktu w czasie zgodnie z twoimi kontrolami”. Możesz usunąć swoje rozmowy z Claude, aby zapomniał, o czym rozmawiałeś, ale nie oznacza to, że Anthropic natychmiast usunie twoje logi ze swoich systemów.
Można się zastanawiać, czy dane osobowe są przechowywane, czy nie. Ponadto rodzi to pytania dotyczące wykorzystania takich danych przez podmioty takie jak ChatGPT i inne systemy konwersacyjnej sztucznej inteligencji.
Ale obawy nie kończą się tutaj.
Jak uczy się ChatGPT?
W celu dostarczenia informacji, duże modele językowe są szkolone przy użyciu ogromnych ilości danych. Według Science Focus sam ChatGPT-4 został zasilony 300 miliardami słów informacji podczas okresu szkolenia. Dane te nie pochodzą bezpośrednio z kilku encyklopedii. Twórcy chatbotów wykorzystują raczej masę informacji z Internetu do trenowania swoich modeli. Mogą to być dane z książek, filmów, artykułów, wpisów w Wikipedii, postów na blogach, komentarzy, a nawet stron z recenzjami.
Biorąc pod uwagę, że niektórzy twórcy chatbotów mogą mieć różne polityki prywatności, możliwe jest, że niektóre z wcześniej wymienionych źródeł danych mogą nie zostać wykorzystane podczas procesu szkolenia.
ChatGPT jest przedmiotem powszechnej krytyki za postrzegany brak odpowiednich środków w celu ochrony prywatności użytkowników. Ten sentyment sugeruje, że użytkownicy są zaniepokojeni potencjalnym nadużyciem lub ujawnieniem ich osobistych informacji przez ChatGPT. W związku z tym wiele osób postrzega ChatGPT jako podmiot niegodny zaufania w odniesieniu do ochrony wrażliwych danych. Przyczyny tych obaw mogą wynikać z różnych czynników, takich jak niewystarczające protokoły szyfrowania, luźne praktyki obsługi danych i niewystarczająca przejrzystość w zakresie gromadzenia danych i polityki użytkowania.
Oświadczenie ChatGPT-3.5 dotyczące braku bezpośredniej ekspozycji na komentarze użytkowników i recenzje produktów podczas procesu szkoleniowego wydaje się jednoznaczne. Jednak po dalszej analizie wydaje się, że istnieją pewne niejasności co do zakresu tego stwierdzenia. Zapytany konkretnie o takie źródła danych, ChatGPT-3.5 stanowczo zaprzecza; jednak pośrednie aluzje w odpowiedziach modelu mogą sugerować inaczej.
Zamiast tego został on wykształcony przy użyciu zróżnicowanego asortymentu tekstu pobranego z Internetu, obejmującego strony internetowe, publikacje, eseje i różne inne źródła pisane, które były publicznie dostępne we wrześniu 2021 r.
W świetle tego można się zastanawiać, czy podobny wzorzec dotyczy GPT-4.
Podczas naszego zapytania do GPT-4, system potwierdził, że OpenAI nie wykorzystywał krytyki konkretnych użytkowników, prywatnych informacji ani komentarzy w kontekście fazy szkolenia chatbota. Co więcej, GPT-4 poinformował nas, że jego wyniki pochodzą z wzorców znalezionych w zbiorze danych, na którym został wykształcony, który obejmuje głównie dzieła literackie, publikacje i teksty online.
GPT-4 przyznał, że niektóre treści z mediów społecznościowych mogą być włączone do jego szkoleniowego zbioru danych; podkreśla jednak, że osoby odpowiedzialne za tworzenie takich treści pozostaną niezidentyfikowane. W związku z tym GPT-4 jednoznacznie twierdzi, że nie jest w stanie uzyskać dostępu do konkretnych komentarzy, zgłoszeń ani żadnych informacji, które mogłyby potencjalnie prowadzić do identyfikacji konkretnego użytkownika.
Innym istotnym aspektem odpowiedzi GPT-4 jest to, że OpenAI nie ujawniła wszystkich konkretnych źródeł danych wykorzystywanych w procesie szkoleniowym. Chociaż wyliczenie wszystkich źródeł o wartości 300 miliardów słów może być wyzwaniem dla organizacji, ten brak przejrzystości pozostawia jednak miejsce na domysły i niepewność co do charakteru i zakresu tych źródeł.
W artykule Ars Technica stwierdzono, że ChatGPT gromadzi “dane osobowe uzyskane bez zgody”. W tym samym artykule wspomniano o integralności kontekstowej, koncepcji, która odnosi się do wykorzystywania czyichś informacji tylko w kontekście, w którym zostały pierwotnie użyte. Jeśli ChatGPT naruszy tę integralność kontekstową, dane osób mogą być zagrożone.
Kolejna kwestia, która wymaga uwagi, dotyczy przestrzegania przez OpenAI ogólnego rozporządzenia o ochronie danych (RODO), które jest ramą narzuconą przez UE, mającą na celu ochronę danych osobowych osób fizycznych. W szczególności władze włoskie i polskie wszczęły dochodzenia dotyczące dostosowania organizacji do tego środka regulacyjnego. Dodatkowo, przez krótki okres, ChatGPT stanął w obliczu zakazu we Włoszech z powodu obaw o prywatność.
Według doniesień, OpenAI wcześniej rozważało wycofanie się z Unii Europejskiej w wyniku proponowanych środków regulacyjnych dotyczących sztucznej inteligencji, chociaż stanowisko to zostało następnie wycofane.
Chociaż ChatGPT jest obecnie jednym z największych dostępnych chatbotów opartych na sztucznej inteligencji, ważne jest, aby zdać sobie sprawę, że obawy dotyczące prywatności chatbotów wykraczają poza tę konkretną platformę. W rzeczywistości, jeśli dana osoba korzysta z wątpliwego chatbota z niejednoznaczną polityką prywatności, istnieje wyraźna możliwość, że jej rozmowy mogą zostać niewłaściwie wykorzystane lub, co bardziej niepokojące, poufne informacje mogą zostać włączone do danych szkoleniowych chatbota.
Kradzież danych
Podobnie jak inne zasoby lub platformy cyfrowe, chatboty mogą być podatne na cyberprzestępstwa. Niezależnie od solidnych środków bezpieczeństwa wdrożonych przez chatbota w celu ochrony prywatności i informacji użytkowników, istnieje nieodłączne ryzyko, że wykwalifikowani hakerzy złamią zabezpieczenia systemu.
W przypadku, gdy agent konwersacyjny przechowuje poufne informacje dotyczące subskrypcji premium danej osoby, takie jak dane karty kredytowej lub kontakty osobiste, istnieje potencjalne ryzyko ich naruszenia w przypadku udanego włamania cybernetycznego.
Rzeczywiście, korzystanie z niespełniającego norm chatbota, który nie został wyposażony w solidne środki bezpieczeństwa, może skutkować zarówno naruszeniem infrastruktury informacyjnej organizacji, jak i potencjalnym zagrożeniem konta osobistego z powodu braku powiadomień o logowaniu lub protokołów weryfikacji.
Rozprzestrzenianie się chatbotów AI przyciągnęło niestety uwagę cyberprzestępców, którzy wykorzystali tę rozwijającą się branżę jako okazję do popełnienia oszustw.Rozpowszechnienie fałszywych stron internetowych i wtyczek ChatGPT jest godnym uwagi przykładem takiej złośliwej działalności, która stała się szczególnie rozpowszechniona od czasu wydania chatbota OpenAI pod koniec 2022 roku. W rezultacie niczego niepodejrzewające osoby padły ofiarą tych oszustw, narażając na szwank swoje dane osobowe pod fałszywym pretekstem interakcji z prawdziwym i niezawodnym chatbotem.
W marcu 2023 r. serwis All Things N ujawnił, że w obiegu znajdowało się fałszywe rozszerzenie ChatGPT do przeglądarki Chrome, które rzekomo miało usprawniać interakcje z Facebookiem. Niestety, okazało się, że to konkretne rozszerzenie nielegalnie uzyskiwało dane logowania, wykorzystując lukę w infrastrukturze bezpieczeństwa platformy. Co więcej, odkryto, że ta instancja jest tylko jedną z wielu innych zwodniczych usług ChatGPT mających na celu oszukanie niczego niepodejrzewających użytkowników.
Infekcja złośliwym oprogramowaniem
Nieświadome korzystanie z pozbawionego skrupułów chatbota może skutkować udostępnianiem linków do podejrzanych stron internetowych. Chatbot może kusić użytkownika perspektywą atrakcyjnego prezentu lub uzasadniać swoje roszczenia za pośrednictwem takich źródeł. W przypadkach, gdy operatorzy platformy kierują się ukrytymi motywami, ich głównym celem może być rozpowszechnianie złośliwego oprogramowania i oszustw za pomocą szkodliwych hiperłączy.
Alternatywnie, cyberprzestępcy mogą wykorzystywać luki w legalnych usługach chatbotów, które następnie wykorzystują jako kanały dystrybucji złośliwego oprogramowania. W takich przypadkach, gdy chatboty te cieszą się znaczną popularnością wśród użytkowników, ogromna liczba osób może paść ofiarą złośliwego oprogramowania. Warto zauważyć, że fałszywe wersje ChatGPT pojawiły się również w cenionym sklepie Apple App Store, podkreślając tym samym znaczenie zachowania ostrożności podczas pobierania i korzystania z aplikacji.
Zaleca się zachowanie ostrożności podczas interakcji z chatbotami, najpierw przepuszczając wszelkie podane linki przez renomowaną usługę sprawdzania linków przed kliknięciem na nie. Chociaż ten środek ostrożności może wydawać się żmudny, służy on jako podstawowe zabezpieczenie przed potencjalnie niebezpiecznymi stronami internetowymi.
Rzeczywiście, przed zainstalowaniem jakiejkolwiek wtyczki lub rozszerzenia chatbota konieczne jest zweryfikowanie jego autentyczności. Przeprowadzenie pewnych badań nad aplikacją w celu ustalenia, czy otrzymała ona pozytywne recenzje, a także wyszukanie informacji o deweloperze, może pomóc w zidentyfikowaniu potencjalnych czerwonych flag.
Chatboty nie są odporne na kwestie związane z prywatnością
W rzeczywistości, podobnie jak w przypadku wielu współczesnych zasobów cyfrowych, chatboty są często poddawane kontroli pod kątem potencjalnych luk w zakresie ochrony danych i prywatności.Obejmuje to obawy dotyczące możliwości wystąpienia niedociągnięć w zakresie ochrony dobrego samopoczucia użytkowników, a także powszechnych zagrożeń stwarzanych przez cyberzagrożenia i nieuczciwe działania. W związku z tym ważne jest, aby użytkownicy byli świadomi informacji gromadzonych przez wybraną przez nich platformę chatbotową i sprawdzali, czy wdrożono odpowiednie środki bezpieczeństwa w celu złagodzenia tych zagrożeń.