Rozmawiając z robotem. Wirtualni asystenci a dane osobowe
Zaplanują dzień, pomogą zrobić zakupy, sprawdzą pogodę i zarezerwują wycieczkę. To wirtualni asystenci – Siri, Alexa, asystent Google – coraz bardziej biegli w obsłudze naszej codzienności. Inteligentne aplikacje karmią się jednak gigabajtami danych, które udostępniamy w sieci. Jak polskie prawo reguluje kwestie zbierania danych przez wirtualnych asystentów? Kto ponosi odpowiedzialność za ich wirtualne błędy, które mają realne i czasem dotkliwe skutki? – wyjaśnia prawnik dr Michał Rudy
Redakcja Uniwersytetu SWPS: Czy polskie prawo reguluje kwestie zbierania danych przez wirtualnych asystentów, takich jak np. Siri, Aleksa czy asystent Google, który od niedawna przemawia polskim głosem?
dr Michał Rudy: Kwestie zbierania danych osobowych regulują przepisy RODO, wprowadzone w 2018 roku, a zatem trudno ocenić jeszcze ich adekwatność i użyteczność do zmieniających się warunków na rynku usług, w tym tych oferowanych w rzeczywistości wirtualnej (VR). Tak naprawdę klienci Google czy Apple przekazują dane osobowe różnym podmiotom, od samego producenta, przez operatorów aż po sieci reklamowe.
I często są to dane wrażliwe. W sieci ujawniamy swoje poglądy polityczne, informacje dotyczące wyznania, zdrowia, seksualności, nałogów. Wszystko.
Właśnie. Dane przekazywane wirtualnym asystentom raczej nie różnią się o tych, które i tak rozdajemy ochoczo na lewo i prawo, na przykład jako użytkownicy Facebooka. Oczywiście kwestia coraz to bardziej rozbudowanych, aplikacje wykazujących coraz większy głód danych, które są im potrzebne niby do niezawodnego działania i lepszego służenia użytkownikom, może budzić niepokój.
Dlaczego?
Przede wszystkim proszę pamiętać, że mówimy o asystencie, a zatem „o czymś” (nie „o kimś”). Asystent – ma nam ułatwić codzienne funkcjonowanie. Już jednak pisarz Frank Herbert w powieści „Diuna” napisał: Technologia ma uwodzicielską naturę. Zakładamy, że postępy w tej dziedzinie prowadzą zawsze do korzystnych dla ludzi udogodnień. Oszukujemy sami siebie”. Wydaje się zatem, że głównie pod tym kątem musimy oceniać zagrożenia, które okazać się mogą mniejsze (mniej ważne) niż korzyści wynikające z użytkowania wirtualnego asystenta.
Ale to użytkownik nadal ustala reguły gry i rozporządza swoimi danymi. Czy może już nie?
To użytkownik de facto decyduje do jakich informacji ma dostęp aplikacja – lokalizacji, kalendarza, wiadomości tekstowych, historii połączeń, historii wyszukiwań, galerii zdjęć, synchronizowanych haseł czy innych. Możliwości konfiguracji danych wydają się zatem nieograniczone i chyba w tym upatrywałbym największego zagrożenia.
Ważne, żeby zdawać sobie sprawę, że jeżeli polecimy asystentowi włączyć nawigację do miejsca pracy, to musi on również posiąść informację o naszym aktualnym położeniu (lokalizacji). Ponadto jeżeli „zwiążemy” daną lokalizację z określeniem „praca”, to wówczas przekażemy dane dotyczące miejsca, w którym co do zasady spędzamy większość dnia, a takie informacje trafiają na serwer, do którego na pewno mają dostęp „jacyś” inni ludzie. Pytanie oczywiste, czy będą mogli i umieli wykorzystać dane na naszą niekorzyść, ale to już temat na osobną dyskusję.
Wirtualny asystent Google ma w zamierzeniu pomagać użytkownikom w codziennych czynnościach. Kto odpowiada za jego ewentualne pomyłki, np. błąd w aktualizacji kalendarza i w konsekwencji spóźnienie się na lot?
Technologia ma wspomagać użytkownika, nie można więc i nie powinno się na niej bezwzględnie polegać. Trudno zatem odpowiedzieć na pytanie, kto poniósłby odpowiedzialność za np. wysłanie maila do nieuprawnionego adresata, czy niewłaściwe wpisanie przypomnienia w kalendarzu. W niektórych przypadkach rzeczywiście będzie można rozważyć odpowiedzialność twórcy danego oprogramowania, np. oprogramowania aplikacji.
Pytanie zatem, czy nie możemy powiedzieć, że „winę” za błędne działanie wirtualnego asystenta ponosi sam użytkownik, ponieważ nie zweryfikował informacji, które program mu przekazał. W niektórych sytuacjach trudno byłoby nawet stwierdzić, czy błąd wyniknął z faktu niewłaściwego (nieprecyzyjnego, niezrozumiałego) wypowiedzenia zadania, czy z błędu w działaniu urządzenia, a to osoba żądająca ewentualnej „rekompensaty” musiałaby udowodnić „winę” urządzenia. Bardzo często tego typu aplikacje „zabezpieczają” się przed takimi sytuacjami m.in. poprzez wprowadzenie opcji pola z podsumowaniem, tudzież przycisku akceptacji czynności.
Źródło: