Google zaktualizował jeden z zapisów w swoim dokumencie dotyczącym polityki prywatności. Zmiany nie wydają się duże, ale wystarczy moment, żeby każdemu użytkownikowi usług amerykańskiego molocha zapaliła się lampka ostrzegawcza. Wygląda na to, że korporacja zamierza wykorzystać upublicznione w usługach dane do trenowania swoich modeli sztucznej inteligencji.

Chyba nie trzeba nikogo przekonywać, jak potężną liczbą danych swoich użytkowników dysponuje Google: lokalizacja, dźwięk (dzięki Asystencie Google), frazy wpisywane w wyszukiwarkę oraz wiele innych. Biorąc pod uwagę, ze nie każdemu chce się przeklikać przez listę funkcji, usług i ustawień prywatności, żeby możliwie jak największą liczbę niepotrzebnych funkcji wyłączyć lub ograniczyć ich możliwości, zasoby w postaci danych są przeogromne, a nie każdy użytkownik zdaje sobie sprawę z tego, co udostępnia i w jaki sposób może to zostać wykorzystane. Żeby nie było – to akurat nie jest winą Google…

Pozornie zmiana nie jest duża. Jedne słówka zamieniono, inne usunięto, a jeszcze inne dodano. Co konkretnie? Warto porównać sobie zapis obowiązujący od 15 grudnia 2022 roku z tym, który wszedł w życie 1 lipca tego roku.

Polityka prywatności Google obowiązująca od 1 lipca 2023 roku
Polityka prywatności obowiązująca od 15 grudnia 2022 do 30 czerwca 2023 roku.

Okazuje się, że wcześniej publiczne informacje mogły być wykorzystywane do trenowania modeli językowych Google, co miało pomóc w ulepszaniu chociażby Tłumacza Google. Nowy zapis zaś deklaruje, że firma ma zamiar wykorzystywać gromadzone i dostępne publicznie dane już nie tyle do trenowania „modeli językowych”, a „ulepszania modeli sztucznej inteligencji takich jak Tłumacz Google, Bard czy rozwiązania sztucznej inteligencji dostarczanej przez Google Cloud”. Różnica jest więc znacząca.

W ten sposób spełniła się jedna z obaw zwolenników wolniejszego rozwoju SI, który powinien podlegać jakimś ograniczeniom. Chodziło właśnie o dostęp do publicznych informacji publikowanych w Internecie, które modele SI po prostu sobie wykorzystują przy generowaniu treści. Do tego dochodzi problem związany z czerpaniem potencjalnych korzyści z generatywnego wykorzystania takich danych. Dużo mówi się także o kwestii praw autorskich. Wydaje się zatem, że dalsze regulacje w pracach na rozwojem modeli sztucznej inteligencji powinny się pojawiać, żeby nie dochodził do sytuacji z jaką chociażby mierzy się obecnie OpenAI, odpowiedzialna na stworzenie ChatGPT. Przeciwko firmie wystosowano pozew zbiorowy przeciwko wykorzystaniu bez zgody użytkowników treści nie tylko dostępnych publicznie, ale też prywatnych danych, co może znacząco wpływać na bezpieczeństwo. Niewykluczone, że podobne pozwy będą pojawiać się kancelariach innych firm tworzących swoje własne modele SI. W tym Google.

 

Źródło: google, engadget, techspot