Google zaktualizowało swoje zasady etyczne dotyczące sztucznej inteligencji (AI), usuwając wcześniejsze zobowiązania do niewykorzystywania AI w broni i narzędziach nadzoru. W 2018 roku firma zobowiązała się do unikania technologii mogących wyrządzać szkodę, w tym broni oraz systemów nadzoru naruszających międzynarodowe normy. Jednak w obliczu dynamicznego rozwoju AI i zmieniających się standardów globalnych, Google postanowiło zaktualizować swoje zasady.

 

Nowe podejście Google do AI

W nowym wpisie na blogu Demis Hassabis, CEO Google DeepMind, oraz James Manyika, starszy wiceprezes Google ds. technologii i społeczeństwa, podkreślili, że demokracje powinny przewodzić w rozwoju AI, kierując się wartościami takimi jak wolność, równość i poszanowanie praw człowieka. Firma zaznaczyła również, że będzie współpracować z rządami i organizacjami podzielającymi te wartości, aby tworzyć AI, która chroni ludzi, wspiera globalny rozwój i bezpieczeństwo narodowe.

 

Reakcje i kontrowersje

Ta zmiana wywołała obawy wśród niektórych pracowników Google, którzy krytykują brak ich zaangażowania w proces decyzyjny oraz potencjalne kompromisy etyczne. Wcześniej, w 2018 roku, Google angażowało się w projekty wojskowe, takie jak Project Maven, co wywołało wewnętrzne kontrowersje. Obecna aktualizacja zasad budzi pytania o przyszły kierunek rozwoju AI w firmie i podkreśla potrzebę współpracy z podmiotami podzielającymi demokratyczne wartości.

 

Źródło: Google, Wired