Wśród badaczy sztucznej inteligencji coraz częściej mówi się o koncepcji AI for Social Impact, czyli użyciu sztucznej inteligencji do rozwiązywania istotnych wyzwań w wymiarze społecznym. Zagadnienie to było głównym tematem spotkania w siedzibie IDEAS NCBR z udziałem naukowców z tego ośrodka i ekspertek z Fundacji Panoptykon oraz NASK.

10 maja b.r. ośrodek badawczo-rozwojowy w obszarze sztucznej inteligencji IDEAS NCBR zaprosił dziennikarzy i liderów opinii zainteresowanych rozwojem AI na dyskusję i spotkanie przy kawie Przyjazna strona AI. Dlaczego sztuczna inteligencja powinna rozwijać się w sposób zrównoważony.

Meritum spotkania był panel z udziałem naukowców – dr hab. Piotra Sankowskiego, prof. UW, prezesa IDEAS NCBR i dr hab. inż. Tomasza Trzcińskiego, prof. PW, lidera grupy badawczej – oraz ekspertek – Katarzyny Szymielewicz z Fundacji Panoptykon i dr Inez Okulskiej z NASK.

Dyskusja miała miejsce niemal pół roku od wybuchu ogromnego zainteresowania tematem sztucznej inteligencji. Debatę medialną nad tą technologią zdominowały rozrywkowe i biznesowe konteksty, które zestawia się z potencjalnymi zagrożeniami, jakie może nieść za sobą jej niezrównoważony rozwój.

Tymczasem w środowiskach naukowych coraz częściej słyszymy o zastosowaniach AI, które mogą korzystnie wpłynąć na społeczne wyzwania.

 

Odpowiedzialne zarządzanie zasobami

Już teraz część badaczy zwraca uwagę na konieczność tworzenia bardziej “zielonych” algorytmów poprzez realizację tzw. “recyklingu” zasobów wykorzystanych w uczeniu maszynowym. Co istotne, ponowne ich wykorzystanie może też korzystanie wpływać na wydajność algorytmów. Badania w tym zakresie prowadzi grupa badawcza Zero-waste machine learning in computer vision w IDEAS NCBR. Badania w obszarze zrównoważonego rozwoju AI, są niezwykle istotne dla widzenia maszynowego, ponieważ np. w branży medycznej, gdzie algorytmy wspierają personel medyczny w trakcie operacji z użyciem robotów, wydajność obliczeniowa algorytmów przekłada się bezpośrednio na czas reakcji w trakcie zabiegu. To z kolei korzystnie wpływa np. na zmniejszone ryzyko powikłań.

Naukowcy próbują wykorzystać AI w medycynie na wielu płaszczyznach: np. do rozpoznawania niebezpiecznych zmian skórnych, do wirtualnego barwienia tkanek czy wybierania narządów do przeszczepu. Takie działania mogą nie tylko przyspieszyć pracę lekarzy i personelu medycznego, ale także zmniejszyć koszty związane z leczeniem.

Istnieją również mniej oczywiste korzyści, jakie AI może przynieść w wymiarze społecznym. Chodzi o pozytywny wpływ na rozwiązania w rolnictwie (zbieranie i analiza precyzyjnych danych dotyczących upraw) czy leśnictwie precyzyjnym (rozwijanie metod umożliwiających precyzyjny pomiar pojedynczych drzew).

 

Aspekty społeczne kluczowe?

– Budując rozwiązania z obszaru AI – nawet te, które nie są bezpośrednio związane z pozytywnym wpływem – należy zawsze brać pod uwagę aspekty społeczne towarzyszące rozwojowi AI. Nie można ich pomijać i skupiać się wyłącznie na zwiększaniu przychodów, ponieważ może to doprowadzić do bardzo niepożądanych sytuacji, np. wzmacniania uprzedzeń i nierówności, zamiast ich zwalczania – mówi Piotr Sankowski, prezes IDEAS NCBR.

W Stanach Zjednoczonych używa się algorytmów do planowania patroli policyjnych. Są one zdolne do wskazywania konkretnych obszarów, na których z dużym prawdopodobieństwem dojdzie do przestępstwa, np. w trakcie trwania dużych wydarzeń sportowych. Wskazówki są generowane na podstawie powiązań między miejscem, wydarzeniami i wskaźnikami przestępczości. Inne narzędzia wykorzystują osobiste dane, by przed wydaniem wyroku określić, czy oskarżony/a będzie skłonny/a do popełnienia kolejnego przestępstwa. Problem tkwi w danych, jakie dostarcza się algorytmowi, co często w bardzo prosty sposób prowadzi do zniekształceń. Jak wynika z artykułu MIT Technology Review, osoba czarnoskóra jest narażona na zatrzymanie bez uzasadnionej przyczyny pięć razy bardziej niż biała. Źle budowane algorytmy wzmacniają tylko uprzedzenia i mogą prowadzić do niepokojów społecznych.

– Ważne jest to, by użytkownicy mieli wgląd w to, jaka ścieżka wnioskowania doprowadziła algorytm do konkretnego wyniku. To pozwoliłoby nie tylko zmniejszyć obawy ludzi dotyczące sztucznej inteligencji, ale także zminimalizować błędy i idące za nimi uprzedzenia. Dlatego nie mam wątpliwości, że konieczne jest powstawanie narzędzi z zakresu Explainable AI, które “tłumaczyłyby” decyzje algorytmów i pozwalałyby usuwać błędy w nich zawarte – dodaje Piotr Sankowski, który prowadzi badania w tym zakresie.

– Można to robić na kilku poziomach: budować modele oparte na architekturach z góry zaprojektowanych tak, by były możliwie objaśnialne, lub post-factum wyjaśniać decyzję modeli, i to bardziej statystycznie lub bardziej empirycznie, w zależności od stopnia złożoności lub dostępu do samego modelu. Tak zwane czarne skrzynki można między innymi do pewnego stopnia „otwierać” behawioralnie, i to się tyczy między innymi wielkich modeli językowych. Polega to na projektowaniu testów, na przykład w przypadku chatu, składających się z sekwencji i wariantów konkretnych zapytań (tzw. prompt) i wieloaspektowym badaniu odpowiedzi modelu. Odpowiedzialna, godna zaufania sztuczna inteligencja (responsible, trust-worthy AI) to najważniejszy obecnie kierunek, który musi ramię w ramię iść z rozwojem samych algorytmów. Pilnować, żeby koncentracja na spektakularnych wynikach nie przysłoniła całego horyzontu. Dogłębna analiza i zrozumienie danych używanych do uczenia modeli, wyjaśnianie decyzji, badanie możliwych przekrzywień (biases) i odporności proponowanych rozwiązań jest również ważne, co kolejne procenty w rankingach rezultatów – podkreśla dr Inez Okulska, kierowniczka Zakładu Inżynierii Lingwistycznej i Analizy Tekstu w NASK.

– Rynek rozwiązań opartych na AI już pokazał, że nie ureguluje się sam. Błędy i skrzywienia w działaniu nienadzorowanych algorytmów, trenowanie modeli na niekompletnych zbiorach danych, często z naruszeniem zasad ochrony danych osobowych – to wszystko dobrze rozpoznane problemy. Żeby nie dopuścić do ich eskalacji, Unia Europejska pracuje właśnie nad kompleksową regulacją sektora AI. W miejsce rozmytych deklaracji etycznego podejścia do technologii, które tak chętnie serwują nam dziś firmy technologiczne, pojawią się konkretne obowiązki prawne, w tym obowiązek oceniania wpływu danego systemu na prawa człowieka zanim zostanie on wprowadzony na rynek – wyjaśnia Katarzyna Szymielewicz, prawniczka i współzałożycielka Fundacji Panoptykon, która aktywnie angażuje się w prace nad Aktem o sztucznej inteligencji.

 

Zielone AI

AI może być używana również do wspierania transformacji energetycznej i zwiększania efektywności energetycznej (inteligentne sieci energetyczne).

– Efektywność energetyczną można podwyższać już na poziomie budowania algorytmów. W tym celu możemy energooszczędnie uczyć i stosować modele machine learning. Szczególne, że stają się one coraz bardziej powszechne i wymagające coraz większej mocy obliczeniowej – komentuje Tomasz Trzciński, lider grupy badawczej zajmującej się tym zagadnieniem w IDEAS NCBR.

– W naszej grupie badawczej nie ograniczamy modeli uczenia maszynowego, ale próbujemy zwiększać ich efektywność. W tym celu wykorzystujemy informacje, obliczenia i zasoby, do których mamy już dostęp. Można nazwać to recyklingiem obliczeń. W projekcie skupiamy się na tworzeniu modeli uczących się być wydajnymi, a nie tylko zdolnymi do rozwiązania konkretnego zadania – dodaje ekspert.

Kwestia ograniczania energochłonności jest niezwykle istotna, ponieważ wytrenowanie jednego modelu AI może przyczynić się do emisji dwutlenku węgla równej całemu cyklowi życia pięciu samochodów.

 

AI for Social Impact już w głównym nurcie?

Choć koncepcja AI for Social Impact nie jest nowa, to w ostatnim czasie – wraz z coraz szerszą dyskusją na temat sztucznej inteligencji – wiele osób zaczęło przykładać do niej większą wagę. Podczas tegorocznej edycji prestiżowej konferencji AAAI (Association for the Advancement of Artificial Intelligence), która odbyła się w Waszyngtonie, badacze zwracali szczególną uwagę na zastosowania społeczne sztucznej inteligencji. Ponadto, tej tematyce poświęcono specjalną część wydarzenia, a już w sierpniu AAAI zorganizuje konferencję specjalną:Artificial Intelligence, Ethics and Society.

– W ramach największych konferencji z zakresu Machine Learning, od jakiegoś czasu w formularzach zgłoszeniowych pojawia się obowiązkowa sekcja “social impact”, w której musimy jako autorzy opisać jaki wpływ na społeczeństwo mają nasze algorytmy – tłumaczy Tomasz Trzciński.

Nie bez znaczenia pozostają także wartości, którymi kieruje się wielu badaczy.

– Duży wpływ na popularność AI for social impact ma rosnący trend, który nazwałbym “antykorporacyjnym” – młodzi ludzie chcą tworzyć projekty przydatne społecznie, rozwiązujące realne problemy i mogące prowadzić do poprawy jakości życia – dodaje Piotr Sankowski, prezes IDEAS NCBR.

 

W dyskusji udział wzięli:

Katarzyna Szymielewicz – prawniczka specjalizująca się problematyce praw człowieka i nowych technologii. Współzałożycielka i prezeska Fundacji Panoptykon, a także wiceprzewodnicząca European Digital Rights w latach 2012-2020. Absolwentka Wydziału Prawa i Administracji UW oraz Development Studies w School of Oriental and African Studies. W przeszłości – prawniczka w międzynarodowej kancelarii Clifford Chance, członkini rad społecznych przy Ministrze ds. Cyfryzacji, stypendystka międzynarodowej sieci przedsiębiorców społecznych Ashoka. Publikowała m.in. w the Guardian, Polityce, Gazecie Wyborczej i Dzienniku Gazecie Prawnej. Laureatka wielu nagród, w tym nagrody Radia Tok.fm w 2013 r. Prowadzi podcast Panoptykon 4.0.

Inez Okulska – Kierownik Zakładu Inżynierii Lingwistycznej i Analizy Tekstu w Państwowym Instytucie Badawczym NASK. Po przejściu barwnej ścieżki humanistycznej (na którą składały się m.in. lingwistyka, komparatystyka literacka, kulturoznawstwo, filozofia), zakończonej doktoratem z translatoryki oraz podoktorskim stażem na Harvard University, ukończyła studia magisterskie na kierunku automatyka i robotyka na WEiTI, na Politechnice Warszawskiej. Naukowo interesuje się semantycznym i pragmalingwistycznym potencjałem gramatyki, eksploruje autorskie reprezentacji wektorowe tekstu i ich potencjał algebraiczny. Realizuje projekty związane z cyberbezpieczeństwem, przede wszystkim na poziomie detekcji i klasyfikacji niepożądanych treści.

Piotr Sankowski pełni funkcję prezesa IDEAS NCBR. Jest profesorem w Instytucie Informatyki na Uniwersytecie Warszawskim, gdzie w roku 2009 otrzymał habilitację, a w 2005 doktorat z informatyki. Jego zainteresowania badawcze dotyczą algorytmiki, ze szczególnym uwzględnieniem algorytmicznej analizy grafów i algorytmów analizy danych. Piotr Sankowski otrzymał w 2009 roku doktorat z fizyki w dziedzinie teorii ciała stałego na Polskiej Akademii Nauk. Jest pierwszym Polakiem, który otrzymał 4 granty Europejskiej Rady ds. Badań Naukowych (European Research Council – ERC). W roku 2010 był to ERC Starting Independent Researcher Grant, w 2015 ERC Proof of Concept Grant, w 2017 ERC Consolidator Grant, a w roku 2023 kolejny ERC Proof of Concept Grant. Jest współzałożycielem i CSO spin-offu MIM Solutions.  

Tomasz Trzciński – prof. PW i UJ kieruje pracami zespołu zajmującego się widzeniem maszynowym CVLab. Jest również członkiem zespołu uczenia maszynowego GMUM na Uniwersytecie Jagiellońskim, a także liderem grupy badawczej zajmującej się widzeniem maszynowym w IDEAS NCBR. Stopień doktora habilitowanego uzyskał na Politechnice Warszawskiej w 2020 r., doktora w zakresie wizji maszynowej na École Polytechnique Fédérale de Lausanne w 2014 r., a podwójny dyplom magisterski na Universitat Politècnica de Catalunya oraz Politecnico di Torino. Odbył staże naukowe na Uniwersytecie Stanforda w 2017 r. oraz na Nanyang Technological University w 2019 r. Pełni funkcję Associate Editor w IEEE Access oraz MDPI Electronics, jest także recenzentem prac publikowanych w czasopismach TPAMI, IJCV, CVIU, TIP i TMM, oraz członkiem komitetów organizacyjnych konferencji, m.in. CVPR, ICCV i ICML. Pracował w Google w 2013 r., Qualcomm w 2012 r. oraz w Telefónice w 2010 r. Pełni funkcję Senior Member w IEEE, jest członkiem ELLIS Society oraz ALICE Collaboration w CERN, jest ekspertem Narodowego Centrum Nauki i Fundacji na rzecz Nauki Polskiej. Jest współwłaścicielem firmy Tooploox, gdzie jako Chief Scientist kieruje zespołem zajmującym się uczeniem maszynowym, a także współzałożycielem startupu technologicznego Comixify, wykorzystującego metody sztucznej inteligencji do edycji wideo.

 

źródło: informacja prasowa