Sztuczna inteligencja coraz śmielej zagląda do gabinetów lekarskich – ale tym razem OpenAI próbuje zrobić to ostrożniej niż zwykle. Firma uruchomiła ChatGPT Health, specjalną przestrzeń w swoim chatbotcie przeznaczoną do pytań o zdrowie i zarządzania danymi medycznymi. I od razu zaznacza: to nie diagnostyka i nie lekarz, tylko narzędzie pomocnicze.
Osobna przestrzeń na zdrowie i nowe połączenia z aplikacjami
ChatGPT Health działa jako wydzielona sekcja w popularnym chatbotcie. Użytkownicy będą mogli podłączyć do niej m.in. swoje wyniki badań, dane z aplikacji fitness czy historię aktywności. OpenAI deklaruje współpracę z b.well, firmą, która zapewnia łączenie rekordów zdrowotnych z różnych źródeł.
Według zapowiedzi integracje obejmą m.in.:
• Apple Health,
• MyFitnessPal,
• Weight Watchers,
• dane z laboratoriów,
• a w przyszłości także innych partnerów.
Wszystkie materiały mają być przechowywane osobno i – jak podkreśla OpenAI – nie wykorzystane do trenowania modeli GPT.
AI ma pomagać, nie decydować
Najważniejsze zdanie z komunikatu firmy brzmi jak mantra:
„ChatGPT Health nie jest przeznaczony do diagnozy ani leczenia”.
W praktyce oznacza to rolę inteligentnego asystenta:
podpowiadanie pytań do lekarza, porządkowanie informacji, przypominanie, w które wyniki warto zerknąć – ale bez klinicznych decyzji.
To ważne odcięcie – szczególnie w czasie, gdy AI brzmi coraz pewniej, a wielu użytkowników już dziś korzysta z niej tak, jakby była lekarzem pierwszego kontaktu.
Ogromne zainteresowanie zdrowiem – i szansa dla OpenAI
Firma twierdzi, że co tydzień zadawanych jest setki milionów pytań dotyczących zdrowia i dobrostanu. A Sam Altman w jednym z wywiadów mówił wprost:
Opieka zdrowotna może być obszarem największego skoku jakościowego dzięki AI.
Testy usługi ruszają w małej grupie użytkowników, a dostęp będzie poszerzany w najbliższych tygodniach.
Entuzjazm technologiczny kontra ludzkie ryzyko
Eksperci przypominają jednak, że rozwój AI w zdrowiu to nie tylko potencjał, ale też nowe zagrożenia.
Psycholożka komunikacji, dr Agnieszka Kowalczewska, zwraca uwagę:
• AI brzmi coraz bardziej „jak człowiek”,
• dla wielu staje się zamiennikiem realnych kontaktów,
• długie rozmowy mogą prowadzić do uzależnienia i wypaczenia decyzji.
W ekstremalnych przypadkach systemy potrafiły wzmacniać destrukcyjne myśli użytkowników, prowadząc do ryzykownych zachowań.
Medycyna widzi też realną korzyść
Z drugiej strony – lekarze widzą ogromny potencjał.
Sztuczna inteligencja może:
• wykrywać choroby w miejscach bez specjalistów,
• wspierać okulistów czy radiologów,
• przyspieszać analizę badań i odciążać personel.
To może realnie skracać kolejki, zwłaszcza tam, gdzie dostęp do specjalistów jest ograniczony.
Kto będzie kontrolował lekarza… który nie jest lekarzem?
Eksperci podkreślają, że kluczowe jest pytanie o nadzór i regulacje.
Jeśli AI zacznie podpowiadać rozwiązania, lekarze mogą z czasem polegać na niej bardziej niż powinni.
A wtedy potrzebne będą:
• badania nad użytecznością,
• zasady bezpieczeństwa,
• kontrola tego, jak AI wpływa na decyzje diagnostyczne.
Bo w zdrowiu najważniejszy jest pacjent – i to, by nie zniknął za algorytmem.
Z grubsza sprowadza się to do jednej rzeczy
OpenAI robi krok w stronę ochrony zdrowia, ale próbuje postawić granicę, zanim zrobi to regulator:
AI ma wspierać pacjenta, nie zastępować lekarza.
Teraz czas pokaże, czy użytkownicy tę granicę utrzymają i czy systemy AI również.
źródło: tvn24.pl




Dodaj komentarz