Odpowiedzialny rozwój sztucznej inteligencji z naciskiem na ograniczenia w sektorach militarnym oraz ochrony zdrowia. To główne założenia nowej rezolucji, którą 20 stycznia 2021 r. przyjął Parlament Europejski.

– Sztuczna inteligencja nie może nigdy zastępować ani zwalniać ludzi z ich odpowiedzialności – powiedział poseł sprawozdawca Gilles Lebreton. I to założenie przyświeca poselskiej propozycji. Zdaniem eurodeputowanych w tworzonych przepisach – za które odpowiada przede wszystkim Komisja Europejska – trzeba położyć szczególny nacisk na nadzór człowieka nad systemami sztucznej inteligencji wykorzystywanymi w obronie. Należy też zakazać stosowania śmiercionośnej broni autonomicznej wykorzystującej sztuczną inteligencję.
PE postuluje, aby sztuczna inteligencja zawsze pozostała w tym zakresie wyłącznie narzędziem używanym do wspomagania podejmowania decyzji, które nigdy nie może zastępować ludzi ani zwalniać ich z odpowiedzialności. Bardzo istotne jest położenie nacisku na konieczność mitygowania ryzyka związanego z decyzjami podejmowanymi przez człowieka wyłącznie na podstawie danych, profili i zaleceń generowanych przez sztuczną inteligencję poprzez ustanowienie standardów kontroli i nadzoru sprawowanych przez człowieka oraz wprowadzenie obowiązków prawnych co do przejrzystości i wytłumaczalności zastosowań SI oraz konieczności interwencji człowieka – wyjaśnia dr Gabriela Bar, partner zarządzający w kancelarii prawnej Szostek_Bar i Partnerzy.
Co istotne, PE nie wyklucza zastosowania SI dla potrzeb militarnych. Jedynie zwraca uwagę na konieczność właściwej weryfikacji działań robotów.
Parlamentarzyści podkreślili też rolę SI w sektorze opieki zdrowotnej. Robotyzacja może przynieść wiele korzyści, np. w diagnostyce i chirurgii, a także wspierać sprawowanie opieki nad osobami starszymi oraz tworzenie oprogramowania pomocnego przy walce z pandemiami. Wszystko to jednak przy poszanowaniu prywatności obywateli.
– W mojej ocenie zagwarantowanie postulowanej przez PE ochrony danych osobowych pacjentów nie eliminuje możliwości korzystania z danych przez algorytmy uczenia maszynowego. Byłoby to zresztą niezgodne z europejską strategią w zakresie danych, zakładającą tworzenie przestrzeni danych do uczenia maszynowego – zastrzega dr Gabriela Bar.
To kolejna rezolucja PE. W październiku 2020 r. posłowie przyjęli aż trzy, w tym dotyczącą etycznego rozwoju SI. Wskazano, że państwa UE powinny położyć duży nacisk na wykorzystanie sztucznej inteligencji, ale musi ono być zawsze etyczne, czyli przede wszystkim nieszkodliwe dla ludzi. Inne podejście prezentują USA i Chiny, gdzie rozwój SI jest w zasadzie nieskrępowany.
Ameryka Północna inwestuje w sztuczną inteligencję ponad 15 mld euro rocznie. Azja – ok. 10 mld euro. Europa zaś od 2,5 do 3 mld euro rocznie. Komisja Europejska chciałaby, aby już za kilka lat prywatne i publiczne inwestycje w sztuczną inteligencję oscylowały wokół 20 mld euro rocznie.