Notatka w skrócie:
– Regulacje prawne dotyczące sztucznej inteligencji powinny być jasne i nakierowane na przyszłość, aby nie ulegały zbyt szybkiej dezaktualizacji, a zarazem zgodne z unijnymi standardami i wartościami.
– UE musi położyć nacisk na uświadamianie obywateli, jaki wpływ może mieć sztuczna inteligencja oraz podjąć działania w celu zwiększenia ich kompetencji z zakresu nowych technologii.
– Firmy ubezpieczeniowe, w swojej działalności, muszą kierować się takimi zasadami jak transparentność, możliwość wyjaśnienia zasad działania algorytmów sztucznej inteligencji, oraz sprawiedliwość.
W piątek, 11 grudnia 2020 odbyła się debata „Ethics in the use of AI: can regulators agree a standard approach” organizowana przez EURACTIV. W dyskusji wzięli udział: Kilian Gross – kierownik działu Technologie i Systemy do celów Cyfryzacji Przemysłu, Komisja Europejska; Eva Kaili – Komisja Przemysłu, Badań Naukowych i Energii (ITRE), Parlament Europejski; Anna-Michelle Asimakopoulou – Komisja Specjalna ds. Sztucznej Inteligencji w Epoce Cyfrowej (AIDA), Parlament Europejski; Eline Chivot – Center for Data Innovation; a także Rui Ferreria – Zurich Insurance Company Ltd. Moderatorem spotkania był Brian Maguire z EURACTIV.
Na początku swojego wystąpienia Kilian Gross zaznaczył, że sztuczna inteligencja jest wielką szansą dla rozwoju, ale jednocześnie może stwarzać pewne zagrożenia, dlatego potrzebne jest ustanowienie odpowiednich regulacji, które będą nadążać za nowymi technologiami. Przepisy powinny być jasne, nakierowane na przyszłość, aby nie ulegały zbyt szybkiej dezaktualizacji w wyniku rozwoju nowych systemów, oraz powinny prezentować podejście oparte na ocenie ryzyka. Możliwe ryzyko jest związane z naruszeniem praw podstawowych i bezpieczeństwa. Należy mieć pewność, że system działa zgodnie z unijnym standardami i wartościami. Przejście świata analogowego w cyfrowy musi cechować się transparentnością. Wówczas instytucje prawne, jakimi dysponuje UE, mogą okazać się wystarczające do zapewnienia bezpieczeństwa. Gross wspomniał też o pracach ekspertów, dzięki którym zostało rozwinięte narzędzie ALTAI (The Assessment List for Trustworthy Artificial Intelligence), pomagające firmom i organizacjom w samodzielnej ocenie wiarygodności opracowywanych systemów, a także, dzięki którym zostały sporządzone rekomendacje dotyczące stworzenia sztucznej inteligencji, która będzie godna zaufania. Odniósł się również do propozycji oceny zgodności przeprowadzanej przez organy zewnętrzne, które, według Gross, muszą być certyfikowane i w pełni wiarygodne, ponieważ mogą – w szczególności w sektorze zdrowia – mieć do czynienia z bardzo wrażliwymi danymi. Pojawienie się regulacji przewiduje na koniec 2021 roku.
W swoim wystąpieniu Anna-Michelle Asimakopoulou zauważyła, że obecna pandemia przyspieszyła cyfryzację. Radzenie sobie z konsekwencjami wirusa skłoniło do zwiększenia inwestycji w sztuczną inteligencję. Zwróciła też uwagę, że obawy obywateli dotyczą prywatności oraz uprzedzeń. W perspektywie średnioterminowej ludzie martwią się, czy roboty zastąpią ich w pracy, natomiast w dłuższej perspektywie obawiają się możliwości przekroczenia, a nawet przewyższenia, ludzkich możliwości przez sztuczną inteligencję. Wprowadzane rozporządzenia powinny mieć te obawy na uwadze. Europa przyjęła aktywne podejście i chce zrównoważyć napięcie między posiadaniem elastycznych ram prawnych, które umożliwią innowacje i pozwolą Europie być liderem w dziedzinie technologii, ale jednocześnie zagwarantują prawa podstawowe i zapewnią, że wartości europejskie oraz demokracja są rzeczywiście przestrzegane.
W październiku Parlament Europejski przedstawił swoje sugestie dotyczące regulacji. Wprowadził czynnik ryzyka, który pomaga zachować równowagę między rozwijaniem tej technologii i polepszeniem jakości życia a ochroną praw. Im większe ryzyko, tym większa interwencja regulacyjna na wszystkich etapach w zakresie oceny potencjalnego naruszenia prawa.
Eline Chivot w swoim wystąpieniu poddała wątpliwości praktyczny sens przepisów etycznych, gdyż, jej zdaniem, zbyt duże skupianie się na etycznych rozwiązaniach może spowolnić rozwój. Uważa ona, że mogą istnieć również inne sposoby kreatywnego myślenia o tym, jak zapewnić godną zaufania sztuczną inteligencję. Jej zdaniem obecna dyskusja wydaje się zakładać, że wprowadzenie nowych zasad może doprowadzić do tworzenia nieetycznej sztucznej inteligencji przez firmy, które do tej pory działały na wysokim poziomie etyczności. Z drugiej jednak strony nowe przepisy mogłyby zmusić nietyczne firmy do etycznych działań. UE myśli o etycznej sztucznej inteligencji jako czynniku, który może dać jej przewagę na rynku, ale należy się zastanowić, czy konsumenci będą ją kupować. W dalszej części rozmowy Eline Chivot odniosła się do problemu edukacji. Uważa ona, że UE powinna zachęcać państwa, aby te wprowadziły więcej kursów z zakresu sztucznej inteligencji. Przytoczyła dane z raportu sporządzonego przez Uniwersytet Oksfordzki, według którego aż 43% Europejczyków postrzega sztuczną inteligencję jako szkodliwą, natomiast w Chinach takie podejście prezentuje 9% respondentów. Chivot twierdzi, iż propozycja oceny zgodności może powodować straty i dodatkowe koszty.
Rui Ferreria podkreślił jak istotne jest, aby branża ubezpieczeniowa uczestniczyła w debacie dotyczącej nowych technologii. Rozwój ram prawnych jest konieczny w celu poprawy dostępu do danych i ich wykorzystania oraz stworzenia możliwości dla społeczeństwa i gospodarki. Branża ubezpieczeniowa powinna kierować się trzema zasadami etycznymi: sprawiedliwością, przejrzystością oraz możliwością wyjaśnienia. Istotą działalności ubezpieczeniowej jest zróżnicowanie wyceny opartej na ryzyku – czyli ustalanie różnych cen dla grup osób o różnym poziomie ryzyka. Zróżnicowanie w tym kontekście jest uzasadnione, jeżeli jednostki świadomie zarządzają ryzykownymi zachowaniami. Warte podkreślenia jest, że dane zróżnicowanie nie jest dyskryminacyjne. Branża ubezpieczeniowa powinna edukować klientów, w zakresie użycia sztucznej inteligencji, aby rozumieli dlaczego, jak i kiedy używane są algorytmy. Aktualnie są rozważane mechanizmy, które mają zapewnić uczciwość i przejrzystość stosowanych algorytmów, a także pełną odpowiedzialność i możliwość ich wyjaśnienia.
Eva Kaili podkreśliła, że sztuczna inteligencja musi być godna zaufania i skoncentrowana na człowieku. Zwiększona autonomiczność spowoduje ograniczenie autonomii człowieka. Celem wprowadzenia zasad etycznych jest to, aby człowiek nie został zastąpiony przez sztuczną inteligencję, ale uzupełniany przez nią. Człowiekowi powinna zostać pozostawiona kontrola oraz wybór, czy chce być online czy offline. Nacisk należy kłaść również na transparentność i możliwość wyjaśniania funkcjonowania algorytmów. Aby nie hamować rozwoju technologicznego, podejście do ryzyka powinno podlegać ocenie. Aplikacje, które mogą być uznane za szkodliwe (high-risk) będą podlegać bardziej rygorystycznym kryteriom bezpieczeństwa, podczas gdy aplikacje o niższym ryzyku (low-risk) odpowiednio będą podlegać mniej surowym wymogom. Zaznaczyła, że należy stworzyć ogólne standardy i zasady, aby móc chronić demokrację. Nikt nie może być wykluczony ani dyskryminowany przez urządzenia sztucznej inteligencji. Nie powinno się rezygnować z bezpieczeństwa dla prywatności ani z prywatności dla bezpieczeństwa.
Comments are closed.