Etyka jako fundament innowacji

Współczesne finansowanie publiczne innowacji w Europie wymaga, aby projekty sztucznej inteligencji uwzględniały nie tylko aspekty techniczne i rynkowe, lecz także standardy etyczne. Model Trustworthy AI opiera się na trzech filarach: zgodności z prawem, etyce i solidności technicznej i społecznej, które muszą współdziałać przez cały cykl życia systemu. Kluczowe zasady etyczne obejmują poszanowanie autonomii człowieka, zapobieganie szkodom, sprawiedliwość oraz wyjaśnialność decyzji systemów SI, a ich wdrożenie wspiera budowanie zaufania i zgodność z regulacjami, w tym AI Act. Listy kontrolne i ramy oceny pomagają w operacyjnym stosowaniu tych zasad, a integracja etyki z projektowaniem systemów SI stanowi przewagę konkurencyjną, ogranicza ryzyka i zwiększa dojrzałość projektów ubiegających się o finansowanie publiczne.

Etyka jako fundament innowacji

Etyka jako fundament innowacji: Strategiczne projektowanie godnej zaufania sztucznej inteligencji w kontekście finansowania publicznego

Współczesny krajobraz innowacji technologicznych przeszedł fundamentalną zmianę. Dla innowatorów, startupów oraz instytucji badawczych, finansowanie ze środków publicznych (zarówno na szczeblu krajowym, jak i europejskim, np. w ramach programu Horyzont Europa) już dawno przestało być wyścigiem wyłącznie na parametry techniczne czy potencjał rynkowy. Obecnie, planując projektowanie systemów sztucznej inteligencji (AI), należy zadać sobie fundamentalne pytanie: czy mój projekt odpowiada i w pełni spełnia standardy etyczne?

Zgodnie z Wytycznymi w zakresie etyki dotyczące godnej sztucznej inteligencji, opracowanymi przez Niezależną Grupę Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji przy Komisji Europejskiej(*1), innowacyjność technologiczna w Europie musi być nierozerwalnie związana z koncepcją „Godnej Zaufania AI” (Trustworthy AI). Wnioskodawca, który nie uwzględni tego wymiaru w swoim projekcie, ryzykuje niską ocenę merytoryczną, ponieważ oceniający coraz częściej postrzegają etykę nie jako dodatek, lecz jako kluczowy wskaźnik dojrzałości i wykonalności projektu.

Architektura zaufania: 

Trzy filary Godnej Zaufania SI

Zgodnie z unijną wizją godna zaufania sztuczna inteligencja (Trustworthy AI) opiera się na trzech filarach, które muszą być spełnione przez cały cykl życia systemu – od pomysłu, przez szkolenie modeli, aż po ich wdrożenie i wycofanie z eksploatacji.

Po pierwsze, musi być zgodna z prawem, a więc w pełni respektować wszystkie obowiązujące przepisy ustawowe i wykonawcze. 

Po drugie, powinna być etyczna, co oznacza zgodność z uznanymi zasadami oraz wartościami etycznymi. 

Po trzecie, musi charakteryzować się solidnością – zarówno w wymiarze technicznym, jak i społecznym – ponieważ systemy sztucznej inteligencji mogą powodować niezamierzone szkody, nawet gdy są projektowane i wykorzystywane w dobrej wierze.

Każdy z tych elementów stanowi warunek konieczny, lecz samodzielnie pozostaje niewystarczający do osiągnięcia standardu sztucznej inteligencji godnej zaufania. W modelu idealnym wszystkie trzy komponenty współdziałają w sposób harmonijny, a ich zakresy w znacznym stopniu się pokrywają. W praktyce mogą jednak wystąpić napięcia lub konflikty pomiędzy nimi. W takich sytuacjach na społeczeństwie – w tym na ustawodawcy, instytucjach publicznych, podmiotach gospodarczych oraz środowisku eksperckim – spoczywa odpowiedzialność za podejmowanie działań zmierzających do ich właściwego wyważenia i skorygowania.

Zasady etyczne

Wiele organizacji publicznych, prywatnych oraz społeczeństwa obywatelskiego czerpało inspirację z praw podstawowych przy opracowywaniu ram etycznych dla sztucznej inteligencji. Na poziomie Unii Europejskiej Europejska Grupa do spraw Etyki w Nauce i Nowych Technologiach zaproponowała zestaw dziewięciu podstawowych zasad, opartych na wartościach fundamentalnych określonych w traktatach UE oraz w Karcie praw podstawowych Unii Europejskiej.

Wskazane zasady etyczne mogą stanowić punkt odniesienia dla tworzenia nowych, wyspecjalizowanych instrumentów regulacyjnych, wspierać interpretację praw podstawowych w dynamicznie zmieniającym się środowisku społeczno-technologicznym oraz wyznaczać kierunek rozwoju, wdrażania i stosowania systemów sztucznej inteligencji. Co istotne, ich charakter powinien być adaptacyjny – umożliwiający reagowanie na ewolucję technologii oraz przemiany społeczne.

Systemy sztucznej inteligencji powinny przyczyniać się do poprawy dobrostanu zarówno jednostek, jak i całych wspólnot. W tym kontekście wyróżnia się cztery kluczowe zasady etyczne, ściśle powiązane z prawami podstawowymi, których przestrzeganie jest warunkiem rzetelnego projektowania, wdrażania i wykorzystywania systemów sztucznej inteligencji. Zasady te zostały sformułowane jako imperatywy etyczne, co oznacza, że specjaliści w dziedzinie sztucznej inteligencji powinni konsekwentnie dążyć do ich realizacji.

Poszanowanie autonomii człowieka

Poszanowanie autonomii człowieka stanowi fundamentalną zasadę projektowania i stosowania systemów sztucznej inteligencji w modelu human-centric AI. Autonomia oznacza zdolność jednostki do samostanowienia, podejmowania świadomych decyzji oraz sprawowania kontroli nad własnym życiem, w tym nad procesami, w których uczestniczą systemy algorytmiczne.

Systemy SI powinny być projektowane w taki sposób, aby wzmacniały kompetencje poznawcze i decyzyjne człowieka, a nie je zastępowały lub ograniczały. W praktyce realizacja tej zasady wymaga w szczególności zapewnienia realnej możliwości interwencji człowieka w proces decyzyjny (human oversight), dostarczania użytkownikowi informacji umożliwiających świadome korzystanie z systemu oraz projektowania systemów wspierających, a nie zastępujących procesy decyzyjne.

Zapobieganie szkodom

Zasada zapobiegania szkodom nakłada obowiązek minimalizowania ryzyka negatywnych konsekwencji wynikających z projektowania i działania systemów sztucznej inteligencji. Szczególną uwagę należy poświęcić sytuacjom asymetrii władzy lub informacji (np. relacje pracodawca–pracownik, instytucja publiczna–obywatel), w których skutki działania systemu mogą być dla jednostki trudne do zakwestionowania. 

Zasada ta obejmuje również odpowiedzialność za niezamierzone skutki działania systemu, nawet jeśli został on opracowany w dobrej wierze. Odpowiedzialność projektanta i operatora systemu nie kończy się na etapie wdrożenia – ma charakter ciągły i obejmuje cały cykl życia rozwiązania.

Sprawiedliwość

Sprawiedliwość w kontekście systemów sztucznej inteligencji ma wymiar zarówno materialny, jak i proceduralny. Oznacza przeciwdziałanie dyskryminacji oraz eliminowanie uprzedzeń (bias) wynikających z niepełnych lub historycznie obciążonych zbiorów danych, nieadekwatnej reprezentatywności populacji, błędnych założeń projektowych, jak również mechanizmów personalizacji prowadzących do nierównego traktowania.

Systemy sztucznej inteligencji nie powinny utrwalać ani pogłębiać istniejących nierówności społecznych. W praktyce wymaga to audytów danych i modeli pod kątem stronniczości, testowania rozwiązań na zróżnicowanych grupach użytkowników oraz uwzględniania potrzeb osób szczególnie narażonych na wykluczenie.

Sprawiedliwość oznacza również możliwość zakwestionowania decyzji algorytmicznej, dostęp do mechanizmów odwoławczych oraz zapewnienie przejrzystych procedur postępowania.

Możliwość wyjaśnienia (wyjaśnialność)

Wyjaśnialność (explicability) stanowi warunek budowania zaufania do systemów sztucznej inteligencji. Obejmuje ona zarówno transparentność techniczną, jak i komunikacyjną. Zasada ta odnosi się do dokumentowania procesów (procesy muszą być przejrzyste), możliwości i celów systemów sztucznej inteligencji (możliwości i cele muszą być otwarcie komunikowane), a decyzje w jak największym stopniu możliwe do wyjaśnienia osobom, na które mają one bezpośredni i pośredni wpływ.

Użytkownik powinien wiedzieć, że wchodzi w interakcję z systemem SI, rozumieć zakres kompetencji systemu, znać jego ograniczenia oraz otrzymać adekwatne wyjaśnienie decyzji, szczególnie gdy wywołuje ona istotne skutki.

Wyjaśnialność jest ściśle powiązana z zasadą odpowiedzialności – bez możliwości zrozumienia decyzji nie jest możliwe jej skuteczne zakwestionowanie ani przypisanie odpowiedzialności.

Zarządzanie procesem oceny godnej zaufania sztucznej inteligencji

Dynamiczny rozwój systemów sztucznej inteligencji wymaga nie tylko formułowania zasad normatywnych, lecz przede wszystkim tworzenia narzędzi umożliwiających ich skuteczne wdrażanie w praktyce. Odpowiedzią na tę potrzebę jest lista kontrolna oceny godnej zaufania sztucznej inteligencji (Assessment List for Trustworthy AI), opracowana przez Niezależną Grupę Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji na podstawie wytycznych.

Lista ta stanowi próbę przełożenia abstrakcyjnych zasad – takich jak autonomia człowieka, zapobieganie szkodom, sprawiedliwość czy wyjaśnialność – na operacyjne kryteria oceny systemów sztucznej inteligencji w ich rzeczywistym kontekście wdrożeniowym.

Należy podkreślić, że lista kontrolna nie obejmuje pierwszego filaru sztucznej inteligencji godnej zaufania, tj. jej zgodności z prawem. Spełnienie wymogów wskazanych w liście kontrolnej nie stanowi dowodu zgodności z obowiązującymi przepisami prawa ani nie zastępuje obowiązku przeprowadzenia odrębnej analizy prawnej. Dokument ten nie ma bowiem charakteru wytycznych w zakresie zapewnienia zgodności z regulacjami ustawowymi i wykonawczymi.

Ze względu na kontekstowy charakter zastosowań systemów sztucznej inteligencji, lista kontrolna wymaga każdorazowego dostosowania do konkretnego przypadku użycia, specyfiki sektora oraz środowiska operacyjnego, w którym system funkcjonuje. Podejście to odzwierciedla zasadę proporcjonalności oraz konieczność uwzględnienia poziomu ryzyka związanego z danym zastosowaniem technologii.

Korzyści z wdrożenia standardów etycznych

Wdrażanie standardów etycznych w projektowaniu i stosowaniu systemów sztucznej inteligencji nie powinno być postrzegane wyłącznie jako obowiązek regulacyjny czy element formalnej zgodności (compliance). W rzeczywistości stanowi ono istotny czynnik budowania trwałej przewagi konkurencyjnej, ograniczania ryzyk systemowych oraz zwiększania wartości organizacyjnej w średnim i długim horyzoncie czasowym.

W warunkach europejskiego otoczenia regulacyjnego, w szczególności w kontekście AI Act(*2) oraz RODO(*3), czy też implementacja standardów etycznych staje się elementem racjonalnej strategii zarządzania innowacją.

Projektowanie systemów SI w oparciu o uznane wytyczne etyczne – w szczególności model Trustworthy AI – znacząco ułatwia dostosowanie do wymogów wynikających z AI Act.

AI Act wprowadza podejście oparte na analizie ryzyka, obowiązki w zakresie zarządzania jakością danych, dokumentacji technicznej, przejrzystości, nadzoru człowieka oraz zarządzania ryzykiem. Organizacje, które już na etapie projektowym wdrażają procedury oceny wpływu, dokumentują proces trenowania modeli, testują systemy pod kątem stronniczości oraz implementują mechanizmy human oversight.

Brak takiego podejścia może prowadzić do sytuacji, w której system – choć technologicznie zaawansowany – wymaga fundamentalnej przebudowy architektury, procesów decyzyjnych lub modeli danych, aby spełnić wymogi regulacyjne. Z perspektywy zarządczej oznacza to nieefektywność inwestycyjną i opóźnienie komercjalizacji.

Wdrażanie standardów etycznych należy zatem traktować jako instrument prewencyjnego zarządzania również ryzykiem regulacyjnym.

Podsumowanie

W procesie przygotowywania wniosków o dofinansowanie – zwłaszcza w obszarze sztucznej inteligencji – etyka nie może być traktowana jako element abstrakcyjny. W aktualnym kontekście regulacyjnym etyka stała się integralnym komponentem technologii. Jest ona współkształtującym elementem architektury systemów sztucznej inteligencji, a nie dodatkiem do ich opisu.

Dla wnioskodawcy oznacza to konieczność przeprowadzenia pogłębionej refleksji nad potencjalnymi skutkami proponowanego rozwiązania. Niezbędne staje się postawienie fundamentalnych pytań:

Czy projektowany algorytm minimalizuje ryzyko szkody i dyskryminacji? Czy jego działanie jest transparentne i możliwe do wyjaśnienia? Czy użytkownik zachowuje realną kontrolę nad systemem? Czy wdrożono adekwatne mechanizmy zarządzania ryzykiem i odpowiedzialnością?

Odpowiedzi na te pytania powinny być nie tylko deklaratywne, lecz poparte konkretnymi rozwiązaniami technicznymi, proceduralnymi i zarządczymi. To właśnie ta spójność między wizją, architekturą technologiczną i strukturą governance decyduje o dojrzałości projektu oraz jego konkurencyjności w procesie oceny.

---------------------

*1 Wytyczne w zakresie etyki dotyczące godnej sztucznej inteligencji, opracowanymi przez Niezależną Grupę Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji przy Komisji Europejskiej. Wytyczne zostały opublikowane w 2019r., jednakże w odniesieniu do standardów etycznych w zakresie systemów sztucznej inteligencji zachowują swoją aktualność

*2 Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (Dz.Urz.UE.L z 2024 r. str. 1689).

*3 Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych), Dz.Urz.UE.L 2016 Nr 119, str. 1.

Sprawdź profil eksperta