W przyszłości sztuczna inteligencja może wesprzeć niemal każdy filar biznesowy. W przemyśle modowym upatruje się w niej szansę na większą automatyzację, a także nowoczesne rozwiązania zgodne z założeniami zrównoważonego rozwoju (związane na przykład z recyklingiem odzieży). Z AI, oprócz wielu korzyści, wiąże się również z ryzykiem: naruszaniem prywatności użytkowników internetu czy dezinformacją. Globalne przepisy bezpieczeństwa są tu koniecznym krokiem w stabilizowaniu nowego narzędzia. Przyglądamy się regulacjom i wymogom ustanowionym przez Chiny, Stany Zjednoczone oraz Unię Europejską.
Zbiór przepisów dotyczących sztucznej inteligencji musi być stale aktualizowany. W przeciwnym razie prawo uniemożliwiałoby rozwój technologii lub, wręcz przeciwnie, nie obejmowałoby kompleksowo rosnących możliwości AI. Dotychczasowe postanowienia Chin, Stanów Zjednoczonych i Europy odzwierciedlają problemy wynikające z kontekstu poszczególnych państw i kontynentów.
Unia Europejska i rozporządzenie w sprawie sztucznej inteligencji
Negocjacje dotyczące ustawy o sztucznej inteligencji miały zakończyć się 6 grudnia. Sytuacja zmieniła się ze względu na stanowisko Francji, Niemiec oraz Włoch, które sprzeciwiły się regulacji podstawowych modeli AI w obawie o hamowanie rozwoju sztucznej inteligencji w Europie.
— Ostatnie dyskusje koncentrują się nad kwestią modeli podstawowych oraz General Purpose-AI (GPAI). W tym zakresie Niemcy, Francja i Włochy sprzeciwiły się sztywnej regulacji na rzecz regulacji „miękkiej”, czyli opartej o samoregulację i kodeksy dobrych praktyk — powiedział Łukasz Wieczorek, radca prawny i partner w kancelarii Konieczny Wierzbicki, dla portalu Prawo.pl.
Podczas szczytu rządowego w Bletchley Park, w którym udział wzięli przedstawiciele 28 państw, zakazano wykorzystywania narzędzi niosących ryzyko utraty bezpieczeństwa ludności (zarówno pod względem prywatności jak i zdrowia fizycznego). Dotyczy to m.in. konstruowania ocen społecznych przy pomocy AI, rekomendacji względem zatrudniania, egzekucji prawa czy edukacji. W dokumencie pojawiły się także przesłanki o automatyzacji przemysłu motoryzacyjnego, które niesie za sobą oczywiste ryzyko w ruchu drogowym.
Na ten moment wiadomo, że dla przejrzystości niektóre narzędzia wykorzystujące sztuczną inteligencję będą rejestrowane w bazie danych UE. Wraz z tym specjaliści AI będą musieli gwarantować prywatność wszystkich danych osobowych, która, bez regulacji, mogłaby zostać naruszona wraz z ulepszaniem algortymów AI. Jest to jednak jedynie wstęp do ustawy o sztucznej inteligencji, z którą będziemy mogli zapoznać się po zakończeniu negocjacji rządowych.
O wpływie AI na sprzedaż w branży modowej przeczytacie tu: Jak sztuczna inteligencja zmieni handel? [raport]
Sztuczna inteligencja i regulacje prawne Stanów Zjednoczonych
W październiku 2022 roku Biuro Polityki Naukowej i Technologicznej Białego Domu opublikowało plan rozwoju oparty na 5 zasadach, które ograniczają ryzyko związane z naruszeniem bezpieczeństwa amerykańskiej społeczności. Dokument traktuje o m.in. tworzeniu bezpiecznych systemów, ochrony przed dyskryminacją, zachowaniu prywatności danych i konieczności skonstruowania awaryjnych rozwiązań. Z kolei w tym roku Joe Biden wydał zarządzenie wykonawcze zobowiązujące programistów AI do regularnego raportowania podatności aplikacji na cyberataki, danych pobranych w celu testowania sztucznej inteligencji a także uniknięcia dyskryminacji przez wymóg publikowania kategorii, którymi kierują się narzędzia AI (dotyczy to m.in. wniosków hipotecznych czy wcześniej wspomnianych narzędzi wspierających rekrutacje pracowników).
Wśród ważnych ustaw pojawiły się: ustawa o zapobieganiu oszustwom, ustawa o odpowiedzialności algorytmicznej, ustawa o ochronie wyborów przed nieuczciwą sztuczną inteligencją, doradztwo w zakresie ustawy o treściach generowanych przez sztuczną inteligencję, ustawa o eksperymentach ze sztuczną inteligencją oraz Ustawa o Komisji Ochrony Konsumentów Cyfrowych.
Zobacz też: Kto straci pracę przez AI? Sztuczna inteligencja może przejąć 27 proc. zawodów
Chiny kontra sztuczna inteligencja
Podczas gdy Stany Zjednoczone i Europa pozostają w tyle z konstruowaniem szczegółowych przepisów, Chiny już wcześniej stworzyły kompleksowy szkielet polityki zarządzania AI – pierwsze i kluczowe zasady opublikowano w 2021 roku. Dotyczą one głównie algorytmów oraz kontroli informacji generowanych przez narzędzia wykorzystujące sztuczną inteligencję. Wygląda na to, że Chiny stawiają szczególny nacisk na bezpieczeństwo użytkowników mediów społecznościowych – ochrona przed deepfake’ami ma blokować szkodliwe skutki sztucznego generowania głosu i obrazu, a więc i kreowaniu wydarzeń, które nie miały nigdy miejsca (tego rodzaju przykłady odnajdziemy m.in. w przestrzeni TikToka, na którym w ostatnim czasie pojawiły się filmiki przedstawiające sztucznie wykreowanego Leonardo DiCaprio. Wykorzystywanie tej możliwości na masową skale mogłoby mieć katastrofalne skutki).
Regulacjom podlega także system tworzenia algorytmów. Aplikacje społecznościowe analizują aktywność użytkowników na potrzeby reklamodawców. Zbyt intensywne wprowadzanie rekomendacji jest według chińskiego rządu szkodliwe dla zdrowia psychicznego, dlatego wśród zakazów pojawiło się m.in. konstruowanie fałszywych informacji i spekulacje cenowe. Pod lupę trafiły także firmy, które nagminnie wydobywają dane osobowe w celach marketingowych.
Więcej o wpływie sztucznej inteligencji na media społecznościowe: LinkedIn wykorzysta sztuczną inteligencję, by Ci pomóc
Zdjęcie główne: Unsplash