Coraz bliżej wejścia w życie AI Act. Jakie są prawa i obowiązki wydawców? Kluczowe regulacje
Ważny z punktu widzenia wydawców jest m.in. art. 50 rozporządzenia wprowadzający obowiązek oznaczania treści wygenerowanych przez AI (fot. Pixabay.com)
Rozporządzenie o sztucznej inteligencji (AI Act) wejdzie w życie w czerwcu, ale zacznie w pełni obowiązywać dopiero za dwa lata. Przedstawiamy kluczowe regulacje z punktu widzenia wydawców.
Rozporządzenie AI Act jest już na finalnym etapie ścieżki legislacyjnej - we wtorek 21 maja regulacje zostały przyjęte przez Radę Unii Europejskiej. W najbliższych dniach przepisy mają być opublikowane w Dzienniku Urzędowym UE i wejdą w życie 20 dni później.
W pełni zaczną obowiązywać za dwa lata, jednak do niektórych regulacji należy dostosować się w ciągu pół roku. Jak mówił radca prawny dr Damian Flisak podczas webinaru zorganizowanego przez Stowarzyszenie Dziennikarzy i Wydawców Repropol, tak krótki termin na wdrożenie dotyczy zakazanych praktyk z użyciem AI.
W świetle art. 5 rozporządzenia do tego rodzaju praktyk należą m.in. techniki podprogowe będące poza świadomością danej osoby, działania celowo manipulacyjne lub wprowadzające użytkowników w błąd oraz praktyki wykorzystujące słabość określonych odbiorców, np. z uwagi na ich wiek, niedojrzałość czy stan psychiczny.
Co to oznacza w praktyce dla wydawców? Dr Damian Flisak tłumaczył podczas webinaru, iż w świetle przepisów zakazane jest np. projektowanie interfejsu strony internetowej w taki sposób, by użytkownicy intuicyjnie wybierali opcję sugerowaną przez wydawcę. Na przykład przycisk "tak” oznaczony jest czerwonym kolorem, zaś "nie” białym. Z psychologicznego punktu widzenia zwiększa to szansę, że użytkownik wybierze opcję zaznaczoną właśnie kolorem czerwonym.
Według doktora Flisaka jako zakazane należy rozpatrywać techniki manipulacyjne mogące pojawić się przy okazji rezygnacji z subskrypcji. - Niedopuszczalna będzie sytuacja, w której użytkownik chcący zrezygnować z subskrypcji otrzyma sugestię, iż jego decyzja oznacza, że nie zależy mu na przyszłości dziennikarstwa czy wydawców - zaznaczył Flisak.
Radca prawny dodaje, że już w ciągu roku od wejścia w życie tych przepisów przynajmniej teoretycznie mogą być przeprowadzane kontrole w zakresie ich przestrzegania. W Polsce według zapowiedzi miałaby tym się zajmować komisja nadzoru nad sztuczną inteligencją. O planach dotyczących jej powołania mówił niedawno wiceminister cyfryzacji Dariusz Standerski, to jednak długa i wyboista droga.
Ważny z punktu widzenia wydawców jest również art. 50 rozporządzenia, który wprowadza obowiązek oznaczania treści wygenerowanych przez AI.
W przypadku materiałów prasowych wymóg ten nie ma zastosowania, jeśli "treści wygenerowane przez AI zostały poddane procesowi weryfikacji przez człowieka lub kontroli redakcyjnej i gdy za publikację treści odpowiedzialność redakcyjną ponosi osoba fizyczna lub prawna”.
Dr Damian Flisak tłumaczy: - Przypuśćmy, że dziennikarz redaguje i wprowadza zmiany w wygenerowanym przez AI tekście na temat sytuacji po wyborach w Turcji, a następnie publikuje go na odpowiedzialność swoją, wydawcy i redaktora naczelnego. Wówczas taki tekst nie musi być oznaczony jako wygenerowany przez AI.
Ważna w interpretacji art. 50 jest również ocena proporcji wkładu pracy człowieka i AI przy przygotowaniu materiału. Jeśli używamy sztucznej inteligencji np. do korekty stylistycznej, adiustacji tekstu, czy też planowania publikacji dziennikarz ma prawo do podpisania się pod tekstem swoim imieniem i nazwiskiem.
Wyjątkiem objęte są także niektóre przypadki dotyczące zmodyfikowanych przez AI obrazów oraz materiałów wideo i audio - te w unijnym rozporządzeniu określane są mianem deepfake’ów.
Obowiązek oznaczania takich treści nie dotyczy sytuacji, w których są one "częścią pracy lub programu o wyrazie artystycznym, twórczym, satyrycznym, fikcyjnym lub analogicznym charakterze”. Jednym słowem, nadal trzeba poinformować o tym, że obraz został zmodyfikowany przez AI, ale można to zrobić w sposób "nie utrudniający wyświetlania lub korzystania z utworu”.
Dr Damian Flisak: - Jeśli wydawnictwo przygotowuje okładkę numeru z wykorzystaniem zmodyfikowanego obrazu, wówczas nie ma obowiązku, by na dole pisać, iż została ona stworzona przez AI. Wystarczy, że informacja na ten temat zostanie zamieszczona w numerze.
Wreszcie, dla niektórych wydawców ważne mogą być regulacje dotyczące zastosowania systemów AI do zarządzania pracownikami lub ich zatrudniania (np. gdy sztuczna inteligencja wykorzystywana jest do weryfikacji CV kandydatów czy oceny pracowniczej). Jak zaznaczył dr Flisak, firmy wykorzystujące AI do tych celów na mocy art. 26 mają obowiązek m.in. zinwentaryzowania narzędzi AI stosowanych w firmie, czy przeszkolenia pracowników pod kątem ich stosowania.
Szczegółowe przepisy znajdą Państwo pod tym linkiem
Unijne rozporządzenie nakłada obowiązki także na producentów modeli AI. Według przepisów będą oni musieli podawać informacje o pochodzeniu zbiorów danych, na których trenowane są systemy sztucznej inteligencji. Jak zaznaczył dr Flisak, powinno to być na tyle szczegółowe zestawienie, by można było na jego podstawie obliczyć należne wynagrodzenie dla uprawnionych podmiotów.
Co do zasady, według art. 26(3) ust. 1 rozporządzenia, trenowanie systemów AI na danych należących do uprawnionych podmiotów jest dozwolone. Chyba że zastrzegą one inaczej (tzw. opt out). Jednak i tu są pewne pułapki. Według dra Flisaka przepis ten jest dysfunkcjonalny, gdyż nie sporządzono standardów w tej kwestii.
- Nie wiadomo również, czy zastrzeżenie możliwości trenowania na naszych danych nie będzie miało innych negatywnych implikacji. Może się na przykład okazać, że nasze teksty nagle znikną z wyszukiwarek internetowych - tłumaczy dr Flisak.
(MZD, 24.05.2024)