Google, Meta i inne wielkie firmy wprowadzają "znaki wodne" dla sztucznej inteligencji
Zostaną wprowadzone specjalne cyfrowe oznaczenia, informujące użytkowników o tym, że mają do czynienia z treścią wygenerowaną przez algorytmy (fot. Pixabay.com)
Firmy zajmujące się sztuczną inteligencją, w tym OpenAI, Alphabet z Google i Meta Platforms, po spotkaniu w Białym Domu zobowiązały się do wprowadzenia systemu zabezpieczeń dotyczących sztucznej inteligencji. W tym tzw. znaków wodnych.
Administracja prezydenta USA Joe Bidena opracowała zestaw dobrych praktyk i wytycznych dla bezpieczeństwa sztucznej inteligencji. Największe firmy technologiczne – także Microsoft i Amazon, oraz start-upy, takie jak Anthropic czy Inflection – zgodziły się je przyjąć, a następnie stosować. Zgoda na zasady Białego Domu jest dobrowolna i obejmuje deklarację zaangażowania w działania na rzecz tego, aby produkty AI opracowywane przez firmy były bezpieczne.
Biden: "Dużo pracy do wykonania"
Firmy zgodziły się na zewnętrzne audyty algorytmów komercyjnych. Akceptują również przyjęcie wspólnych zasad dotyczących informowania o podatnościach bezpieczeństwa swoich systemów. Zostaną wprowadzone specjalne cyfrowe oznaczenia – "znaki wodne", informujące użytkowników o tym, że mają do czynienia z treścią wygenerowaną przez algorytmy, a nie stworzoną przez człowieka.
Czytaj też: Twitter zmieni logo. Elon Musk nie chce już niebieskiego ptaka
"Te zobowiązania są obiecującym krokiem, ale mamy razem dużo więcej pracy do wykonania" – powiedział Biden.
Stany Zjednoczone pozostają w tyle za Unią Europejską w walce z regulacjami dotyczącymi sztucznej inteligencji. W czerwcu unijni prawodawcy zgodzili się na zestaw projektów przepisów, zgodnie z którymi systemy takie jak ChatGPT musiałyby ujawniać treści generowane przez sztuczną inteligencję, pomagać odróżniać tzw. głęboko fałszywe obrazy od prawdziwych i zapewniać zabezpieczenia przed nielegalnymi treściami.
Obecnie amerykański Kongres rozważa wprowadzenie ustawy, która wymagałaby, aby reklamy polityczne ujawniały, czy sztuczna inteligencja została wykorzystana do tworzenia obrazów lub innych treści.
Czytaj też: Google testuje możliwość wykorzystania sztucznej inteligencji w pracy dziennikarzy
(MAC, 24.07.2023)