AI wokół nas
Sztuczna inteligencja z impetem wkroczyła pod strzechy. Pomaga w pracy i poza nią, ale potrafi też czynić krzywdę. Rozwój AI powinien być lekcją krytycznego myślenia dla społeczeństwa. Lekcją, którą musi odrobić też szkoła
Dawno nie było tak obiecującej i jednocześnie stwarzającej tak wiele zagrożeń technologii jak sztuczna inteligencja (AI). Rozwija się w wielu dziedzinach życia – medycynie, edukacji, przemyśle, rozrywce, a nawet rolnictwie. Jednak prawo nie nadąża za tą technologią. AI dała także przestępcom duże możliwości tworzenia realistycznych obrazów, plików audio czy wideo, czyli wyrafinowanego i skutecznego czynienia bezprawia na użytkownikach internetu czy mediów społecznościowych.
OSZUKAŃCZE STRONY
Jak dużym problemem są oszustwa lub ich próby w internecie, pokazują liczby przytoczone przez Grzegorza Zembrowskiego, data scientist w dziedzinie cyberbezpieczeństwa w CERT Orange Polska (to specjalistyczna jednostka odpowiedzialna za analizę zagrożeń w internecie, sieciach klientów i sieci wewnętrznej Orange Polska). – W 2023 roku zablokowaliśmy 360 tysięcy stron dostępnych w polskim internecie. Ponad 5 milionów naszych klientów rocznie odbija się od zablokowanych oszukańczych stron – wylicza Zembrowski.
Wśród zagrożeń związanych z używaniem sztucznej inteligencji w codziennym życiu ekspert z CERT Orange Polska wymienia: – Pierwsze z nich to wytwory AI, np. deepfaki wykorzystywane m.in. do oszustw phishingowych. Drugie to zagrożenia dla użytkowników sztucznej inteligencji.
Pewnie większość internautów widziała już próby oszustwa tworzone z użyciem AI. – Wśród nich prym wiodą oszustwa inwestycyjne. Oglądamy je jako wypowiedzi celebrytów, polityków, którzy chwalą jakieś rozwiązania finansowe. Jak pokazują nasze statystyki, to już ponad 50 proc. wszystkich stron phishingowych, które obserwujemy w polskim internecie. Jeszcze rok czy dwa lata temu stanowiły one 20–30 proc. ogółu. Widać mnóstwo tego rodzaju haczyków, które są zarzucane głównie w mediach społecznościowych. Trzeba zaznaczyć, że tego rodzaju oszustwo nie musi być oparte wyłącznie na sztucznej inteligencji, może być wytworem np. grafika. Natomiast sztuczna inteligencja jest znakomita w tworzeniu kontentu, bardzo łatwo się ją programuje, żeby uzyskać zamierzony tekst, obraz czy dźwięk – mówi Grzegorz Zembrowski.
Wtóruje mu Rafał Wolert, analityk systemów bezpieczeństwa w CERT Orange Polska. – Są już narzędzia, którym wystarczy jedna fotografia danej osoby, np. zdjęcie profilowe w mediach społecznościowych. Można je nałożyć na inne zdjęcie i stworzyć swojego awatara. Takie deepfaki czy podobne materiały, spreparowane pod względem zarówno audio, jak i wideo, są obecne w internecie i rozwijane przez przestępców.
OSZUSTWA FINANSOWE
Sztuczna inteligencja była też zapewne zaangażowana do najgłośniejszej próby oszustwa finansowego ostatnich miesięcy, czyli postów sponsorowanych na Facebooku, informujących o śmierci dziennikarki i prezenterki Omeny Mensah lub pobiciu jej przez męża, przekierowujących do artykułu udającego tekst na portalu Gazeta.pl. Po wejściu na stronę (która już nie miała jednak adresu Gazeta.pl) okazywało się, że nie ma tam zapowiadanych informacji, za to jest rzekomy wywiad z prezenterką (tu mogła wkroczyć AI, by prawdziwy wywiad przerobić na fałszywy), w którym opowiada o swoich dużych zarobkach generowanych dzięki platformie inwestycyjnej. Warunkiem uzyskania podobnych zarobków było zarejestrowanie się na platformie po podaniu swoich danych. Podobny deepfake dotyczył męża Mensah, Rafała Brzoski, twórcy InPostu. Miał w nim rzekomo założyć platformę, która zapewnia zyski wszystkim „obywatelom Polski”. Biznesmen w imieniu swoim i żony wytoczył wojnę algorytmom Facebooka, przyzwalającym na zamieszczanie takich fałszywych treści jako płatne treści i reklamy. Na razie prezes Urzędu Ochrony Danych Osobowych w związku ze skargą Rafała Brzoski wydał na początku sierpnia postanowienie zabezpieczające, zobowiązujące Meta Platforms Ireland Limited do wstrzymania wyświetlania w serwisach Facebook i Instagram reklam wykorzystujących prawdziwe dane Brzoski. Zakaz miał obowiązywać trzy miesiące i dotyczył fałszywych reklam wyświetlanych na terytorium Rzeczypospolitej Polskiej.
Drugą częścią oszustwa finansowego jest często tradycyjny kontakt telefoniczny i przekonanie nieświadomego człowieka, że może za pomocą zainstalowanego oprogramowania i jakiegoś przelewu zarobić mnóstwo pieniędzy.
– Oszustwem przez telefon są też spoofingi telefoniczne, w których audio jest preparowane za pomocą sztucznej inteligencji. Przestępcy biorą jakiś wycinek wypowiedzi popularnej osoby dostępny w sieci, np. z wywiadu w telewizji, podkładają głos i tworzą plik audio o dowolnej treści, w którym znana osoba namawia do inwestowania – opisuje Rafał Wolert. – Słyszymy głos znanego prezentera, który obiecuje niezwykle wysoki zarobek, jeśli tylko zainstalujemy w komputerze albo na smartfonie odpowiedni program albo przelejemy, wcześniej klikając w link, drobną sumę pieniędzy w celach „kontrolnych”.
PORNOGRAFICZNE DEEPFAKI
Deepfaki mogą służyć nie tylko naciąganiu ludzi na fałszywe inwestycje albo podawanie danych osobowych. Wielkim zagrożeniem jest też możliwość wykreowania za pomocą AI filmów pornograficznych, również materiałów tego typu z udziałem dzieci.
„Dziś, wykorzystując sztuczną inteligencję, można (…) dziecko ze zdjęcia »rozebrać« i stworzyć filmik pornograficzny z jego udziałem, który stanie się wiralem” – ostrzega na łamach „Gazety Wyborczej” Aleksandra Rodzewicz, nauczycielka dyplomowana, ekspertka Instytutu Badań Edukacyjnych, twórczyni profilu #Facetka_z_Poradni. Dlatego radzi, by nie publikować zdjęć swoich dzieci w mediach społecznościowych ani też ich nie udostępniać w komunikatorach. – Jeśli udostępniam jakieś zdjęcie w najbliższym kręgu, to nigdy nie wiem, co ktoś z tego kręgu z nim zrobi. Może uzna, że moje dziecko jest tak urocze, a filmik taki słodki, że postanowi je podać dalej? To nie jest tak, że wyjmujemy z albumu fotografię i pokazujemy ją tylko najbliższym. Wrzucając film czy zdjęcie do przestrzeni cyfrowej, przestajemy być ich właścicielami – mówi Rodzewicz. O ryzykach przestrzegają także UODO wraz z Fundacją Orange w wydanym wspólnie poradniku „Wizerunek dziecka w internecie. Publikować czy nie?”.
BOTY SIEJĄ DEZINFORMACJĘ
Na inne zagrożenie ze strony AI zwraca uwagę Rafał Wolert. Chodzi o kampanie dezinformacyjne. – W przypadku treści związanych z fake newsami nie wiadomo od razu, czy są wytworzone przez AI czy przez ludzi, ale przy deepfake’ach, zwłaszcza na takich platformach jak X, boty prorosyjskie często korzystają z modeli językowych. Bez wątpienia na X występują konta, które specjalnie sieją dezinformację, przekłamują fakty, podają dalej podobne treści i są ściśle związane z działalnością Rosji. Co ciekawe, obserwowałem też przypadek współdziałania ze sobą kont zarówno prorosyjskich, jak i proamerykańskich, czyli botów po obu stronach, które same sobie dawały narrację – opowiada Wolert.
HALUCYNACJA CHATA
Modele chatów są jak ludzie – czasami lubią podkoloryzować rzeczywistość albo po prostu nakłamać. O ryzyku halucynacji chatów mówi się od lat. Czy coś się poprawiło w tej kwestii? Rafał Wolert nie ma złudzeń. – Niestety to zagrożenie jest najbardziej aktualne dzisiaj, bo modele opierają się na prawdopodobieństwie wystąpienia danego słowa w sekwencji, którą generują. Musimy pamiętać, że nie zawsze to, co powie chatbot, jest w 100 procentach prawdą. Nie mamy wpływu na to, jak chatbot się zachowa. Z kolei eksperci od cyberbezpieczeństwa powinni zapewnić, by takie modele były bezpieczne dla użytkownika, a ich halucynacje minimalne. Takie narzędzia już są. Na przykład możemy zabezpieczyć dany model przed publikowaniem treści rasistowskich, obraźliwych, wulgarnych, toksycznych. Te narzędzia są jednak w fazie rozwoju, nie możemy być w stu procentach pewni, że nadążają za zmianami i rozwojem AI – ostrzega analityk systemów bezpieczeństwa w CERT Orange Polska.
UWAŻAJ, CZYM KARMISZ AI
Jak wspomniał na początku Grzegorz Zembrowski, wytwory AI mogą być zagrożeniem nie tylko dla jej odbiorców, ale też dla jej użytkowników. – Wpisując cokolwiek w okienko prompta chata AI, dzielimy się tym, być może, z całym światem. Jeżeli przypadkiem wpiszemy tam swój login i hasło, klucze szyfrujące albo fragment kodu naszego autorskiego programu (bo np. chcemy, by sztuczna inteligencja coś poprawiła), to udostępniamy te dane być może większej liczbie osób. Jeśli używamy asystenta AI, to dane, które do niego wysyłamy, mogą zostać przechwycone przez atakującego. Kolejny przykład: jeśli nasz model LLM (large language models) ma dostęp do bazy danych firmowych, bo jego zadaniem jest robienie podsumowań, to te dane – cenne dla konkurencji – mogą wyciec. Z kolei używając nieostrożnie modeli pobranych z internetu, możemy sobie sami uruchomić malware, czyli złośliwe oprogramowanie, które zainfekuje nasz system.
Rafał Wolert rozumie użytkowników np. chatów, którzy zachłysnęli się możliwościami sztucznej inteligencji. Jednak przestrzega: – Wszyscy chcą używać AI, nawet w projektach, które są kluczowe dla przedsiębiorstw albo dotyczą wrażliwych danych. Dobrze, że dzięki sztucznej inteligencji sporo spraw idzie do przodu, a organizacje sięgają po nowe technologie, chcą je rozwijać, inwestować w nie. Jednak zawsze musimy pamiętać o bezpieczeństwie. Istotne, by bezpieczeństwo w sztucznej inteligencji wypracować, aby oparte na niej rozwiązania były bezpieczne. Dziś na rynku trudno znaleźć jasne wytyczne, kroki czy regulacje mówiące o bezpieczeństwie AI. Oczywiście są akty prawne, które ostatnio weszły w życie, np. europejski AI Act, wytyczne takie jak OWASP 10 albo NIST (National Institute of Standards and Technology). Zagrożenie dla danych jest jednak nadal duże.
Co szczególnie powinniśmy chronić? – Chodzi przede wszystkim o bezpieczeństwo danych, które wykorzystujemy podczas uczenia AI i którymi ją „karmimy” – odpowiada Rafał Wolert. – Załóżmy, że firma przetwarza dane z faktury klienta. Klient ma dostęp do chatbota, który wyjaśnia wątpliwości związane z fakturami. I tu niezbędne jest zabezpieczenie tych wrażliwych danych, które ma model, by nie doszło np. do wycieku. Priorytetem jest zapewnienie bezpieczeństwa danych użytkownika. Może on otrzymać od modelu niebezpieczną lub złośliwą treść albo „nakarmić” model AI czymś, co będzie niebezpieczne dla firmy – tłumaczy Wolert.
Czy trzeba się też martwić, używając chatów renomowanych firm, za które płacimy subskrypcję? – Firma gwarantuje, że z danymi nic się nie będzie działo. Jednak zawsze istnieje ryzyko, bo AI się cały czas rozwija, ale równocześnie powstają też mechanizmy obronne. Rozwiązania typu LLM Guard. Tacy „strażnicy”, którzy pilnują, czy to, co jest wysyłane do modelu i odbierane z niego, spełnia jakieś wymogi, np. czy nie ma tam loginów i haseł, bądź czy nie było to pytanie o instrukcję stworzenia bomby. Są też pierwsze próby tworzenia antywirusów do modeli. Pobieramy model, bo chcemy go uruchomić lokalnie, to mamy coś, czym możemy przeskanować ten plik, żeby sprawdzić, czy nie zawiera jakiegoś złośliwego oprogramowania. Wraz ze wzrostem skali zagrożeń rośnie też obronność, to naturalny proces w IT – dodaje Zembrowski.
AI JAKO TARCZA OBRONNA
Pojawia się pytanie, czy Facebook albo X nie mogą blokować reklam, które są stworzone po to, by naciągać ludzi?
W przypadku Omeny Mensah i batalii jej męża Rafała Brzoski o usunięcie postów informujących o jej śmierci Meta wystosowała odpowiedź, że pracują nad tym, by podobnych „artykułów” nie było. Takie reklamy bywają kasowane z powodu zgłoszeń użytkowników, informujących, że te treści wprowadzają w błąd. Jednak po stronie tworzących tego typu reklamy może być już pełna automatyzacja, jeśli chodzi o tworzenie kontentu, domen czy dystrybucję. Automatyzacja potrzebna jest także do wykrywania i zdejmowania ich na bieżąco z mediów społecznościowych, nie na zasadzie zgłoszenia i reakcji dopiero po np. 12 godzinach.
Dlatego CERT Orange Polska zaciągnął sztuczną inteligencję do służby bezpieczeństwu. Mechanizm ten jest rozwijany od około czterech–pięciu lat. – W CERT Orange Polska właśnie przy użyciu AI wykrywamy fałszywe strony internetowe, robimy to na podstawie domen, które widzimy w naszym polskim internecie – wyjaśnia Grzegorz Zembrowski. – I te miliony stron, które się codziennie pojawiają, jesteśmy w stanie przejrzeć wyłącznie za pomocą sztucznej inteligencji. Zrobić klasyfikacje, zdecydować, która domena jest fałszywa, która jest phishingowa, a która nie. Mamy bardzo dużą skuteczność CyberTarczy, naszego autorskiego rozwiązania. Oczywiście borykamy się z problemem skali, bo milion stron internetowych dziennie, nawet dla takiego operatora jak my, jest trudno dostępne pod względem analitycznym. Nie jesteśmy w stanie zrobić miliona screenshotów dziennie. W CERT Orange Polska zbieramy reklamy facebookowe i klasyfikujemy je za pomocą modelu. Jeżeli reklama została uznana za phishingową, to blokujemy domenę, do której prowadzi. Wtedy nikt korzystający z usług Orange nie ma dostępu do tej strony i nie jest narażony na potencjalne niebezpieczeństwo utraty danych i pieniędzy – dodaje Zembrowski.
AI SZANSĄ DLA EDUKACJI
Sztuczna inteligencja, jak widać, może być naszym orężem w cyfrowym świecie, ale też uwolnić nas od najbardziej żmudnych, powtarzalnych czynności, które wykonujemy w pracy. Ma zdolności błyskawicznego analizowania dużych zbiorów danych i wyciągania z nich tych informacji, których potrzebujemy. Wreszcie służy jako kreatywna prawa ręka, dostarczając w trymiga np. atrakcyjne (choć nie zawsze bezbłędne) grafiki.
Inne zastosowanie dla sztucznej inteligencji (choć sama od razu zastrzega, że podchodzi do tej technologii ostrożnie i nigdy nie dałaby się jej pochłonąć) podsuwa Ewa Przybysz-Gardyza, była nauczycielka, obecnie ekspertka fundacji Instytut Cyfrowego Obywatelstwa, zajmująca się edukacją w zakresie nowych technologii. – Postrzegam sztuczną inteligencję jako szansę na wprowadzenie zmian w edukacji i przełożenie wajchy z przekazywania wiedzy na pozwalanie dzieciom, by tę wiedzę odkrywały. Sztuczna inteligencja to ułatwia. Możemy dzięki niej łatwiej wyszukiwać informacje, a niekoniecznie uczyć się ich na pamięć, bo encyklopedię nosimy w kieszeni, nie musimy jej mieć w głowie. Możemy oglądać jakieś wydarzenia historyczne czy procesy chemiczne przez okulary VR czy AR, które sprawią, że jesteśmy w stanie głębiej wejść w te elementy nauki, zrozumieć je. Mam nadzieję, że AI w edukacji pójdzie w kierunku umożliwienia dzieciom analizowania, co i dlaczego się wydarzyło, jakie to przynosi skutki, jak to wykorzystać. Bardziej w kierunku analizy i wyciągania wniosków niż wkuwania na pamięć. Pojawienie się takiej technologii jak sztuczna inteligencja już wymusza zmiany w edukacji, bo jeśli uczniowie zaczęli korzystać ze sztucznej inteligencji do pisania wypracowań, to wiadomo, że nauczyciel musi na to jakoś zareagować. Zadawanie pisania wypracowań w domu traci sens – zauważa ekspertka.
JAK AI NA NAS WPŁYNIE?
Skoro sztuczna inteligencja tak szybko się rozwija i wkrada w każdą dziedzinę życia, powinna być też przedmiotem zainteresowania edukacji. – Tak jak uczymy w szkole o wyszukiwarkach w internecie, o komputerze, tak powinniśmy skierować uwagę uczniów na temat sztucznej inteligencji: jak jej użyć w najprostszej postaci bądź jakiego rodzaju zagrożenia niesie. Dziś w przeglądarce Bing, model Copilot, jest już dostępna jako główny przycisk wyszukiwania. I raczej w tym eksponowanym miejscu pozostanie – uważa Grzegorz Zembrowski. Podobnego zdania jest jego kolega z CERT Orange Polska. – Powinniśmy uczyć o AI w szkołach. Ostatnio znalazłem informację, że w tym roku zorganizowano dla uczniów pierwszą międzynarodową olimpiadę o sztucznej inteligencji. To dobre sprawdzenie wiedzy o AI i bardzo dobry krok, żeby edukować o jej istnieniu, informować, że można się z nią spotykać na co dzień. Uważam, że wiedza o tym powinna być wprowadzana do zajęć, np. na lekcjach informatyki. Tematy o sztucznej inteligencji powinny się pojawiać w szkole, by młodzież wiedziała, jak z niej korzystać w sposób rozsądny i z przekonaniem, że to jest fajne narzędzie, a nie coś, co ma zastąpić ich myślenie. Natknąłem się też na prawdopodobnie pierwszy w Polsce drukowany magazyn o sztucznej inteligencji. Porusza różne tematy, od kreatywności do sztucznej inteligencji w bezpieczeństwie – nie kryje zadowolenia Rafał Wolert.
Ewa Przybysz-Gardyza również uważa, że edukacja w zakresie sztucznej inteligencji powinna zagościć w szkole. – Sądzę, że to przede wszystkim szkoła powinna uczyć młodych ludzi krytycznego myślenia. W domu rodzinnym często nie ma na to przestrzeni. Jeśli dzieci nie uczą się tego w szkole, same niekoniecznie naturalnie są wyposażone w umiejętność krytycznego spojrzenia na technologię. Dają się wciągnąć różnym aplikacjom używanym przez rówieśników. Dzieci kładą bardzo duży nacisk na multimedialną formę rozrywki, coś, co jest śmieszne, zabawne, wciąga. Wiele firm budujących aplikacje dla dzieci używa sztucznej inteligencji i młodzież nie jest nawet świadoma, że ma ona wpływ na ich życie – dodaje ekspertka.
W Polsce powstał też kurs poświęcony sztucznej inteligencji, przeznaczony dla nauczycieli i pracowników edukacji – #BurzaMózgów, czyli projekt o AI dla osób pracujących z dziećmi i młodzieżą, organizowany przez Fundację Orange. – W świecie, w którym zmian jest tak dużo i są tak częste, wiedza o tym, gdzie towarzyszy nam sztuczna inteligencja, jakie niesie szanse i zagrożenia, pozwala nam lepiej rozumieć świat. Chcemy wspierać nauczycielki i nauczycieli w zdobywaniu wiedzy, w refleksji i krytycznym podejściu do technologii i w rozmowach na ten temat z młodzieżą – mówi Małgorzata Kowalewska z Fundacji Orange.
– Wystartowaliśmy w 2022 roku z pełną edycją. Kurs online składa się z 12 bloków tematycznych. Po części jest to kurs wideo, który można robić samodzielnie, mamy też wydarzenia wspomagające w formie webinarów, warsztatów w szkołach. Na dwie edycje kursu zapisało się łącznie 3788 uczestników, co pokazuje, że nauczyciele chcą być na bieżąco w temacie nowych zjawisk cyfrowych – mówi Maciej Wojnicki z LOFI Robot, współorganizator projektu. I dodaje: – Moim osobistym celem przy projektowaniu tego kursu była użyteczność, aby były to informacje i pomysły na lekcje, które nauczyciel może wykorzystać w szkole. Fragmenty kursu wideo prezentowaliśmy w formie przystępnej dla uczniów, z poczuciem humoru, komunikatywnie. Skupialiśmy na zaciekawieniu tematem, przybliżeniu go i „odczarowaniu”.
Dla Wojnickiego kurs o AI dla edukatorów nie mógł się sprowadzać tylko do wiedzy technicznej. – W czasie kursu zastanawiamy się, w jaki sposób AI się rozwija i będzie się rozwijać, jak może zmieniać społeczeństwo, jak będzie wyglądać praca w przyszłości, gdy kolejne dziedziny będą automatyzowane. Stawiamy sobie pytania, jak AI będzie oddziaływać na nasze relacje społeczne, gdy będziemy mogli stworzyć sobie wirtualnego cyfrowego przyjaciela. Czy to jest dobre, czy złe? Wiadomo, że nie ma jednoznacznej odpowiedzi na tak postawione pytanie, ale temat AI jest ciekawym przyczynkiem do dyskusji o ludzkiej naturze. Jak my się w kontekście tej technologii odnajdujemy? Co oznacza dla nas, że nie będziemy być może już niedługo najinteligentniejszym gatunkiem na Ziemi? Że uczniowie, którzy teraz mają 10 lat, już nigdy nie będą bardziej inteligentni niż komputer, bo komputery rozwijają się dużo szybciej we wszystkich kognitywnych, intelektualnych umiejętnościach? Na kursie staramy się opowiadać o tym od humanistycznej strony, żeby zdobyta wiedza była uniwersalna i dotyczyła zjawiska, a nie samych narzędzi – kończy Wojnicki.
CHATBOTY ZAMIAST ROZMÓWEK
Jedną z kursantek #BurzyMózgów była Anna Krześniak, nauczycielka języka niemieckiego w Szkole Podstawowej Stowarzyszenia „Złoty Potok” w Łące Prudnickiej. – Jestem pasjonatką nowoczesnej technologii i chętnie wykorzystuję innowacyjne metody nauczania w mojej pracy. Sztuczna inteligencja oferuje wiele możliwości w postaci interaktywnych narzędzi edukacyjnych, a kurs umożliwił mi korzystanie z różnych aplikacji AI – opowiada o swoich wrażeniach.
Krześniak przed kursem była przekonana, że już sporo wie o sztucznej inteligencji. – Okazało się jednak, że 80 proc. kursu jest dla mnie zupełnie nowym doświadczeniem. Przykładami mogą być uczenie maszynowe, czyli jak szybko AI może się uczyć, zjawisko emergencji oraz kwestia związana z etyką i prywatnością w kontekście AI. Kurs ten pokazał mi, jak korzystać z chatbotów, np. do symulacji rozmów w języku niemieckim, do odgrywania ról, do generowania obrazów i tworzenia prezentacji. Dzięki tej wiedzy potrafię również przygotować konspekt lekcji na podstawie wytycznych, a także modyfikować go według zaleceń, wygenerować tekst z zadaniami, test lub kartkówkę oraz gry edukacyjne. Poza tym tworzyliśmy z uczniami prostą grę w zgadywanie liczb w języku niemieckim i aplikację do tłumaczeń – objaśnia efekty wiedzy wyniesionej z kursu.
Anna Krześniak uważa, że uczniowie mają coraz większe pojęcie o sztucznej inteligencji, jednak nie jest to jeszcze wiedza szczegółowa. – Niewielu zdaje sobie sprawę z tego, w ilu dziedzinach życia jest ona wykorzystywana. Skupiają się przede wszystkim na związanych z nią szansach, a mniej na zagrożeniach. Dlatego tak ważne jest ciągłe edukowanie ich w tym kierunku. Kluczowym aspektem jest myślenie krytyczne, czyli ocenianie wiarygodności informacji generowanych przez AI oraz korzystanie z technologii w sposób odpowiedzialny i etyczny – dodaje nauczycielka.
Taka wiedza, przekazana przez odpowiednio wyedukowanych nauczycieli, przydałaby się nie tylko młodzieży. Sztuczna inteligencja, uczenie maszynowe czy robotyzacja to słowa zagadki dla wielu dorosłych, którzy nawet nie zdają sobie sprawy, że AI już jest w ich smartfonach, samochodach i w komputerze lekarza.
ZASADY BEZPIECZNEGO KORZYSTANIA Z NARZĘDZI AI
• Upewnij się, że dane, które wprowadzasz do systemu generatywnej sztucznej inteligencji (AI), nie zawierają poufnych informacji ani danych osobowych.
Wprowadzane dane powinny być zanonimizowane, aby chronić prywatność i bezpieczeństwo informacji. Nieprawidłowe udostępnianie danych osobowych, tajemnic przedsiębiorstwa czy innych informacji prawnie chronionych może prowadzić do poważnych naruszeń prawa, a w konsekwencji do kar administracyjnych, odpowiedzialności odszkodowawczej czy nawet odpowiedzialności karnej.
• Sprawdzaj informacje generowane przez AI. Rezultaty działania systemu generatywnej AI powinny być zawsze weryfikowane przez człowieka.
Nawet najbardziej zaawansowane systemy sztucznej inteligencji nie są wolne od wad i potencjalnych błędów. Halucynacje AI mogą obejmować błędne fakty, fikcyjne informacje, nieistniejące wydarzenia, a nawet tworzenie fałszywych cytatów czy dokumentów. Może to prowadzić do poważnych konsekwencji, dlatego ważny jest nadzór człowieka i weryfikowanie generowanych treści.
• Stosuj odpowiednie prompty, aby uzyskać trafne, bezpieczne i wartościowe wyniki z systemów AI.
W walce z halucynacjami AI pomocne są precyzyjne instrukcje: im jaśniejsze, bardziej szczegółowe i konkretne polecenie, tym mniejsze ryzyko ich wystąpienia. Pomocna jest też kontekstualizacja zapytań, czyli dostarczanie AI dodatkowej wiedzy, kontekstu lub przykładów, z których może korzystać (np. „Wyobraź sobie, że jesteś prawnikiem…”). Często nawet drobne modyfikacje w formacie promptu, np. dodanie specyficznych słów kluczowych czy podanie oczekiwanego formatu odpowiedzi, mogą znacząco poprawić precyzję i wiarygodność generowanych wyników.
• Rozwijaj kompetencje w zakresie AI – zdobywaj wiedzę i umiejętności, aby efektywnie korzystać z nowoczesnych narzędzi technologicznych.
Zrozumienie, w jaki sposób działają systemy AI, jakie są ich możliwości i ograniczenia oraz jakie potencjalne zagrożenia mogą stwarzać, jest kluczowe. Świadomość zarówno korzyści, jak i ryzyk związanych z AI ma zasadnicze znaczenie dla jej świadomego i odpowiedzialnego wykorzystania. Posiadanie odpowiedniej wiedzy pozwala lepiej przewidywać i minimalizować potencjalne zagrożenia, co przyczynia się do bezpieczniejszego korzystania z narzędzi opartych na AI.
• Korzystaj odpowiedzialnie – weryfikuj narzędzia AI.
Zanim zaczniesz korzystać z narzędzi opartych na sztucznej inteligencji, zapoznaj się z regulaminem/umową, które określają szczegółowe zasady używania danego narzędzia. Ważne jest, aby zweryfikować kilka kluczowych kwestii: czy wykorzystuje ono nasze dane do trenowania modeli oraz czy można tego odmówić lub wyłączyć taką opcję, kto ma dostęp do danych, które wprowadzimy, czy istnieją ograniczenia w korzystaniu z wygenerowanych treści oraz kto ponosi odpowiedzialność za ich użycie.
Opracowanie Fundacja Forum Bezpieczeństwa
Katarzyna Pachelska