Pomówmy o bezpieczeństwie marek w kontekście rozwoju GenAI (i nie tylko)
W Meta wiele czasu poświęcamy na rozmowy z reklamodawcami i agencjami z całego świata, którzy podkreślają, że oczekują od platform zapewnienia bezpieczeństwa markom oraz kontroli i przejrzystości systemu reklamowego
W czasach, gdy cykl informacyjny trwa 24 godziny na dobę, reklamodawcy muszą stale uwzględniać ryzyko w swoich działaniach. Wymaga to ciągłego dostosowywania strategii mediowej do zmieniającej się rzeczywistości – od kreacji, przez targetowanie i budżety, aż po bezpieczeństwo marki.
Bycie przygotowanym na niespodziewane to podstawa: w ciągu ostatniego roku byliśmy świadkami szybkiego rozwoju generatywnej AI, nowych konfliktów geopolitycznych i ciągłych zmian makroekonomicznych. W tym roku ponad 2 miliardy ludzi idzie do urn wyborczych.
W Meta wiele czasu poświęcamy na rozmowy z reklamodawcami i agencjami z całego świata, którzy podkreślają, że oczekują od platform zapewnienia bezpieczeństwa markom oraz kontroli i przejrzystości systemu reklamowego.
Z tego względu chciałbym podzielić się kilkoma rozwiązaniami, które wprowadzamy w kontekście rozwoju GenAI, ale także - wyborów w ponad 50 krajach na świecie, które odbyły i będą odbywać się w tym roku.
JAK DOTRZYMUJEMY KROKU SZTUCZNEJ INTELIGENCJI
Jednym z naszych podstawowych zobowiązań jest usuwanie treści niezgodnych z zasadami platform – także tych, które zostały stworzone lub zmodyfikowane przez sztuczną inteligencję. AI od lat napędza tworzenie technologii pozwalającej nam na zautomatyzowanie egzekwowania zasad. Wierzymy też, że rozwój AI będzie nam w tym tylko pomagał.
Ludzie powinni wiedzieć, czy to, co widzą w internecie, zostało stworzone przez sztuczną inteligencję. Zwłaszcza, gdy treści dotyczą wyborów. Wprowadziliśmy nowe zasady obejmujące reklamy tworzone z wykorzystaniem AI i dotyczące polityki lub kwestii społecznych. Poinformowaliśmy także, w jaki sposób oznaczamy treści tworzone przez AI, które są publikowane na naszych platformach.
KOMPLEKSOWE PODEJŚCIE DO WYBORÓW
Zadbanie o kwestie związane z wyborami w przestrzeni internetowej to temat zbyt złożony, by mogła się nim zajmować tylko jedna firma. Dlatego wraz z 20 innymi firmami technologicznymi Meta podpisała porozumienie dotyczące zwalczania szkodliwego wykorzystania AI w wyborach w 2024 roku (A Tech Accord to Combat Deceptive Use of AI in 2024 Elections).
Żadna inna firma technologiczna nie robi, ani nie inwestuje więcej niż Meta w związku z ochroną wyborów w internecie – nie tylko w okresie wyborczym. Około 40 tysięcy osób pracuje codziennie nad bezpieczeństwem platform. W 2016 roku zainwestowaliśmy ponad 20 miliardów dolarów w zespoły i technologie, które mają w pomóc w tym obszarze. Chcemy dawać ludziom przestrzeń, w której mogą swobodnie się wypowiadać, promować uczestnictwo w społeczeństwie obywatelskim, a jednocześnie zwalczać ingerencję w wybory.
Wykorzystujemy naszą technologię, aby wykrywać i usuwać treści naruszające standardy – bez znaczenia, czy zostały stworzone przez AI, czy nie. Specjalnie powołane zespoły monitorują na bieżąco przebieg wyborów. W ramach naszego programu fact-checkingowego współpracujemy z prawie setką partnerów na całym świecie, którzy weryfikują treści w ponad 60 językach – w tym w języku polskim.
I DLA NASTOLATKA, I DLA RODZICA
Cyfrowy świat staje się istotną częścią życia młodych ludzi. To przestrzeń, w której tak jak w realnym świecie muszą czuć się bezpiecznie i komfortowo. Dlatego jako twórcy popularnych platform społecznościowych poważnie podchodzimy do kwestii bezpieczeństwa i dobrego samopoczucia nastolatków online.
W ostatnich latach zarówno Facebook, jak i Instagram stały się jednym z głównych miejsc, w których nastolatki spędzają swój czas. Aby ulepszyć ich doświadczenia na platformie, stworzyliśmy ponad 50 narzędzi i funkcji zaprojektowanych z myślą o młodych ludziach i ich opiekunach, z których większość jest już dostępna w Polsce. Stworzyliśmy także Family Center - miejsce, w którym znajdą materiały, porady ekspertów, wskazówki wspierające rodziny w cyfrowym świecie.
PRIORYTET – BEZPIECZEŃSTWO MARKI
Bezpieczeństwo naszych platform to podstawa. Dlatego niezwykle ważne jest również dla nas, aby reklamodawcy mieli pewność, gdzie i w jakim kontekście pojawiają się ich reklamy.
Od lat oferujemy zestaw opcji dopasowania i bezpieczeństwa marki, a w zeszłym roku uruchomiliśmy także nowy – napędzany AI – filtr asortymentu, który zapewnia dodatkowy poziom kontroli w Aktualnościach na Facebooku oraz Rolkach i Aktualnościach na Instagramie – i dostępny jest m. in. dla języka polskiego. Jeśli nie chcesz, żeby twoje reklamy pojawiały się np. w sąsiedztwie treści dotyczących określonych tematów, możesz zawsze wybrać odpowiednią opcję filtrującą.
Dla większej transparentności reklamodawcy mają również możliwość skorzystania z usług naszych partnerów zewnętrznych. Dają one cenny wgląd w treści, z którymi sąsiadują reklamy i pozwalają dokładnie zmierzyć dopasowanie marki.
Środowiska medialne stają się coraz bardziej złożone, a my równamy krok ze zmianami. Cieszą mnie postępy, jakie poczyniliśmy w kwestii przejrzystości i bezpieczeństwa marek. Wchodząc w drugą połowę tego niezwykłego roku – zarówno pod względem politycznym, jak i technologicznym – będziemy nadal kontynuować naszą pracę na rzecz branży reklamowej.
Adam Nowakowski, partner agencji kreatywnych, CEE