SCENARIUSZ ZAJĘĆ / WARSZTATÓW – Jak działa AI w tworzeniu i zwalczaniu fake newsów?

Temat główny: Jak działa AI w tworzeniu i zwalczaniu fake newsów?
Czas trwania: ok. 4 godziny lekcyjne (180 minut)
Grupa docelowa: młodzież w wieku 13–18 lat
Forma: warsztaty z elementami wykładu, pracy w grupach, analizy przypadków i quizu
Cele główne:

  • Zrozumienie pojęcia dezinformacji i jej wpływu społecznego
  • Poznanie sposobów wykorzystania AI do walki z fake newsami
  • Nabycie umiejętności rozpoznawania treści generowanych przez AI
  • Wzmacnianie krytycznego myślenia i refleksji nad wiarygodnością informacji
    Plan zajęć
  1. Wprowadzenie do tematu (30 minut)
  • Pytania otwierające: Co wiesz o sztucznej inteligencji? Czy AI potrafi kłamać?
  • Prezentacja pojęć: AI, generatywna AI, deepfake, chatboty
  • Mini wykład: „AI jako twórca i strażnik informacji”

2. Przykłady działania AI – praktyczne ćwiczenia (45 minut)

  • Analiza materiałów: obrazy i teksty stworzone przez AI vs człowiek
  • Ćwiczenie: „Zgadnij, co stworzyła AI” (slajdy lub karteczki)
  • Dyskusja: Jak rozpoznać treść generowaną sztucznie? Jakie pułapki może zawierać?

3. Jak AI wspiera fact-checking? (30 minut)

  • Prezentacja narzędzi: InVID, Google Fact Check, Snopes, NewsGuard
  • Przykład działania – analiza fałszywego newsa z wykorzystaniem narzędzi
  • Dyskusja: Czy AI może być obiektywna?

4. Projekt grupowy – tworzę i demaskuję (45 minut)

  • Zadanie: Grupy tworzą fake newsa generowanego przez AI (tekst, obraz, nagłówek)
  • Wymiana materiałów między grupami – analiza i „demaskacja” przy użyciu narzędzi
  • Podsumowanie: Czego nauczyło mnie to ćwiczenie?
  1. Podsumowanie i refleksja (15 minut)
  • Otwarte pytania: Czy AI to zagrożenie, czy szansa? Jakie mamy narzędzia obrony?
  • Wypisanie „5 zasad krytycznego odbioru informacji generowanych przez AI”
    5 ZASAD KRYTYCZNEGO ODBIORU INFORMACJI GENEROWANYCH PRZEZ AI:
  1. Zawsze sprawdzaj źródło
    Nawet jeśli tekst wygląda profesjonalnie i logicznie – AI może wygenerować go bez żadnego
    oparcia w faktach. Upewnij się, że informacja pochodzi z wiarygodnego źródła: portalu,
    autora, instytucji.

2. Weryfikuj fakty, nie tylko styl
AI potrafi tworzyć teksty i obrazy, które brzmią wiarygodnie, ale zawierają nieprawdziwe dane.
Porównuj treść z innymi źródłami, korzystaj z narzędzi do fact-checkingu.

3. Zwracaj uwagę na emocjonalny język
AI może generować nagłówki i treści, które celowo wywołują silne emocje. To typowy
mechanizm manipulacji. Gdy coś Cię oburza – zatrzymaj się i pomyśl.

4. Zastanów się: kto mógłby skorzystać na tej informacji?
Zadaj sobie pytanie: „Po co ktoś to stworzył?” – informacja generowana przez AI mogła
powstać w celu wywarcia wpływu, sprzedaży, zastraszenia lub polaryzacji.

5. Nie udostępniaj bezmyślnie – najpierw analizuj
Nawet jeśli treść wydaje się zabawna, wzruszająca lub szokująca – przed kliknięciem
„udostępnij” zadaj sobie kilka pytań: czy to prawda? czy to bezpieczne? czy nie powielam
fałszu?

Scenariusz powstał w ramach programu Ministra Edukacji „Młodzi Obywatele”! realizowanego przez Fundację Ypsilon Art.
Tytuł projektu: „Świadomy obywatel w cyfrowym świecie – jak rozpoznać dezinformację?”