Rewolucja w klasie: jak sztuczna inteligencja kształtuje edukację przyszłości!
Bucerius Law School aktywnie włącza się w dyskusję na temat sztucznej inteligencji w Europie, promując transformację edukacyjną i standardy prawne.

Rewolucja w klasie: jak sztuczna inteligencja kształtuje edukację przyszłości!
Bucerius Law School aktywnie uczestniczy w bieżących dyskusjach na temat sztucznej inteligencji (AI) i transformacji cyfrowej w polityce edukacyjnej Unii Europejskiej. Lezel Roddeck, dyrektor ds. komunikacji językowej w Bucerius Law School, wniósł znaczący wkład w powstanie raportu „Wyjaśniona sztuczna inteligencja (XAI) w edukacji: wspieranie nadzoru ludzkiego i wspólnej odpowiedzialności”. Niniejszy raport jest wynikiem wysiłków Europejskiego Centrum Edukacji Cyfrowej (EDEH) i Komisji Europejskiej mających na celu promowanie godnej zaufania sztucznej inteligencji w edukacji. Szkoła Prawa Buceriusa informuje, że Roddeck był częścią grupy roboczej, która opracowała te wytyczne.
W swoim rozdziale „Nawigacja w zakresie zgodności z ustawą UE o sztucznej inteligencji, RODO i powiązanymi przepisami cyfrowymi” Roddeck podkreśla, w jaki sposób instytucje edukacyjne i programiści mogą znaleźć wskazówki prawne dotyczące unijnej ustawy o sztucznej inteligencji i ogólnego rozporządzenia o ochronie danych (RODO). W raporcie podkreślono przejrzystość, sprawiedliwość i ochronę praw uczniów jako kluczowe zasady stosowania sztucznej inteligencji w sektorze edukacji.
Europejskie regulacje dotyczące sztucznej inteligencji
Według Ustawa UE o sztucznej inteligencji Wiele zastosowań sztucznej inteligencji w edukacji uważa się za „systemy wysokiego ryzyka”. Ustawa o AI ustala różne zasady dla dostawców i użytkowników systemów AI w zależności od poziomu ryzyka. Wiele z tych systemów należy poddać ocenie przed wprowadzeniem ich na rynek i przez cały cykl ich życia. Szczególnie wrażliwe są ryzyka niedopuszczalne, takie jak manipulacja poznawczo-behawioralna grup bezbronnych lub społeczna ocena jednostek.
Ponadto systemy sztucznej inteligencji wysokiego ryzyka dzielą się na dwie kategorie: systemy stosowane w produktach objętych przepisami UE dotyczącymi bezpieczeństwa produktów oraz systemy podlegające jurysdykcji w określonych obszarach, takich jak edukacja i zdrowie. Instytucje edukacyjne mają prawo składać skargi dotyczące systemów sztucznej inteligencji do odpowiednich organów krajowych i muszą przestrzegać najnowszych wymogów w zakresie przejrzystości.
Praktyczne podejścia i przyszłe wyzwania
Podczas warsztatów społecznościowych EDEH, które odbyły się w dniach 17–18 października 2024 r. w Brukseli, w których uczestniczyli także przedstawiciele Szkoły Prawa Bucerius, opracowano praktyczne podejścia do wdrażania wyjaśnialności w kontekstach edukacyjnych. Wyniki warsztatów pokazały rozwój standardów wyjaśnialności danych i przejrzystości sztucznej inteligencji w sektorze edukacji, a także utworzenie regulacyjnych „piaskownic” do testowania aplikacji AI.
Inicjatywy te są ważne, ponieważ wykorzystanie sztucznej inteligencji w edukacji może znacząco zmienić proces uczenia się, nauczania i pracy. Jednak wiele przypadków użycia znajduje się obecnie nadal w fazie testowania. Aby umożliwić powszechne wdrożenie, wymagane jest m.in. infrastruktura techniczna, niezbędne umiejętności nauczycieli i pedagogiczne dostosowanie programów nauczania. Deloitte'a Podkreśla, że ochrona danych i etyka to główne kwestie, które będą kształtować przyszły krajobraz edukacyjny.
Aby spełnić wymogi unijnej ustawy o sztucznej inteligencji, instytucje edukacyjne mają obowiązek zapewnić zgodność, zintegrować programy nauczania dotyczące AI oraz przeprowadzić pilotażowe projekty testujące zastosowania AI w praktyce. Jednocześnie promowanie umiejętności sztucznej inteligencji wśród nauczycieli i uczniów ma kluczowe znaczenie dla napędzania cyfryzacji w sektorze edukacji.
