Nowe zasady dla platform: DSA zapewnia większą przejrzystość i bezpieczeństwo!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

FernUniversität Hagen omówi ustawę o usługach cyfrowych i jej skutki społeczne na dorocznym posiedzeniu w 2025 r.

Die FernUniversität Hagen diskutiert den Digital Services Act und dessen gesellschaftliche Auswirkungen auf der Jahrestagung 2025.
FernUniversität Hagen omówi ustawę o usługach cyfrowych i jej skutki społeczne na dorocznym posiedzeniu w 2025 r.

Nowe zasady dla platform: DSA zapewnia większą przejrzystość i bezpieczeństwo!

12 marca 2025 r. na berlińskim kampusie FernUniversität w Hagen odbyła się coroczna konferencja poświęcona badaniom nad kulturą cyfrową, podczas której omawiano centralne wydarzenie w kontekście nowego prawa UE, ustawy o usługach cyfrowych (DSA). Konferencja zatytułowana „Tysiąc platform” dotyczyła głębokich zmian zachodzących w dyskursie publicznym i platformach cyfrowych.

Dr Thorben Mämecke, dyrektor naukowy obszaru badawczego, zwrócił uwagę, że od 2008 roku obserwuje się internacjonalizację oferty mediów społecznościowych, którą określa się mianem „platformizacji”. Ustawa DSA, uchwalona w lutym 2024 r., uznaje ryzyko społeczne związane z dużymi platformami i ustanawia wiążące ramy regulacyjne.

Ustawa o usługach cyfrowych: nowe ramy dla platform

DSA ma zastosowanie do wszystkich platform cyfrowych na europejskim rynku wewnętrznym, niezależnie od ich lokalizacji. Szczególne regulacje dotyczą bardzo dużych platform internetowych (VLOP) i bardzo dużych wyszukiwarek internetowych (VLOSE), które przynajmniej raz w roku mają obowiązek identyfikować i analizować ryzyka wynikające ze swoich usług. Zagrożenia te obejmują między innymi rozpowszechnianie nielegalnych treści i dezinformacji, a także zagrożenie dla ochrony nieletnich.

Platformy mają obowiązek wyjaśnić, jakie środki podjęto w celu ograniczenia tego ryzyka. Współpraca z niezależnymi osobami weryfikującymi fakty jest postrzegana jako skuteczna w ograniczaniu ryzyka systemowego. Wymogi te są szczególnie istotne w odniesieniu do uczciwości wyborów i dyskursu społeczeństwa obywatelskiego. Przed wprowadzeniem nowych funkcji o potencjalnie krytycznych skutkach VLOP muszą przeprowadzić ocenę ryzyka i przedłożyć ją Komisji Europejskiej. Raporty głównych dostawców, takich jak Meta i X, są publicznie dostępne niemcy.representation.ec.europa.eu zgłoszone.

Podejścia metodologiczne i odpowiedzialność społeczna

Na konferencji poruszono także kwestie metodologiczne dotyczące analizy mechanizmów platformowych. Skupiono się tutaj na podejściu jakościowym i ilościowym, a także na dostępie do danych procesowych. W dyskusji wzięli także udział przedstawiciele organizacji pozarządowych, takich jak Towarzystwo Praw Wolności. Wyniki i ustalenia konferencji będą kontynuowane w antologii.

Równolegle z konferencją ruszył cykl filmów „Teoria | Aparatura” poruszający zjawiska społeczno-techniczne. Rozpoczyna się tematem „Mowy nienawiści”, a wiosną 2025 r. planuje opublikować nowy odcinek poświęcony „Internetowi rzeczy” (IoT), który zajmuje się tworzeniem sieci obiektów fizycznych i ich skutkami społecznymi. Premiera tego odcinka zaplanowana jest na 16 kwietnia 2025 roku w ramach Pogadanek Naukowych Wydziału Nauk o Kulturze i Społecznych.

Na koniec dr Mämecke stwierdziła, że ​​należy w dalszym ciągu uważnie monitorować przyszły rozwój sytuacji, np. możliwą deregulację dokonaną przez Marka Zuckerberga. Tak dynamiczne zmiany w przestrzeni cyfrowej wymagały ciągłego dialogu i dostosowywania przepisów, aby zapewnić użytkownikom i przedsiębiorstwom w UE bezpieczne i sprawiedliwe środowisko cyfrowe.

UE pracuje nad kompleksowymi ramami prawnymi, które obejmują DSA i ustawę o rynkach cyfrowych. Obie ustawy mają na celu określenie wytycznych dla świata cyfrowego i stworzenie bezpiecznego środowiska cyfrowego europarl.europa.eu przegląd najważniejszych wydarzeń. Postęp ostatnich kilkudziesięciu lat, kiedy Internet dogłębnie zmienił świat, wymaga tak dostosowanych ram, aby dotrzymać kroku szybkiemu rozwojowi technologicznemu.