SzukajSzukaj
dołącz do nas Facebook Google Linkedin Twitter

Unia Europejska zabiera się za ChatGPT

Europarlamentarzyści chcą, żeby chatboty, jak słynny już ChatGPT, podlegały unijnym regulacjom, szczególnie w zakresie ochrony praw autorskich. W czwartek zagłosowali za projektem o „etycznym rozwoju” sztucznej inteligencji.

fot. Shutterstock.com fot. Shutterstock.com

W czwartek Komisja Rynku Wewnętrznego i Ochrony Konsumentów oraz Komisja Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych Parlamentu Europejskiego przyjęły projekt mandatu negocjacyjnego w sprawie pierwszych w historii przepisów dotyczących sztucznej inteligencji 84 głosami za, przy 7 głosach przeciw i 12 wstrzymujących się.

W swoich poprawkach do wniosku Komisji posłowie dążą do tego, aby systemy sztucznej inteligencji były nadzorowane przez ludzi, były bezpieczne, przejrzyste, identyfikowalne, niedyskryminacyjne i przyjazne dla środowiska. Chcą również stworzyć jednolitą definicję sztucznej inteligencji tak, aby była neutralna technologicznie, a także mogła mieć zastosowanie do obecnych i przyszłych systemów sztucznej inteligencji.

Podejście do sztucznej inteligencji oparte na ryzyku — zabronione praktyki sztucznej inteligencji

Zasady opierają się na podejściu opartym na ryzyku i określają obowiązki dostawców i użytkowników w zależności od poziomu ryzyka, jaki sztuczna inteligencja może generować. Systemy sztucznej inteligencji o niedopuszczalnym poziomie ryzyka dla bezpieczeństwa ludzi byłyby surowo zabronione, w tym systemy wykorzystujące techniki podprogowe lub celowo manipulacyjne, wykorzystujące słabe strony ludzi lub wykorzystywane do punktacji społecznej (klasyfikacja ludzi na podstawie ich zachowań społecznych, statusu społeczno-ekonomicznego, osobistych cech).

Posłowie do PE znacząco zmienili listę, aby zawierała zakazy natrętnego i dyskryminującego wykorzystania systemów sztucznej inteligencji, takie jak:

  • Systemy zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w miejscach publicznie dostępnych;
  • „Post” systemy zdalnej identyfikacji biometrycznej, z wyjątkiem organów ścigania w celu ścigania poważnych przestępstw i tylko po uzyskaniu zezwolenia sądu;
  • Systemy kategoryzacji biometrycznej wykorzystujące wrażliwe cechy (np. płeć, rasę, pochodzenie etniczne, obywatelstwo, religię, orientację polityczną);
  • Predykcyjne systemy policyjne (oparte na profilowaniu, lokalizacji lub przeszłych zachowaniach przestępczych);
  • Systemy rozpoznawania emocji w organach ścigania, zarządzaniu granicami, miejscu pracy i instytucjach edukacyjnych;
  • Bezkrytyczne pobieranie danych biometrycznych z mediów społecznościowych lub nagrań z monitoringu w celu tworzenia baz danych rozpoznawania twarzy (naruszając prawa człowieka i prawo do prywatności).

Sztuczna inteligencja wysokiego ryzyka

Posłowie rozszerzyli klasyfikację obszarów wysokiego ryzyka o szkody dla zdrowia ludzi, bezpieczeństwa, praw podstawowych lub środowiska. Do listy wysokiego ryzyka dodali również systemy sztucznej inteligencji, aby wpływać na wyborców w kampaniach politycznych i w systemach rekomendacji używanych przez platformy mediów społecznościowych (z ponad 45 milionami użytkowników zgodnie z ustawą o usługach cyfrowych).

Sztuczna inteligencja ogólnego przeznaczenia – środki przejrzystości

Posłowie uwzględnili obowiązki dostawców modeli podstawowych – nowego i szybko rozwijającego się rozwoju w dziedzinie sztucznej inteligencji – którzy musieliby gwarantować solidną ochronę praw podstawowych, zdrowia i bezpieczeństwa oraz środowiska, demokracji i rządów prawa. Musiałyby oceniać i ograniczać ryzyko, spełniać wymogi projektowe, informacyjne i środowiskowe oraz rejestrować się w unijnej bazie danych.

Generatywne modele podstawowe, takie jak GPT, musiałyby spełniać dodatkowe wymagania dotyczące przejrzystości, takie jak ujawnienie, że treść została wygenerowana przez sztuczną inteligencję, zaprojektowanie modelu w taki sposób, aby uniemożliwić generowanie nielegalnych treści i publikowanie podsumowań chronionych prawem autorskim danych wykorzystywanych do szkolenia.

Wspieranie innowacji i ochrona praw obywateli

Aby zwiększyć innowacyjność sztucznej inteligencji, posłowie dodali wyjątki od tych zasad dotyczące działań badawczych i komponentów sztucznej inteligencji dostarczanych na licencji open source. Nowe prawo promuje regulacyjne środowiska testowe (sandbox) lub kontrolowane środowiska tworzone przez władze publiczne w celu testowania sztucznej inteligencji przed jej wdrożeniem.

Posłowie chcą zwiększyć prawo obywateli do składania skarg na systemy AI i otrzymywać wyjaśnienia decyzji opartych na systemach AI wysokiego ryzyka, które znacząco wpływają na ich prawa. Posłowie zreformowali również rolę Biura UE ds. AI, którego zadaniem byłoby monitorowanie wdrażania zbioru przepisów dotyczących sztucznej inteligencji.

Po głosowaniu współsprawozdawca Brando Benifei (S&D, Włochy) powiedział: „Jesteśmy o krok od wprowadzenia w życie przełomowych przepisów, które muszą sprostać wyzwaniu czasu. Kluczowe znaczenie ma budowanie zaufania obywateli do rozwoju sztucznej inteligencji, wyznaczenie europejskiego sposobu radzenia sobie z nadzwyczajnymi zmianami, które już zachodzą, a także ukierunkowanie debaty politycznej na temat sztucznej inteligencji na poziomie globalnym. Jesteśmy przekonani, że nasz tekst równoważy ochronę praw podstawowych z potrzebą zapewnienia przedsiębiorstwom pewności prawa i stymulowania innowacji w Europie”.

Współsprawozdawca Dragos Tudorache (Odnówmy Europę, Rumunia) powiedział: „Biorąc pod uwagę głęboki transformacyjny wpływ sztucznej inteligencji na nasze społeczeństwa i gospodarki, ustawa o sztucznej inteligencji jest najprawdopodobniej najważniejszym aktem prawnym w tej kadencji. Jest to pierwszy akt prawny tego rodzaju na świecie, co oznacza, że UE może przewodzić w tworzeniu sztucznej inteligencji, która będzie skoncentrowana na człowieku, godna zaufania i bezpieczna. Pracowaliśmy na rzecz wspierania innowacji w zakresie sztucznej inteligencji w Europie oraz zapewnienia start-upom, MŚP i przemysłowi przestrzeni do rozwoju i innowacji, przy jednoczesnej ochronie praw podstawowych, wzmocnieniu demokratycznego nadzoru i zapewnieniu dojrzałego systemu zarządzania i egzekwowania sztucznej inteligencji”.

Następne kroki

Zanim rozpoczną się negocjacje z Radą w sprawie ostatecznego kształtu ustawy, projekt mandatu negocjacyjnego musi zostać zatwierdzony przez cały Parlament, a głosowanie spodziewane jest na sesji 12-15 czerwca.

Po zatwierdzeniu będą to pierwsze na świecie zasady dotyczące AI.

Kraje UE od pewnego czasu próbują odpowiedzieć na wyzwania tworzone przez rozwój AI. Przez miesiąc ChatGPT był zablokowany we Włoszech. Tamtejszy organ nadzorujący rynek danych osobowych uznał, że jego działanie narusza przepisy RODO. Od 29 kwietnia ChatGPT znów jest tam dostępny.

Polski Urząd Ochrony Danych Osobowych wystąpił do swojego włoskiego odpowiednika, żeby poznać istotne okoliczności tej sprawy. Jak poinformował Wirtualnemedia.pl rzecznik UODO Adam Sanocki, urząd jest w kontakcie z włoskim organem. -  Jak dotąd do UODO nie wpłynęły żadne skargi związane z przetwarzaniem danych osobowych w ramach korzystania z ChatGPT. Ponadto pragnę poinformować, że nie była prowadzona kontrola w związku z jego funkcjonowaniem – mówił nam w połowie kwietnia Sanocki.

Dołącz do dyskusji: Unia Europejska zabiera się za ChatGPT

1 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiek z postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl
User
Uniowntuzjasta
I bardzo kurka dobrze
0 0
odpowiedź