Wiadomości Polska Nauka i technologie Impact’22: sztuczna inteligencja wymaga regulacji prawnych
Nauka i technologie

Impact’22: sztuczna inteligencja wymaga regulacji prawnych

Zdaniem Natalii Hatalskiej z infuture.institute musimy pamiętać, że sztuczna inteligencja „jest tylko narzędziem”, a także o tym, że kwestia jej wykorzystania jest wciąż nieuregulowana prawnie.

„Dopiero pracujemy nad pierwszym na świecie prawem, które ma uregulować sztuczną inteligencję – ono być może wejdzie pod koniec 2023 roku. To bardzo długo. Wiemy, że do tego czasu rozwiązania oparte o sztuczna inteligencję, takie jak rozpoznawanie twarzy, rozpoznawanie biometryczne, algorytmy, są i będą powszechnie wykorzystywane. Możemy zakładać, że stanie się tak, jak było z internetem, który próbujemy regulować 20 lat po jego wprowadzeniu” – oceniła Natalia Hatalska. – Sztuczna inteligencja zmienia nas w siebie, czyli próbuje zmienić ludzi w zero-jedynkowe boty. My, jako ludzie, nie jesteśmy zero-jedynkowi, nasz świat ma wiele odcieni. W dyskusji o sztucznej inteligencji rozmawiamy o problemach, wyzwaniach i rozwiązaniach, a powinniśmy rozmawiać o wartościach” – dodała.

W opinii Jarosława Królewskiego z Synerise – polskiej spółki zajmującej się sztuczną inteligencją – dziś jest ona „słowem-wytrychem” do tego, co stanie się w niedalekiej przyszłości.

„Jesteśmy w przededniu rewolucji, gdzie zaczynają powstawać eksperymenty na przecięciu hybrydy człowieka i maszyny. Myślę, że w ciągu następnych 5-10 lat robotyzacja i sztuczna inteligencja stanie się czymś, co będzie rozgrzewało naszą wyobraźnię, m.in. dlatego, że pojawią się próby rozszerzania tego, co dziś jest możliwe – jeśli chodzi o nasz umysł, intelekt – i nie będzie to zero-jedynkowe” – stwierdził Jarosław Królewski Królewski i ocenił, że potrzebna jest „globalna regulacja” sztucznej inteligencji.

„Mamy kodeks dobrych praktyk, jeżeli chodzi o wykorzystywanie sztucznej inteligencji – powiedział Wojciech Bogdan z Allegro pytany o granice działania AI (ang. artificial intelligence). – Opracowaliśmy kodeks dobrych zasad kilka lat temu i co roku wracamy do niego – sprawdzamy, jak można go jeszcze poprawić” – poinformował.

Wyjaśnił, że z perspektywy Allegro, granicą działania sztucznej inteligencji jest m.in. wykorzystanie prywatnych informacji pochodzących od kupujących, którzy szukają „wrażliwego asortymentu”.

„Mamy bardzo ścisłe zasady, które mówią, że ograniczamy zakres informacji, która podąża za kupującym. Inną kwestią jest cała sfera ochrony prywatności i danych osobowych, która też jest dla nas bardzo ważna” – dodał.

W ocenie Andrzeja Kozłowskiego z firmy Emitel, kluczową kwestią w obliczu wchodzenia sztucznej inteligencji do firm jest moment, gdy zacznie ona nimi kierować.

„To kwestia oderwania sztucznej inteligencji od kwestii czysto ludzkich, takiego złącza biologiczno-chemicznego i empatii. To będzie ten moment. Myślę, że to będzie poprzedzone długą debatą i procesem regulacyjnym. To nie nastąpi automatycznie” – ocenił i dodał, że w europejskiej rozmowie o sztucznej inteligencji trzeba zwrócić uwagę na „kluczowy czynnik”, którym na naszym kontynencie jest „ponad 60 mln ludzi, którzy nie mają kompetencji cyfrowych”.

Źródło informacji: PAP MediaRoom

 


Treść pochodzi z serwisu: pap-mediaroom.pl

Exit mobile version