Nauka i technologie

Korzystajmy z AI z rozwagą – jak radzić sobie z zagrożeniami związanymi z pracą z sztuczną inteligencją

Rozwój sztucznej inteligencji, takiej jak ChatGPT, w zakresie usług zawodowych ma na celu usprawnienie procesów i podniesienie ich efektywności. Jednak korzystanie z jej funkcjonalności powinno być poprzedzone rozważeniem, czy przypadkiem nie ujawniamy i nie rozpowszechniamy przy tym informacji zastrzeżonych, takich jak tajemnica firmowa. Niewłaściwe wykorzystanie sztucznej inteligencji może doprowadzić do naruszenia prawa.

ChatGPT, algorytm służący do wygenerowania odpowiedzi na pytania zadawane przez ponad 100 milionów użytkowników na całym świecie, może również pomóc pracownikom w ich codziennej pracy. Ostatnio pracownicy jednego z gigantów technologicznych prosili AI o wskazówki, które pomogłyby im w programowaniu i projektowaniu. Chociaż te sugestie były bardzo przydatne, w wyniku ich wygenerowania ujawniono szczegółowe informacje na temat rozwiązań, nad którymi ta firma pracuje – zgodnie z raportem Prawo.pl.

„ChatGPT jest zaprogramowany w ten sposób, że uczy się na podstawie dostarczanych mu danych. Wadą tego rozwiązania jest jednak to, że wprowadzane do niego dane są przesyłane i przechowywane na zewnętrznych serwerach, oraz mogą zostać ujawnione także innym użytkownikom, w tym konkurencji” – zauważa cytowana przez Prawo.pl Kinga Krzysztofik, prawniczka w PCS Paruch Chruściel Schiffter Stępień Kanclerz Littler.

Wszyscy pracownicy są zobowiązani do zachowania w tajemnicy informacji, których ujawnienie może mieć negatywne konsekwencje dla pracodawcy. Ponadto, wszyscy powinni dbać o dobro zakładu pracy i bezpieczeństwo pracowników.

„Rozpowszechnianie takich informacji może stanowić podstawę do pociągnięcia danej osoby nawet do odpowiedzialności karnej. Pracownicy powinni mieć świadomość, że otwartość na nowe technologie może słono kosztować” – dodaje Bartosz Wszeborowski, starszy prawnik w PCS Paruch Chruściel Schiffter Stępień Kanclerz Littler.

Aby zapewnić bezpieczeństwo pracownikom, pracodawcy powinni wprowadzić procedury ochrony informacji poufnych lub aktualizować istniejące, a także uświadamiać pracowników jak działa ChatGPT. Adwokat w rozmowie z Prawo.pl podkreślił, że jest to ważny krok w zapewnieniu bezpieczeństwa pracownikom.

Pracodawcy powinni także zadbać o to, by ich pracownicy mieli świadomość zagrożeń związanych z ChatGPT. Adwokat podczas rozmowy z Prawo.pl dodał, że wprowadzenie procedur ochrony informacji poufnych lub jej aktualizacja to kolejny krok w stronę zapewnienia bezpieczeństwa pracownikom.

Aby zapewnić bezpieczeństwo pracownikom, pracodawcy powinni wprowadzić lub aktualizować zasady ochrony informacji poufnych oraz uświadamiać pracownikom zagrożenia związane z ChatGPT. Adwokat w rozmowie z Prawo.pl zaznaczył, że właściwe procedury oraz świadomość zagrożeń to klucz do zapewnienia bezpieczeństwa pracownikom.

Pracownicy, którzy przeprowadzają rozmowy z chatbotami, muszą być świadomi swoich praw i odpowiedzialności. Zgodnie z prawem, pracownik może zostać zwolniony za naruszenie zasad obowiązujących w firmie lub za nielegalne działania, takie jak np. kradzież. Niemniej jednak, pracodawca musi wykazać, że pracownik faktycznie naruszył zasady, zanim zdecyduje się na zwolnienie go z pracy.

Pracownicy powinni być świadomi swoich obowiązków i odpowiedzialności wobec pracodawcy. Przed przeprowadzeniem rozmowy z chatbotem powinni sprawdzić, czy rozmowa ta nie narusza przepisów wewnętrznych firmy lub czy nie jest nielegalna. Jeśli wystąpią jakiekolwiek wątpliwości, pracownik powinien skonsultować się z pracodawcą. Pracodawca ma obowiązek poinformowania pracownika o ewentualnych konsekwencjach podejmowanych działań, co pozwoli uniknąć zwolnienia z pracy z niewłaściwych przyczyn.


Informacja dystrybuowana przez: pap-mediaroom.pl

Wykorzystujemy pliki cookies.
Polityka Prywatności
Więcej
ROZUMIEM