Z ChatGPT korzysta ponad 100 mln użytkowników. Liczba ta przy tym dynamicznie rośnie. Coraz częściej narzędzie to wykorzystywane jest przez pracowników firm przy wykonywaniu ich zadań. Sztuczna inteligencja ma wykonać, ułatwić lub przyspieszyć ich pracę. Może to oczywiście doprowadzić do zwiększenia efektywności oraz poprawienia wyników przedsiębiorstwa.
Korzystanie z ChatGPT wiąże się z wprowadzeniem danych (promtów) do systemu AI w celu uzyskania odpowiedzi. ChatGPT przechowuje wszelkie pytania i odpowiedzi, a także dokumenty, jakie do niego wprowadzamy. Wykorzystuje je m.in. do trenowania (uczenia) modeli. W regulaminie ChaGPT wskazuje się w jakim celu informacje te mogą wykorzystywane. Mowa jest o wykorzystaniu danych min w celu świadczenia, utrzymywania, ulepszania i rozwijania usług. Oznacza to szerokie wykorzystywanie i przesyłanie danych.
Nie ma w regulaminie ChatGPT zapisów o obowiązku zachowania danych wprowadzonych AI w poufności (aczkolwiek takie zapisy mogą występować w płatnych systemach AI).
Co to oznacza:
- to co pracownicy wpisują lub wklejają do systemu, przestaje być tajemnicą firmy;
- dla przedsiębiorstw może stanowić to poważne zagrożenie utraty danych wrażliwych, know-how czy wypracowanych rozwiązań;
- mowa tu przede wszystkim o takich stanowiskach pracy, gdzie analizuje się wrażliwe dane (np. handlowe czy technologiczne) w celu obliczenia czy uzyskania danych przekrojowych lub wyciągnięcia pewnych wniosków;
- nie inaczej jest w przypadku działów prowadzących innowacyjne badania R&D czy działów IT.
Warto mieć powyższe ryzyka na względzie. Warto je także zaadresować, m.in.:
- w drodze wewnętrznego aktu, który ureguluje zakres i sposób korzystania z systemów AI;
- być może zasadne będzie zakazanie pewnym działom lub stanowiskom korzystanie z tego narzędzia (takie zakazy już pojawiają się w zaawansowanych technologicznie firmach, w tym związanych z rozwojem systemów AI);
- należy edukować pracowników, aby regulamin nie był tylko kolejnym dokumentem do szuflady.