Chatboty stanowią zagrożenie dla bezpieczeństwa własności intelektualnej. Samsung przekonał się o tym na własnej skórze
Każdy, kto choć trochę siedzi w programowaniu, zna ogromny potencjał ChatGPT i to, jak wiele czasu może zaoszczędzić. Podobnie sprawa ma się z chatem Bing, który jest niczym “wyszukiwarka do potęgi” w chwilach zbierania danych na jakiś temat. Nie są to narzędzia idealne i nadal mogą wprowadzać w błąd, ale zdarza im się to nad wyraz rzadko. Dlaczego więc Samsung zakazał swoim pracownikom korzystania z tych narzędzi? Odpowiedzią na to jest coś, o czym zawsze przypominamy sobie, kiedy jest już za późno – bezpieczeństwo.
Czytaj też: Samsung odsłania karty. Straty tak wielkie, że samo patrzenie boli
Kiedy Polacy odpoczywali podczas tegorocznej “Majówki”, pracownicy Samsunga stawili czoła nowym realiom w firmie. Firma kategorycznie zabroniła wykorzystywać wszelkiego rodzaju chatboty podczas pracy i grozi rozwiązaniem umowy każdemu, kto ten zakaz naruszy. Taka nowa polityka Samsunga jest związana z bezpieczeństwem, a dokładniej mówiąc jego naruszeniem, kiedy to tajny kod aplikacji firmy pojawił się na zewnętrznych serwerach.
Jak do tego doszło? Nie jest tajemnicą, że najpierw ktoś musi wysłać na serwer dane, aby te się na nim pojawiły i nie inaczej było tym razem. Samsung w rzeczywistości odkrył, że niektórzy z jego pracowników w kwietniu przesłali wewnętrzny kod źródłowy do ChatGPT, a to wzbudziło obawy u kierownictwa, że do tych danych mogą mieć dostęp inni użytkownicy. Problem jest o tyle duży, że zewnętrzne serwery wykorzystywane przez chaty mogą zresztą paść ofiarom ataków, które to z kolei mogą ujawnić kod całemu światu, a samo usunięcie własnych danych z nich nie jest wcale takie proste.
Czytaj też: Samsung żarty sobie stroi. Nawet iPhone ładuje się szybciej niż nadchodzące składaki
Samsung nie jest jednak jedyną firmą, która poczyniła tak drastyczne kroki w używaniu chatbotów. Tak samo postąpiły niektóre banki na Wall Street pokroju m.in. Citigroup, a grupa ta będzie zapewne rosnąć. Z drugiej jednak strony chatboty będą mogły wrócić do firm obawiających się takich problemów już wkrótce, bo np. ChatGPT ma doczekać się wersji prywatnej specjalnie dla klientów biznesowych. W ramach tej usługi firma Microsoft będzie zapewniać płatny dostęp do tego narzędzia z zapewnieniem, że cokolwiek do niego prześlemy, to nikt spoza organizacji się o tym nie dowie.
Czytaj też: Telewizory Samsung 2023 – tak szerokiej oferty jeszcze nie było
Osobiście uważam to za ogromny potencjał rozwoju chatbotów, bo tego typu prywatne instancje powinny pójść w stronę zapewnienia klientom możliwości dodatkowego szkolenia systemów “pod siebie”. Firmy wykorzystujące własne podejście do architektury na bazie ogromnych dokumentacji zyskałyby wiele, najpierw karmiąc swoim IP takie chatboty. Dzięki takiemu podejściu pracownicy wykorzystujący specyficzne wersje np. ChatGPT zaczęliby uzyskiwać jednoznaczne odpowiedzi na temat tego, jak rozwiązać jakiś problem w ich specyficznym oprogramowaniu, co byłoby na wagę złota.