Czy powinniśmy się bać sztucznej inteligencji? Nie, ale jej kwestią i tak musi zająć się władza
Automatyzacja postępuje od dekad i sztuczna inteligencja jest zdecydowanie kolejnym etapem, który podobnie jak maszyny parowe i pierwsze zautomatyzowane maszyny, pozbawi wiele osób pracy. W dążeniu do zaspokajania ludzkiej chęci ciągłego rozwoju i ulepszania siebie oraz społeczeństwa, trudno walczyć z tak potężnym narzędziem i się mu przeciwstawiać, ale nawet zakochany wręcz w SI Microsoft uważa, że ta powinna być regulowana i odpowiednio zarządzana. Słusznie, bo jest to narzędzie zbyt potężne, żeby władze przemilczały temat i udawały, że na horyzoncie nie widać już problemów ze sztuczną inteligencją, a widać bardzo dobrze i świetnym tego przykładem jest kwestia praw autorskich oraz generowanych grafik.
Czytaj też: Sztuczna inteligencja ma konkurenta. Teraz obliczenia wykonuje się z użyciem układów opartych na mózgu
Przejaw tego widać w raporcie AI Governance: A Blueprint for Action, który przedstawia coś w rodzaju planu działania na zarządzanie sztuczną inteligencją, którym powinny zainteresować się rządy. Zapisane w nim “reguły” zostały nakreślone na podstawie doświadczeń Microsoftu, a także na współpracy z decydentami politycznymi, środowiskiem akademickim, społeczeństwem obywatelskim i partnerami branżowymi na całym świecie, którzy specjalizują się w opracowywaniu i wdrażaniu SI.
Wspomniane reguły wskazane przez Microsoft mają za zadanie sprawić, aby sztuczna inteligencja była zawsze godna zaufania i nie działała na szkodę ludzi. Wedle firmy osiągnięcie tego jest jak najbardziej możliwe, ale świat musi przestrzegać kilku reguł, wśród których wyróżnia się ustanowienie nowych wymogów bezpieczeństwa dla systemów i usług wykorzystujących sztuczną inteligencję oraz regulacji dla aplikacji wysokiego ryzyka. Trudno się temu dziwić, mając z tyłu głowy przykład m.in. Samsunga, którego pracownicy mogli zaszkodzić firmie, po prostu korzystając z ChataGPT.
Czytaj też: Coraz więcej krajów przeciwko ChatGPT. Sztuczna inteligencja musi podlegać kontroli
Microsoft uważa również, że jako społeczeństwo potrzebujemy też promowania większej przejrzystości i odpowiedzialności za decyzje dotyczące sztucznej inteligencji, co oznacza przede wszystkim to, aby rządy wymagały od twórców i dostawców sztucznej inteligencji ujawniania istotnych informacji na temat ich systemów i usług. Powinny też umożliwić niezależne audyty i oceny systemów SI, a także stworzyć mechanizmy konsultacji dla społeczeństwa.
Jesli z kolei idzie “o nas”, czyli zwyczajnych obywateli, którzy z narzędzi sztucznej inteligencji tylko korzystamy, Microsoft chce, aby władze zapewniły nam kontrolę nad ich danymi, a także możliwość kwestionowania oraz rezygnacji z decyzji podjętych przez SI przy bardziej obligatoryjnych systemach. Wymaga to jednocześnie potrzeby wspierania rozwoju umiejętności cyfrowych wśród obywateli, a więc poczynienia inwestycji w edukację i rozwój umiejętności w zakresie sztucznej inteligencji.
Czytaj też: Sztuczna inteligencja wszędzie i dla każdego. Ten mózg dla AI ma szansę zmienić świat
Prezes Microsoftu ma nadzieję, że te wytyczne pomogą przyspieszyć globalną rozmowę na temat zarządzania sztuczną inteligencją i zainspirują powstanie nowych współprac między rządami, przemysłem, środowiskiem akademickim i społeczeństwem obywatelskim.
PS – po więcej materiałów najwyższej jakości zapraszamy na Focus Technologie. Subskrybuj nasz nowy kanał na YouTubie!