Google idzie do wojska? Sztuczna inteligencja już może "szkodzić" innym
Google usunęło ze swoich zasad sztucznej inteligencji fragment, w którym zobowiązywało się do unikania stosowania tej technologii w potencjalnie niebezpiecznych zastosowaniach. Czy usunięcie tej klauzuli oznacza, że firma planuje rozszerzyć działalność na nowe sektory? Trudno powiedzieć, ale z pewnością można odebrać to jako sygnał, że w grę zaczynają wchodzić militarne zastosowania.
"Nie bądź zły. Jesteśmy głęboko przekonani, że w dłuższej perspektywie lepiej będzie nam służyć - jako akcjonariuszom i pod każdym innym względem - firma, która robi dobre rzeczy dla świata, nawet jeśli zrezygnujemy z niektórych krótkoterminowych zysków". Takie słowa można było przeczytać w 2004 roku w liście od założycieli Google i chociaż firma wielokrotnie manifestowała odejście od tych pierwotnych wartości, to zmiana ta nigdy nie była tak dobrze widoczna jak w jej najnowszym ruchu.
Google idzie w wojskowe AI?
Google po cichu usunęło bowiem kluczowy fragment swoich zasad dotyczących sztucznej inteligencji, który wcześniej zobowiązywał do unikania zastosowań AI w potencjalnie szkodliwych celach, w tym w broni. Jak wynika ze zrzutów ekranu obejrzanych przez dziennikarzy Bloomberga, zasady Google dotyczące AI zawierały wcześniej fragment zatytułowany "Zastosowania sztucznej inteligencji, których nie będziemy rozwijać", np. "technologie, które powodują lub mogą spowodować ogólne szkody", w tym broń. Obecnie tego zapisu już nie ma.
W odpowiedzi na pytania dotyczące tej zmiany Google wskazało na wpis na blogu opublikowany przez Jamesa Manyikę, starszego wiceprezesa Google oraz Demisa Hassabisa, szefa Google DeepMind. We wpisie stwierdzono, że to demokracje powinny przewodzić rozwojowi AI, kierując się podstawowymi wartościami, jak wolność, równość i poszanowanie praw człowieka. Wezwano również do współpracy między firmami, rządami i organizacjami podzielającymi te wartości w celu tworzenia AI, które chroni ludzi, wspiera globalny rozwój i zapewnia bezpieczeństwo narodowe.
Analitycy wyrażają obawy
Jak zauważa serwis Techspot, ta zmiana w zasadach Google dotyczących AI nie umknęła też ekspertom z branży. Margaret Mitchell, była współkierowniczka zespołu ds. etyki AI w Google i obecna główna badaczka ds. etyki w Hugging Face, powiedziała Bloombergowi, że martwi ją usunięcie klauzuli o "szkodliwości".
To oznacza, że Google prawdopodobnie teraz będzie pracować nad wdrażaniem technologii, które mogą bezpośrednio zabijać ludzi
To szerszy globalny trend
Rewizja zasad Google dotyczących AI wpisuje się w szerszy trend porzucania wcześniej przyjętych stanowisk etycznych przez gigantów technologicznych. Firmy takie jak Meta Platforms i Amazon w ostatnim czasie ograniczyły swoje inicjatywy na rzecz różnorodności i integracji, uzasadniając to zmianą priorytetów. Co więcej, Meta ogłosiła w zeszłym miesiącu zakończenie programu zewnętrznej weryfikacji faktów w USA.
Chociaż Google do niedawna utrzymywało, że jego AI nie jest wykorzystywana do krzywdzenia ludzi, firma stopniowo zwiększała współpracę z podmiotami wojskowymi. W ostatnich latach zaczęła dostarczać usługi chmurowe armii USA i Izraela, co wywołało wewnętrzne protesty wśród pracowników.
Google musi więc spodziewać się negatywnej reakcji na swoje najnowsze stanowisko, ale najprawdopodobniej uznało, że korzyści z tej zmiany przewyższają ewentualne straty. Po pierwsze, firma może teraz bezpośrednio konkurować z rywalami, którzy już uczestniczą w projektach wojskowych związanych z AI. Ponadto ta zmiana może przyczynić się do zwiększenia finansowania badań i rozwoju ze źródeł rządowych, co potencjalnie przyspieszy postępy firmy w dziedzinie sztucznej inteligencji.