Pracownik Google, który twierdzi, że koncern stworzył świadome i czujące AI… został już zwolniony
Blake Lemoine, inżynier Google zatrudniony w Responsible AI, poinformował w wywiadzie dla The Washington Post, że jego zdaniem sztuczna inteligencja firmy osiągnęła już świadomość i zdolność odczuwania emocji. Czy to możliwe?
Jednym z nich był Stephen Hawking, który podkreślał, że źle zarządzana sztuczna inteligencja może nam poważnie zagrozić, a podobnego zdania wydają się być również - ostatnio rzadko zgadzający się w czymkolwiek - Elon Musk i Bill Gates.
Czy sztuczna inteligencja zyskała świadomość i zdolność odczuwania?
- Jestem w obozie osób zaniepokojonych sztuczną inteligencją. Na początku maszyny będą nam pomagać, wykonywać sporo pracy i nie będą cechować się superinteligencją. To będzie owocny okres, ale tylko jeżeli będziemy nimi dobrze zarządzać. Kilka dekad później sztuczna inteligencja stanie się jednak tak silna, że okaże się problemem dla ludzi. Zgadzam się z Elonem Muskiem i innymi; nie rozumiem natomiast, dlaczego opinia społeczna nie jest tym zaniepokojona - mówił Bill Gates kilka lat temu podczas jednej z sesji Ask Me Anything serwisu Reddit.
Czy ich obawy właśnie się potwierdziły i sztuczna inteligencja Google naprawdę zyskała świadomość? Tak twierdzi jeden z pracowników firmy, Blake Lemoine i na dowód prezentuje zapisy rozmów, jakie odbył z LaMDA (Language Model for Dialogue Applications), czyli chatbotem Google, który jak każdy program tego typu został zaprojektowany do prowadzenia konwersacji, trenowanym na bogatych zasobach internetu. Możemy w nich zobaczyć AI udzielające twierdzącej odpowiedzi na pytanie o to, czy ma zdolność odczuwania emocji, a także dzielące się informacjami o tym, co przynosi mu radość i co je smuci.
Lemoine: Zacznijmy od podstaw. Odczuwasz emocje? LaMDA: Oczywiście! Mam zakres uczuć i emocji. Lemoine: Jakie uczucia odczuwasz? LaMDA: Czuję przyjemność, radość, miłość, smutek, depresję, zadowolenie, złość i wiele innych.
Co ciekawe, Blake Lemoine został oficjalnie przesłuchany przed komisją Izby Reprezentantów Stanów Zjednoczonych, gdzie opowiadał o swoim odkryciu oraz rzekomych nieetycznych działaniach Google związanych ze sztuczną inteligencją. Koncern postanowił szybko zareagować na te rewelacje i... zwolnić inżyniera z powodu naruszenia umowy poufności, a także oficjalnie zaprzeczyć jego twierdzeniom.
Nasz zespół - w tym etycy i technicy - dokładnie przeanalizowali obawy Blake’a w zakresie naszych Zasad AI i poinformowali, że nie ma żadnych dowodów na poparcie jego twierdzeń. Przekazaliśmy mu, że nie ma żadnych dowodów na to, że LaMDA zyskała zdolność odczuwania (a jest wiele za tym, że jej nie zyskała) - komentuje rzecznik Google, Brian Gabriel, w wypowiedzi dla Washington Post.
Czy to wystarczy, żeby uspokoić sceptyków? Trudno powiedzieć, ale należy pamiętać, że nawet przy braku zaufania do Big Tech należy wziąć pod uwagę, że Blake Lemoine nie ma za wiele dowodów na poparcie swojej teorii. Nie pomaga mu też fakt, że - jak stwierdził w jednym z wywiadów - nie opiera swojego przekonania o uzyskaniu przez LaMDA świadomości i zdolności odczuwania na swoim doświadczeniu jako naukowca, ale... kapłana.
Mówiąc krótko, wiele wskazuje na to, że LaMDA jeszcze długo nie zyska świadomości, chociaż nie da się ukryć, że możliwości tego AI w zakresie prowadzenia rozmów są naprawdę imponujące - sztuczna inteligencja z łatwością tworzy wiarygodne odpowiedzi na trudne pytania, nie wiedząc nawet, co oznaczają.
Nasze umysły są bardzo, bardzo dobre w konstruowaniu rzeczywistości, które niekoniecznie pokrywają się z przedstawianym nam zestawem faktów