Komputery nauczą się myśleć od dzieci

Obserwując jak brzdące adaptują się do otaczającego świata, programiści chcą stworzyć superkomputery, które będą zachowywać się jak ludzie.

Rozmowa na odpowiednim poziomie
Rozmowa na odpowiednim poziomieAFP

Debata dotycząca rozwoju sztucznej inteligencji trwa nie od dziś i, mimo prób stworzenia myślących maszyn, naukowcom wciąż się to nie udało. Na niecodzienny pomysł wpadli uczeni z University of California w Berkeley, którzy zamierzają wykorzystać obserwacje dzieci do stworzenia komputerów obdarzonych inteligencją.

Psychologowie używają lalek, kolorowych zabawek, lizaków oraz szeregu innych narzędzi, aby określić jak wykonywane przez małe dzieci obliczenia w głowie pomagają zrozumieć im otaczający świat. Behawioryści wraz z programistami chcą podpatrzeć mechanizm szybko rozwijających się zdolności kognitywnych dzieci w celu stworzenia myślących komputerów.

Tym, czego naukowcy wciąż nie są w stanie zaszczepić maszynom są emocje. Odgrywają one niebagatelne znaczenie w interakcjach międzyludzkich i sposobie, w jaki postrzegają nas inni. Badacze mają nadzieję, że pewnego dnia uda się im stworzyć komputery, które będą w stanie przeanalizować ludzką mimikę i ton głosu, a następnie właściwie się do tego odnieść, np. proponując poranną kawę.

- Staramy się zrozumieć jak to się dzieje, że małe dzieci wykazują tak duży potencjał do nauki. Każdy z nas nauczył się języka, codziennych relacji międzyludzkich i nowych konceptów ze strzępków pojedynczych danych. A dzieci interesują nas tak bardzo, gdyż przyswajają największe ilości informacji - powiedział Tom Griffiths, dyrektor projektu kognitywnej komputeryzacji.

Griffiths wraz z kolegami, otwiera nowe, multidyscyplinarne centrum badawcze, w którym będzie obserwować zachowania niemowląt i przedszkolaków, a także próbował przenieść je na język komputerów.

- Chcemy zrozumieć jaki mechanizm odpowiada za proces uczenia się u dzieci, tak by móc stworzyć maszyny, które będą jeszcze bliższe ludziom - zakończył Griffiths.

Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas