Granica wydajności komputerów
Dwójka amerykańskich naukowców przedstawiła wyliczenia, z których wynika, że za 75-80 lat dojdziemy do kresu możliwości dalszego zwiększania mocy obliczeniowej komputerów.
Lev Levitin i Tommaso Toffoli z Boston University opublikowali swoje wyliczenia w "Physical Review Letters". Oparli się przy tym na pracach Levitina z lat 80. ubiegłego wieku. Uczony wyróżnił wówczas najprostszą kwantową operację, która musi być wykonana w kwantowych systemach obliczeniowych. Teraz obaj naukowcy obliczyli najkrótszy czas, potrzebny do jej wykonania. Z ich wyliczeń wynika, że idealny komputer kwantowy będzie w stanie wykonać w ciągu sekundy 10 biliardów operacji więcej, niż obecne najbardziej zaawansowane procesory. Jeśli zatem Prawo Moore'a zachowa ważność, wydajność taka zostanie osiągnięta jeszcze przed końcem bieżącego wieku.
Wyliczenie Levitina i Toffoliego opiera się jednak na Prawie Moore'a. Scott Aaronson z MIT-u uważa, że założenie takie jest jednak wyjątkowo optymistyczne. Jego zdaniem Prawo Moore'a nie przetrwa kolejnych 20 lat. Oczywiście nie oznacza to, że naukowcy z Boston University się mylą. Aaronson jest zadowolony ze znalezienia granicy rozwoju komputerów.
- Z punktu widzenia teoretyka, bardzo dobrze jest wiedzieć, że są nieprzekraczalne granice. Można stwierdzić, że to rozczarowujące, iż nie będziemy w stanie budować nieskończenie szybkich komputerów, jednak jeśli mielibyśmy teorię fizyczną, która pozwala na tworzenie nieskończenie szybkich maszyn liczących, to by znaczyło, że coś jest nie tak z tą teorią - twierdzi Aaronson.
Mariusz Błoński