Ratuj Głuszca
procesor

Przed trzema laty profesor Krishna Palem z Rice University zaprezentował pierwszy procesor probabilityczny (PCMOS – Probabilistic CMOS). Teraz pokazano jego doskonalszą wersję, a praca na jego temat została uznana podczas ACM Computing Frontiers za najlepszy dokument tego typu.

Profesor Palem od 2003 roku prowadzi badania nad procesorami probabilistycznymi. Uczony uważa, że warto poświęcić nieco dokładności w obliczeniach, nie korygować powstających błędów, a w zamian za to uzyskać znaczny przyrost mocy przy jednoczesnym zmniejszeniu poboru energii. I rzeczywiście. Pokazany właśnie procesor jest co najmniej 15-krotnie bardziej wydajny niż współczesne chipy.

Już w 2011 roku podczas symulowanych testów zespół Palema wykazał, że zredukowanie niektórych części tradycyjnego układu scalonego powoduje, że jest on mniejszy, zużywa mniej energii i szybciej przeprowadza obliczenia. Nasze najnowsze testy pokazują, że taka redukcja układu powoduje, iż zużywa on 3,5 raza mniej energii, przy jednoczesnym zwiększeniu liczby błędów w obliczeniach o 0,25%. Gdy weźmiemy pod uwagę zyski na prędkości obliczeń i zmniejszeniu rozmiarów, to taki układ jest 7-krotne bardziej wydajny od zwykłych procesorów. Jeśli natomiast liczbę błędów zwiększymy o 8%, to układ będzie 15-krotnie bardziej wydajny – mówi Avinash Lingamneni, współpracownik profesora Palema.

Tego typu procesory nie nadają się, oczywiście, do wielu zastosowań. Ale będzie ich można używać tam, gdzie nie jest wymagana duża precyzja obliczeń. Istnieją plany wbudowania ich w tanie tablety, które trafią do uczniów z najuboższych regionów Indii. Procesor probabilistyczny dobrze sprawdzi się też w roli układu przetwarzającego obraz wideo, szczególnie w urządzeniach o niewielkim wyświetlaczu na którym można tolerować niedoskonałości obrazu.

Źródło: kopalniawiedzy.pl

Wypowiedz się

Musiszsię zalogować aby dodać komentarz.