Yeni çoklu iş parçacığı tekniği, işlem hızlarını iki katına çıkartacak

Hardware (Donanım) konusunda bilgi paylaşım alanıdır.
Cevapla
Kullanıcı avatarı
velociraptor
Yottabyte4
Yottabyte4
Mesajlar: 46757
Kayıt: 14 Mar 2006, 02:33
cinsiyet: Erkek
Teşekkür etti: 4970 kez
Teşekkür edildi: 4157 kez

Yeni çoklu iş parçacığı tekniği, işlem hızlarını iki katına çıkartacak

Mesaj gönderen velociraptor »

Resim

Yeni araştırma, CPU, GPU ve AI hızlandırıcının ayrı görevlerde paralel olarak sorunsuz bir şekilde çalışmasına olanak tanıyan bir süreci ayrıntılarıyla anlatıyor. Öncü atılım, enerji maliyetinin yarısından daha az bir maliyetle genel işlem hızını iki katına çıkarmayı vaat eden, çok hızlı, enerji açısından verimli bilgi işlem sağlayabilir.

California Riverside Üniversitesi'ndeki araştırmacılar, çağdaş eşzamanlı çoklu iş parçacıklarını temel alan Eşzamanlı ve Heterojen Çoklu İş Parçacığı (SHMT) adı verilen bir teknik geliştirdiler. Eşzamanlı çoklu iş parçacığı, bir CPU çekirdeğini çok sayıda iş parçacığına böler, ancak SHMT, grafikleri ve yapay zeka işlemcilerini birleştirerek daha da ileri gider.

SHMT'nin en önemli faydası, bu bileşenlerin, her birinin gücüne göre optimize edilmiş, tamamen farklı iş yüklerini eş zamanlı olarak çalıştırabilmesidir. Yöntem, CPU, GPU ve AI hızlandırıcının bağımsız olarak çalıştığı geleneksel bilgi işlemden farklıdır. Bu ayırma, bileşenler arasında veri aktarımını gerektirir ve bu da darboğazlara yol açabilir.

Bu arada SHMT, bileşenler arasındaki heterojen iş yükünü dinamik olarak yönetmek için araştırmacıların "akıllı, kaliteye duyarlı iş çalma (QAWS) zamanlayıcı" olarak adlandırdığı şeyi kullanıyor. Sürecin bu kısmı, diğer şeylerin yanı sıra, hataya daha yatkın yapay zeka hızlandırıcı yerine yüksek doğruluk gerektiren görevleri CPU'ya atayarak performans ve hassasiyeti dengelemeyi amaçlıyor. Ek olarak, zamanlayıcı, bir bileşenin geride kalması durumunda işleri gerçek zamanlı olarak diğer işlemcilere sorunsuz bir şekilde yeniden atayabilir.

Testlerde SHMT, mevcut tekniklerle karşılaştırıldığında performansı yüzde 95 artırdı ve güç kullanımını yüzde 51 oranında azalttı. Sonuç etkileyici bir 4 kat verimlilik artışıdır. İlk kavram kanıtlama denemelerinde, 64 bit dört çekirdekli Arm CPU, 128 çekirdekli Maxwell GPU, 4 GB RAM ve Google'ın Edge TPU AI hızlandırıcılarından birini barındıran bir M.2 yuvası içeren Nvidia'nın Jetson Nano kartı kullanıldı. Tam olarak son teknoloji ürünü bir donanım olmasa da, standart konfigürasyonları yansıtıyor. Maalesef bazı temel sınırlamalar var.

Resim

Makalede, "SHMT'nin sınırlaması, modelin kendisi değil, daha çok programcının, SHMT'den yararlanmayı kolaylaştıran paralellik türünü sergilemek için algoritmayı tekrar ziyaret edip edemeyeceğiyle ilgilidir" diye açıklıyor.

Başka bir deyişle, herhangi bir geliştiricinin kullanabileceği basit bir evrensel donanım uygulaması değildir. Programcıların bunu nasıl yapacaklarını öğrenmeleri veya bunu kendileri için yapacak araçlar geliştirmeleri gerekir.

Eğer geçmiş bir göstergeyse, bu hiç de kolay bir iş değil. Apple'ın Mac'lerde Intel'den Arm tabanlı silikona geçişini hatırlıyor musunuz? Şirket, geliştiricilerin uygulamalarını yeni mimariye uyarlamasını kolaylaştırmak için geliştirici araç zincirine önemli miktarda yatırım yapmak zorunda kaldı. Büyük teknoloji ve geliştiricilerin ortak bir çabası olmadığı sürece SHMT uzak bir hayale dönüşebilir.

Faydalar aynı zamanda büyük ölçüde problemin boyutuna da bağlıdır. Yüzde 95'lik en yüksek artış, testlerde maksimum sorun boyutunu gerektirirken, daha küçük yükler, getirilerin azaldığını gördü. Paralel görevleri dağıtma fırsatı daha az olduğundan, küçük yükler neredeyse hiç kazanç sağlamadı. Bununla birlikte, eğer bu teknoloji ölçeklenebilir ve yakalanabilirse, veri merkezi maliyetlerinin ve emisyonların azaltılmasından soğutma için tatlı su kullanımının azaltılmasına kadar sonuçları çok büyük olabilir.

Gerçek dünyadaki uygulamalar, donanım desteği, kod optimizasyonları ve ideal kullanım senaryosu uygulamalarıyla ilgili pek çok cevaplanmamış soru var. Bununla birlikte, son birkaç yılda üretken yapay zeka uygulamalarında yaşanan patlama ve bunları çalıştırmak için gereken işlem gücünün çokluğu göz önüne alındığında, araştırma umut verici görünüyor .

Kaynak:
https://www.techspot.com/news/102016-ne ... peeds.html
Cevapla