Goto page 1, 2, 3 Next
identifikator: 20040501
Guest
Mon Oct 11, 2010 7:18 am
pytałem na grupie .pecet, ale tam raczej nie wiedzieli... czy Ktoś może wie
czemu to częstotliwości taktowania procesorów do PC już od ładnych paru lat
nie wzrastają?
J.F.
Guest
Mon Oct 11, 2010 8:09 am
Użytkownik "identifikator: 20040501" <NOSPAMtestowanije@go2.pl>
Quote:
pytałem na grupie .pecet, ale tam raczej nie wiedzieli... czy
Ktoś może wie czemu to częstotliwości taktowania procesorów do PC
już od ładnych paru lat nie wzrastają?
Technologia szczesliwie osiagnela szczyt swoich mozliwosci i teraz
rozwoj bedzie mozliwy do ogarniecia ?
:-)
Ewentualnie dalsze przyspieszanie nie ma zbytniego sensu, jesli
waskim gardlem bedzie pamiec.
J.
Jan Kowalski
Guest
Mon Oct 11, 2010 10:01 am
identifikator: 20040501 <NOSPAMtestowanije@go2.pl> napisał(a):
Quote:
pytałem na grupie .pecet, ale tam raczej nie wiedzieli... czy Ktoś może wie
czemu to częstotliwości taktowania procesorów do PC już od ładnych paru lat
nie wzrastają?
W momencie gdy procesory do PC zbliżyły się do granicy 4GHz okazało się, że
procesory pobierają nieakceptowalne ilość energii którą rozpraszają w postaci
trudnego do odprowadzenia ciepła. W związku z tym zamiast za wszelką cenę
walczyć z wiatrakami aktualnej technologii krzemu producenci procesorów
sięgnęli po technologię komputerów wieloprocesorowych - znanych od dawna
jednak nie używanych w warunkach domowych z racji zaporowej ceny. Tak
narodziły się procesory wielordzeniowe, które dominują dziś na rynku
procesorów PC.
Oczywiście nie ma róży bez kolców, efektywne wykorzystanie systemów
wieloprocesorowych zależy od rodzaju uruchamianego oprogramowania w
szczególności od możliwości podzielenia zadania na oddzielne wątki i
przekazaniu ich do równoległego wykonywania przez rdzenie procesora. Nie każde
oprogramowanie jest przygotowane w ten sposób, dlatego ostatnio pojawiają się
rozwiązania hybrydowe - procesory zdolne do "podkręcenia" jednego ze rdzeni w
przypadku gdy aplikacja nie korzysta z wielowątkowości.
--
Wysłano z serwisu Usenet w portalu Gazeta.pl ->
http://www.gazeta.pl/usenet/
Jarosław Sokołowski
Guest
Mon Oct 11, 2010 10:43 am
Pan Jan Kowalski napisał:
Quote:
pytałem na grupie .pecet, ale tam raczej nie wiedzieli... czy Ktoś może
wie czemu to częstotliwości taktowania procesorów do PC już od ładnych
paru lat nie wzrastają?
W momencie gdy procesory do PC zbliżyły się do granicy 4GHz okazało się,
że procesory pobierają nieakceptowalne ilość energii którą rozpraszają
w postaci trudnego do odprowadzenia ciepła. W związku z tym zamiast za
wszelką cenę walczyć z wiatrakami
Nie walczyć, a wręcz przeciwnie -- zaprzyjaźnić się. Bez solidnego wiatraka
do takiego procesora nie ma co podchodzić.
--
Jarek
Jarosław Sokołowski
Guest
Mon Oct 11, 2010 10:50 am
Pan J.F. napisał:
Quote:
pytałem na grupie .pecet, ale tam raczej nie wiedzieli... czy
Ktoś może wie czemu to częstotliwości taktowania procesorów
do PC już od ładnych paru lat nie wzrastają?
Technologia szczesliwie osiagnela szczyt swoich mozliwosci i teraz
rozwoj bedzie mozliwy do ogarniecia ?
Gdyby tak teraz ktoś zabrał się za rozwój oprogramowania z takim
samym zapałem, jaki wcześnie towarzyszył podkręcaniu gigahertzów.
Te same komputery by śmigały jak z procesorem 40GHz i pamięcią
64GB.
--
Jarek
Miron (Asha) Kitkowsk
Guest
Mon Oct 11, 2010 12:30 pm
ptoki wrote:
Quote:
On 11 Paź, 09:18, "identifikator: 20040501" <NOSPAMtestowan...@go2.pl
wrote:
pytałem na grupie .pecet, ale tam raczej nie wiedzieli... czy Ktoś może
wie czemu to częstotliwości taktowania procesorów do PC już od ładnych
paru lat nie wzrastają?
Jest jeszcze sciezka asynchronicznosci lub hybryd. Sam widzialem opisy
dialajacych ukladow intela z rdzeniem weglowym. A asynchronicznosc zupelnie
omija bariere jakichkolwiek herców.
Teoretycznie można by nawet zrobic hybryde asynchroniczną. Kiedys nazywało
się to transputerami. Kazdy procek działa sobie, ale komunikują się bardzo
mocno na poziomie procesorów. Trochę podobnie działa PS3 i nowe potwory 80 i
wiecej procesorowe Intela, ale z kolei obcinajac dosc mocno instrukcje. Nie
sa to zwykle procesory.
--
Na wszystko nie można odpowiadać "tak"
ptoki
Guest
Mon Oct 11, 2010 12:58 pm
On 11 Paź, 09:18, "identifikator: 20040501" <NOSPAMtestowan...@go2.pl>
wrote:
Quote:
pytałem na grupie .pecet, ale tam raczej nie wiedzieli... czy Ktoś może wie
czemu to częstotliwości taktowania procesorów do PC już od ładnych paru lat
nie wzrastają?
Moja wersja:
Bo architektura x86 jest taka specyficzna ze trzeba caly procek
taktowac szybciej i z tego powodu wiecej tranzystorow musi sie
bardziej grzac (Opisal to Jan Kowalski ponizej).
Ale jest jeszcze jeden powod:
Przy taktowaniu 4GHz dlugosc fali jest porownywalna z rozmiarami
komponentow na plycie i po prostu procek nie nadaza byc karmiony taka
iloscia danych zeby byl sens zwiekszania jego wydajnosci w ten sposob.
Dlatego widzimy objaw metody "dziel i rzadz" i procesory sa
zwielokratniane i sama pamiec tez tego niedlugo bedzie doswiadczac.
Juz teraz GPU ma swoja dedykowana pamiec na ktorej "liczy" i albo
pojawia sie lepsze kontrolery pamieci ktore beda nadazac karmic
rdzenie danymi albo architektura pojdzie w kierunku dedykowanych
obszarow dla grupy rdzeni.
Waldemar Krzok
Guest
Mon Oct 11, 2010 1:10 pm
Am 11.10.2010 14:30, schrieb Miron (Asha) Kitkowsk:
Quote:
ptoki wrote:
On 11 Paź, 09:18, "identifikator: 20040501"<NOSPAMtestowan...@go2.pl
wrote:
pytałem na grupie .pecet, ale tam raczej nie wiedzieli... czy Ktoś może
wie czemu to częstotliwości taktowania procesorów do PC już od ładnych
paru lat nie wzrastają?
Jest jeszcze sciezka asynchronicznosci lub hybryd. Sam widzialem opisy
dialajacych ukladow intela z rdzeniem weglowym. A asynchronicznosc zupelnie
omija bariere jakichkolwiek herców.
Teoretycznie można by nawet zrobic hybryde asynchroniczną. Kiedys nazywało
się to transputerami. Kazdy procek działa sobie, ale komunikują się bardzo
mocno na poziomie procesorów. Trochę podobnie działa PS3 i nowe potwory 80 i
wiecej procesorowe Intela, ale z kolei obcinajac dosc mocno instrukcje. Nie
sa to zwykle procesory.
Transputery to był dobry pomysł, ale miały mnóstwo błędów i były bardzo
upierdliwe w programowaniu. Obecnie pomysł wraca do powszechniejszego
użytku (komputery wojskowe do obróbki zdjęć radarowych już to mają od
lat). Dzisiaj "transputerami" są stosunkowo tanie komputery połączone
szybkimi seryjnymi linkami (>10Gbit/s) między sobą, każdy ma swoje kilka
GB pamięci i wsio hula. Szukać pod hypercube architecture oraz massive
multiprocessor architecture. Wszystkie obecne rekordowe superkomputery
są w ten sposób budowane. W mniejszych systemach też już się pojawia,
jak np. blade system IBMa.
Transputery miały statyczną architekturę kostki czterowymiarowej (w
ogólności dowolnej figury czterowymiarowej). Procesory komunikacyjne
(switchboard) umożliwiające dynamiczną zmianę konfiruracji były co
prawda przez InMOS planowane, ale nigdy nie ujrzały światła dziennego.
Obecne komputery mają w tym zakresie dużo większe możliwości. Na
przykład automatyczna diagnostyka umożliwia wyłapanie wadliwego węzła i
jego wymianę bez wyłączania kompa. Operator dostaje maila, że węzeł 4711
w piątej szafie, 3 piętro 6 blade od lewej ma feler, bierze zapasowy pod
pachę i wymienia.
Kwestia pamięci jest co prawda nadal problemem, ale tu też już
rozwiązania były. Na przykład taki staruszek jak Cray 1 miał procesor z
taktem 12.5ns, a pamięć chodziła na 100ns. Była ona podzielona na 8
banków, które pracowały z przesuniętym zegarem. Niestety czasem było to
dość problematyczne, doświadczyłem to na własnym grzbiecie.
Waldek
RoMan Mandziejewicz
Guest
Mon Oct 11, 2010 1:22 pm
Hello Waldemar,
Monday, October 11, 2010, 3:10:02 PM, you wrote:
[...]
Quote:
Teoretycznie można by nawet zrobic hybryde asynchroniczną. Kiedys nazywało
się to transputerami. Kazdy procek działa sobie, ale komunikują się bardzo
mocno na poziomie procesorów. Trochę podobnie działa PS3 i nowe potwory 80 i
wiecej procesorowe Intela, ale z kolei obcinajac dosc mocno instrukcje. Nie
sa to zwykle procesory.
Transputery to był dobry pomysł, ale miały mnóstwo błędów i były bardzo
upierdliwe w programowaniu. Obecnie pomysł wraca do powszechniejszego
użytku (komputery wojskowe do obróbki zdjęć radarowych już to mają od
lat).
Hmmm... Współczesne karty grafiki zawierają bardzo ciekawe procesory,
które niekoniecznie muszą liczyć grafikę... Oprogramowania
wykorzystującego możliwości procesorów kart grafiki powstaje coraz
więcej.
[...]
--
Best regards,
RoMan mailto:roman@pik-net.pl
Nowa strona:
http://www.elektronika.squadack.com (w budowie!)
M
Guest
Mon Oct 11, 2010 3:34 pm
On 11 Paź, 12:58, ptoki <sczyg...@gmail.com> wrote:
Quote:
Bo architektura x86 jest taka specyficzna ze trzeba caly procek
taktowac szybciej i z tego powodu wiecej tranzystorow musi sie
bardziej grzac (Opisal to Jan Kowalski ponizej).
Było tak z architekturą NetBurst (Pentium 4), potem weszła Core i
udało się poprawić wydajność a zmniejszyć grzanie z GHz. Choć w sumie
to już było, nazywało się Pentium M tylko trochę wyprzedziło swój czas
(wtedy na oszczędność energii zwracano uwagę głównie w laptopach, a w
desktopach i serwerach mniej). Teraz jeszcze Atom... AMD też w
porównaniu z P4 wypadało lepiej.
Quote:
Przy taktowaniu 4GHz dlugosc fali jest porownywalna z rozmiarami
komponentow na plycie i po prostu procek nie nadaza byc karmiony taka
iloscia danych zeby byl sens zwiekszania jego wydajnosci w ten sposob.
Taktowanie 4 GHz jest tylko wewnątrz CPU, pamięci mają już
kilkakrotnie mniej (np. FSB 1333 MHz to w rzeczywistości zegar 333 MHz
i dane przesyłane 4 razy w jednym cyklu).
Quote:
Dlatego widzimy objaw metody "dziel i rzadz" i procesory sa
zwielokratniane i sama pamiec tez tego niedlugo bedzie doswiadczac.
Juz teraz GPU ma swoja dedykowana pamiec na ktorej "liczy" i albo
pojawia sie lepsze kontrolery pamieci ktore beda nadazac karmic
rdzenie danymi albo architektura pojdzie w kierunku dedykowanych
obszarow dla grupy rdzeni.
Są już takie platformy (architektura NUMA) - wcześniej AMD, później i
Intel wprowadził CPU z zintegrowanym kontrolerem pamięci (wcześniej
była to część chipsetu, co było wąskim gardłem). Kto wie, może
następnym krokiem będzie pamięć od razu wbudowana w CPU (by jeszcze
bardziej skrócić połączenia).
A na nowym sprzęcie Vista i tak bardziej muli niż Win3.11 na starym
Pentium

- słuszna uwaga o rozwoju oprogramowania. Linux ma tu
szansę coś tu poprawić (np. już wykorzystuje wielordzeniowość do
przyspieszenia startu systemu przez uruchamianie wielu procesów
równolegle, zamiast jak dawniej po kolei).
Waldemar Krzok
Guest
Mon Oct 11, 2010 3:45 pm
Am 11.10.2010 15:22, schrieb RoMan Mandziejewicz:
Quote:
Hello Waldemar,
Monday, October 11, 2010, 3:10:02 PM, you wrote:
[...]
Teoretycznie można by nawet zrobic hybryde asynchroniczną. Kiedys nazywało
się to transputerami. Kazdy procek działa sobie, ale komunikują się bardzo
mocno na poziomie procesorów. Trochę podobnie działa PS3 i nowe potwory 80 i
wiecej procesorowe Intela, ale z kolei obcinajac dosc mocno instrukcje. Nie
sa to zwykle procesory.
Transputery to był dobry pomysł, ale miały mnóstwo błędów i były bardzo
upierdliwe w programowaniu. Obecnie pomysł wraca do powszechniejszego
użytku (komputery wojskowe do obróbki zdjęć radarowych już to mają od
lat).
Hmmm... Współczesne karty grafiki zawierają bardzo ciekawe procesory,
które niekoniecznie muszą liczyć grafikę... Oprogramowania
wykorzystującego możliwości procesorów kart grafiki powstaje coraz
więcej.
są nawet drivery do Matlaba. Gdzieś widziałem obrazek PCta wypchanego
kartami graficznymi do oporu

. W końcu procesory 256 bitowe nie są w
powszechnym (normalnym) zastosowaniu. A jak jest tych procesorów
kilka(naście) na jednej karcie, to jeszcze lepiej. Tylko potrzebujesz
dobry zasilacz (albo dobre zasilacze).
Waldek
Michoo
Guest
Mon Oct 11, 2010 4:47 pm
W dniu 11.10.2010 17:48, ptoki pisze:
Quote:
Niech beda skuteczne, szybkie, energooszczedne.
A tak winrar pakuje standardowy algorytm w cpu a moglo by byc szybciej
w dedykowanym scalaku.
PS. Wiem, wiem. Klient by zglupial jakby sie sprzedawca zapytal jaki
chce modul rar czy zip i ile MB pojemnosci zobie zyczy
Po czym okazywałoby się, że lzma jest znacznie lepsze, więc nie będziesz
używał chipu, tylko procesora. Albo okaże się, że jest błąd w
implementacji i przy pewnych parametrach pliki wychodzą uszkodzone - nie
mówiąc o tym, że do "często używanych algorytmów" porobiłoby się wiele
kostek.
Robi się już od pewnego czasu FPGA na kartach PCI-E. Nie widzę problemu
w tym, żeby za jakiś czas nie było możliwości kupienia sobie
karty+zestawu zaimplementowanych algorytmów, które mogą być w niej
skonfigurowane w zależności od potrzeb - ale to tylko dla specyficznych
zastosowań. W "zwykłych" komputerach procesor jest uniwersalny i to jest
jego siła. Karty graficzne też ze specjalizowanych układów stały się
uniwersalnymi procesorami wektorowymi.
--
Pozdrawiam
Michoo
Miron (Asha) Kitkowsk
Guest
Mon Oct 11, 2010 5:02 pm
ptoki wrote:
Quote:
On 11 Paź, 14:30, "Miron (Asha) Kitkowsk" <asha9...@wp.wp.mxx.wp.pl
wrote:
ptoki wrote:
On 11 Paź, 09:18, "identifikator: 20040501" <NOSPAMtestowan...@go2.pl
wrote:
pytałem na grupie .pecet, ale tam raczej nie wiedzieli... czy Ktoś
może wie czemu to częstotliwości taktowania procesorów do PC już od
ładnych paru lat nie wzrastają?
Jest jeszcze sciezka asynchronicznosci lub hybryd. Sam widzialem opisy
dialajacych ukladow intela z rdzeniem weglowym. A asynchronicznosc
zupelnie omija bariere jakichkolwiek herców.
Ale asynchronicznosc juz jest. Bo procek czeka na dane ktore najpierw
zaciaga cache a czasem to cache juz te dane ma bo sobie przewidzialo
ze beda potrzebne.
Nie wiesz co to asynchronicznosc lub wymyslasz na sile.
Wiesz co to jest cykl? To wlasnie propagacja sygnalu lub instrukcji po
procesorze. nie da sie wydac procesorowi instrukcji przed zakonczeniem
poprzedniej (pomijam skrypty czy jak to kazdy producent nazywa).
W asynchronicznych procesorach nie wiesz ile bedzie dzialac instrukcja.
Nawet moze byc tak, ze jeden procesor moze robic je 2,3 na raz.
Tak, ze cache i mikroprogramy to zupelnie inna bajka.
Quote:
Teoretycznie można by nawet zrobic hybryde asynchroniczną. Kiedys
nazywało się to transputerami. Kazdy procek działa sobie, ale komunikują
się bardzo mocno na poziomie procesorów. Trochę podobnie działa PS3 i
nowe potwory 80 i wiecej procesorowe Intela, ale z kolei obcinajac dosc
mocno instrukcje. Nie sa to zwykle procesory.
No, jak amiga kiedys
Nie bardzo. Nawet mocno nie bardzo. Ale kto inny lepiej to opisał niż mi się
chce.
--
Na wszystko nie można odpowiadać "tak"
Miron (Asha) Kitkowsk
Guest
Mon Oct 11, 2010 5:03 pm
Michoo wrote:
Quote:
Robi się już od pewnego czasu FPGA na kartach PCI-E. Nie widzę problemu
w tym, żeby za jakiś czas nie było możliwości kupienia sobie
karty+zestawu zaimplementowanych algorytmów, które mogą być w niej
skonfigurowane w zależności od potrzeb - ale to tylko dla specyficznych
zastosowań. W "zwykłych" komputerach procesor jest uniwersalny i to jest
jego siła. Karty graficzne też ze specjalizowanych układów stały się
uniwersalnymi procesorami wektorowymi.
Wlasciwie cos takiego już jest od lat. IBM robi procesory do baz danych
--
Na wszystko nie można odpowiadać "tak"
ptoki
Guest
Mon Oct 11, 2010 5:36 pm
On 11 Paź, 15:34, M <marek...@gmail.com> wrote:
Quote:
On 11 Paź, 12:58, ptoki <sczyg...@gmail.com> wrote:
Bo architektura x86 jest taka specyficzna ze trzeba caly procek
taktowac szybciej i z tego powodu wiecej tranzystorow musi sie
bardziej grzac (Opisal to Jan Kowalski ponizej).
Było tak z architekturą NetBurst (Pentium 4), potem weszła Core i
udało się poprawić wydajność a zmniejszyć grzanie z GHz. Choć w sumie
to już było, nazywało się Pentium M tylko trochę wyprzedziło swój czas
(wtedy na oszczędność energii zwracano uwagę głównie w laptopach, a w
desktopach i serwerach mniej). Teraz jeszcze Atom... AMD też w
porównaniu z P4 wypadało lepiej.
Mialem na mysli ciutke co innego. Chodzi o to ze jak procek "cos"
liczy to relatywnie duzo jego elementow musi pracowac. Trudno osiagnac
taki stan zeby film sobie lecial a 90% procka spalo. No, powoli do
tego dorastamy ale dalej procek musi za duzo pierdół robic. Na amidze
daaawno temu granie mod-a od strony procka ograniczalo sie do
zaprogramowania dma zeby wgralo mod-a z dysku/flopa, zaprogramowaniu
dma zeby slalo dane do bodajze "pauli" i powiadomieniu tejze o
parametrach jak ma te dane grac. No i na czekaniu az ktos sie odezwie
ze skonczyl.
A w x86 jednak masa ukladow procka musi pracowac. No i jak sie nudzi
to ewentualnie zwolni ale jak cokolwiek robi to sie taktuje szybciej
prawie caly. Taka to architektura...
Quote:
Przy taktowaniu 4GHz dlugosc fali jest porownywalna z rozmiarami
komponentow na plycie i po prostu procek nie nadaza byc karmiony taka
iloscia danych zeby byl sens zwiekszania jego wydajnosci w ten sposob.
Taktowanie 4 GHz jest tylko wewnątrz CPU, pamięci mają już
kilkakrotnie mniej (np. FSB 1333 MHz to w rzeczywistości zegar 333 MHz
i dane przesyłane 4 razy w jednym cyklu).
Ale to nadal slabo bo dzisiejsze procki potrafia dosyc sprawnie liczyc
(intele zawsze dobrze liczyly) i jednak jak sie zajrzy statystyki
wewnatrz to dosyc duzo (od okolo 5-30%) czasu jest spedzone na
czekaniu na dane czy to z ram czy z portow i to mimo cache, modulow
predykcji i wielu potokow. A programisci nie maja nerwow zeby
optymalizowac kod nawet na jeden typ cpu a co dopiero na kilka
generacji...
Quote:
Dlatego widzimy objaw metody "dziel i rzadz" i procesory sa
zwielokratniane i sama pamiec tez tego niedlugo bedzie doswiadczac.
Juz teraz GPU ma swoja dedykowana pamiec na ktorej "liczy" i albo
pojawia sie lepsze kontrolery pamieci ktore beda nadazac karmic
rdzenie danymi albo architektura pojdzie w kierunku dedykowanych
obszarow dla grupy rdzeni.
Są już takie platformy (architektura NUMA) - wcześniej AMD, później i
Intel wprowadził CPU z zintegrowanym kontrolerem pamięci (wcześniej
była to część chipsetu, co było wąskim gardłem). Kto wie, może
następnym krokiem będzie pamięć od razu wbudowana w CPU (by jeszcze
bardziej skrócić połączenia).
No niby juz dawno jest (cache) ale to nadal nie to co powinno byc. Od
dawna czekam az przemysl dojrzeje to tego co miala amiga. Czyli procki
specjalizowane i do tego dosyc samodzielne. Czesciowo zarzadzanie
energia w wielordzeniowcach to realizuje ale to nadal pomysl stosowany
w pojedynczych rejonach.
Ale powoli do tego sie dochodzi (GPU, rdzenie, karty specjalizowane
(MPEG) i takie tam).
Quote:
A na nowym sprzęcie Vista i tak bardziej muli niż Win3.11 na starym
Pentium

- słuszna uwaga o rozwoju oprogramowania. Linux ma tu
szansę coś tu poprawić (np. już wykorzystuje wielordzeniowość do
przyspieszenia startu systemu przez uruchamianie wielu procesów
równolegle, zamiast jak dawniej po kolei).
Z tym zwielokratnianiem startu to nie tyle chodzilo o rdzenie co o
opoznienia. Bo np. inicjalizacja samej sieci wymagala jakiejs
komunikacji po sieci a tutaj czasy mogly skakac ponad sekunde. I tak
kazdy agent zabieral swoje milisekundy to na sieci to na dysku a to na
karcie ktora inicjalizowal i w sznurku wychodzilo dlugo mimo ze mozna
bylo robic rownolegle i bylo by szybciej...
Ale dlugo tego nie optymalizowano bo ile razy sie kompa bootuje?
Goto page 1, 2, 3 Next