Процессор пентиум 4 3ггц. Процессоры

Введение

Перед началом сезона летних отпусков оба ведущих производителя процессоров, AMD и Intel, выпустили последние модели процессоров в своих современных линейках CPU, нацеленных на использование в высокопроизводительных PC. Сначала сделала последний шаг перед предстоящим качественным скачком AMD и примерно с месяц назад представила Athlon XP 3200+ , который, как предполагается, станет самым быстрым представителем семейства Athlon XP. Дальнейшие же планы AMD в этом секторе рынка связываются уже с процессором следующего поколения с x86-64 архитектурой, Athlon 64, который должен появится в сентябре этого года. Intel же выждал небольшую паузу и представил последний из Penlium 4 на 0.13-микронном ядре Northwood только сегодня. В итоге, заключительной моделью в этом семействе стал Pentium 4 с частотой 3.2 ГГц. Пауза перед выходом следующего процессора для настольных PC, основанного на новом ядре Prescott, продлится до четвертого квартала, когда Intel вновь поднимет планку быстродействия своих процессоров для настольных компьютеров благодаря росту тактовой частоты и усовершенствованной архитектуре.

Следует отметить, что за время противостояния архитектур Athlon и Pentium 4, показала себя более масштабируемой архитектура от Intel. За период существования Pentium 4, выпускаемых по различным технологическим процессам, их частота выросла уже более чем вдвое и без проблем достигла величины 3.2 ГГц при использовании обычного 0.13-микронного технологического процесса. AMD же, задержавшаяся со своими Athlon XP на отметке 2.2 ГГц, не может похвастать на настоящий момент столь же высокими частотами своих процессоров. И хотя на одинаковых частотах Athlon XP значительно превосходит по быстродействию Pentium 4, постоянно увеличивающийся разрыв в тактовых частотах сделал свое дело: Athlon XP 3200+ с частотой 2.2 ГГц назвать полноценным конкурентом Penium 4 3.2 ГГц можно лишь со значительными оговорками.

На графике ниже мы решили показать, как росли частоты процессоров семейств Pentium 4 и Athlon за последние три года:

Как видим, частота 2.2 ГГц является для AMD непреодолимым барьером, покорен который будет в лучшем случае только лишь во второй половине следующего года, когда AMD переведет свои производственные мощности на использование 90-нанометровой технологии. До этих же пор даже процессоры следующего поколения Athlon 64 будут продолжать иметь столь невысокие частоты. Смогут ли они при этом составить достойную конкуренцию Prescott – сказать трудно. Однако, похоже, AMD ждут тяжелые проблемы. Prescott, обладающий увеличенным кешем первого и второго уровня, усовершенствованной технологией Hyper-Threading и растущими частотами может стать гораздо более привлекательным предложением, нежели Athlon 64.

Что касается процессоров Pentium 4, то их масштабируемости можно только позавидовать. Частоты Pentium 4 плавно увеличиваются с самого момента выхода этих процессоров. Небольшая пауза, наблюдающаяся летом-осенью этого года, объясняется необходимостью внедрения нового технологического процесса, но она не должна повлиять на расстановку сил на процессорном рынке. Включив технологию Hyper-Threading и переведя свои процессоры на использование 800-мегагерцовой шины, Intel добился ощутимого превосходства старших моделей своих CPU над процессорами конкурента и теперь может ни о чем не беспокоиться, по крайней мере, до начала массового распространения Athlon 64.

Также на графике выше мы показали и ближайшие планы компаний AMD и Intel по выпуску новых CPU. Похоже, AMD в ближайшее время не должна питать никаких иллюзий по поводу своего положения на рынке. Борьба с Intel на равных для нее заканчивается, компания возвращается в привычную для себя роль догоняющего. Впрочем, долгосрочные прогнозы строить пока рано, посмотрим, что даст для AMD выход Athlon 64. Однако, судя по сдержанной реакции разработчиков программного обеспечения на технологию AMD64, никакой революции с выходом следующего поколения процессоров от AMD не произойдет.

Intel Pentium 4 3.2 ГГц

Новый процессор Pentium 4 3.2 ГГц, который Intel анонсировал сегодня, 23 июня, с технологической точки зрения ничего особенного собой не представляет. Это все тот же Northwood, работающий на частоте шины 800 МГц и поддерживающий технологию Hyper-Threading. То есть, по сути, процессор полностью идентичен (за исключением тактовой частоты) Pentium 4 3.0 , который был анонсирован Intel в апреле.

Процессор Pentium 4 3.2 ГГц, как и предшественники, использует ядро степпинга D1

Единственный факт, который следует отметить в связи с выходом очередного процессора Pentium 4 на ядре Northwood – это вновь возросшее тепловыделение. Теперь типичное тепловыделение Pentium 4 3.2 ГГц составляет порядка 85 Вт, а максимальное - ощутимо превышает величину 100 Вт. Именно поэтому использование грамотно спроектированных корпусов является одним из необходимых требований при эксплуатации систем на базе Pentium 4 3.2 ГГц. Одного вентилятора в корпусе теперь явно недостаточно, кроме того, необходимо следить и за тем, чтобы воздух в районе размещения процессора хорошо вентилировался. Intel также говорит и о том, что температура воздуха, окружающего процессорный радиатор, не должна превышать 42 градуса.

Ну и еще раз напомним, что представленный Pentium 4 3.2 ГГц – последний CPU от Intel для высокопроизводительных настольных систем, основанный на 0.13-микронной технологии. Следующий процессор для таких систем будет использовать уже новое ядро Prescott, изготавливаемое по 90-нанометровой технологии. Соответственно, тепловыделение будущих процессоров для настольных PC будет меньше. Следовательно, Pentium 4 3.2 ГГц так и останется рекордсменом по тепловыделению.

Официальная цена на Pentium 4 3.2 ГГц составляет $637, а это значит, что данный процессор является самым дорогим CPU для настольных компьютеров на сегодняшний день. Более того, Intel рекомендует использовать новинку с недешевыми материнскими платами на базе набора логики i875P. Однако, как мы знаем, данным требованием можно пренебречь: многие более дешевые системные платы на базе i865PE обеспечивают аналогичный уровень производительности благодаря активизации производителями технологии PAT и в наборе логики i865PE.

Как мы тестировали

Целью данного тестирования являлось выяснение того уровня производительности, который может обеспечить новый Pentium 4 3.2 ГГц по сравнению с предшественниками и старшими моделями конкурирующей линейки Athlon XP. Таким образом, в тестировании помимо Pentium 4 3.2 ГГц приняли участие Petnium 4 3.0 ГГц, Athlon XP 3200+ и Athlon XP 3000+. В качестве платформы для тестов Pentium 4 мы выбрали материнскую плату на чипсете i875P (Canterwood) с двухканальной DDR400 памятью, а тесты Athlon XP проводились при использовании материнской платы на базе наиболее производительного чипсета NVIDIA nForce 400 Ultra.

Состав тестовых систем приведен ниже:

Примечания:

  • Память во всех случаях эксплуатировалась в синхронном режиме с FSB в двухканальной конфигурации. Использовались наиболее агрессивные тайминги 2-2-2-5.
  • Тестирование выполнялось в операционной системе Windows XP SP1 с установленным пакетом DirectX 9.0a.

Производительность в офисных приложениях и приложениях для создания контента

В первую очередь по сложившейся традиции мы измерили скорость процессоров в офисных приложениях и приложениях, работающих с цифровых контентом. Для этого мы воспользовались тестовыми пакетами семейства Winstone.

В Business Winstone 2002, включающем в себя типовые офисные бизнес-приложения, на высоте оказываются процессоры семейства Athlon XP, производительность которых ощутимо превосходит скорость процессоров конкурирующего семейства. Данная ситуация достаточно привычна для этого теста и обуславливается как особенностями архитектуры Athlon XP, так и большим объемом кеш-памяти у ядра Barton, суммарная емкость которой благодаря эксклюзивности L2 достигает 640 Кбайт.

В комплексном тесте Multimedia Content Creation Winstone 2003, измеряющем скорость работы тестовых платформ в приложениях для работы с цифровым контентом, картина несколько иная. Процессоры Pentium 4, имеющие NetBurst архитектуру и обладающие высокоскоростной шиной с пропускной способностью 6.4 Гбайта в секунду оставляют старшие модели Athlon XP далеко позади.

Производительность при обработке потоковых данных

Большинство приложений, работающих с потоками данных, как известно, работает быстрее на процессорах Pentium 4. Здесь раскрываются все преимущества NetBurst архитектуры. Поэтому, результат, полученный нами в WinRAR 3.2, не должен никого удивлять. Старшие Pentium 4 значительно обгоняют по скорости сжатия информации топовые Athlon XP.

Аналогичная ситуация наблюдается и при кодировании звуковых файлов в формат mp3 кодеком LAME 3.93. Кстати, данный кодек поддерживает многопоточность, поэтому высокие результаты Pentium 4 здесь можно отнести и на счет поддержки этими CPU технологии Hyper-Threading. В итоге, Pentium 4 3.2 обгоняет старший Athlon XP с рейтингом 3200+ почти на 20%.

В данное тестирование мы включили результаты, полученные при измерении скорости кодирования AVI ролика в формат MPEG-2 одним из лучших кодеров, Canopus Procoder 1.5. Как это не удивительно, Athlon XP в данном случае показывает слегка более высокую производительность. Впрочем, отнести это, скорее всего, следует на счет высокопроизводительного блока операций с плавающей точкой, присутствующего в Athlon XP. SSE2 инструкции процессоров Pentium 4 в данном случае, как мы видим, не могут являться столь же сильной альтернативой. Правда, следует отметить, что разрыв в скорости старших моделей Athlon XP и Pentium 4 совсем небольшой.

Кодирование видео в формат MPEG-4 – еще один пример задачи, где процессоры Pentium 4 с технологией Hyper-Threading и 800-мегагерцовой шиной демонстрирует свои сильные стороны. Превосходство Pentium 4 3.2 над Athlon XP 3200+ в этом тесте составляет почти 20%.

Аналогичная ситуация наблюдается и при кодировании видео при помощи Windows Media Encoder 9: это приложение имеет оптимизацию под набор команд SSE2 и отлично приспособлено для NetBurst архитектуры. Поэтому, совершенно неудивительно, что вновь верхнюю часть диаграммы оккупировали процессоры от Intel.

Производительность в игровых приложениях

После выхода пропатченной версии 3Dmark03 результаты Pentium 4 относительно Athlon XP в этом тесте стали несколько выше. Однако расклад сил это не изменило: Pentium 4 лидировали в этом бенчмарке и ранее.

Pentium 4 подтверждает свое лидерство и в общем зачете в 3Dmark03. Правда, отрыв здесь небольшой: сказывается тот факт, что 3Dmark03 в первую очередь – это тест видеоподсистемы.

После перехода Pentium 4 на использование 800-мегагерцовой шины, Pentium 4 стали обгонять Athlon XP и в более старой версии 3Dmark2001. Причем, отрыв Pentium 4 3.2 ГГц от Athlon XP 3200+ уже достаточно существенен и составляет 6%.

В Quake3 Pentium 4 традиционно обгоняет Athlon XP, поэтому результат удивления не вызывает.

Аналогичная картина наблюдается и в игре Return to Castle Wolfenstein. Это совершенно логично, поскольку данная игра использует тот же движок Quake3.

Одно из немногих приложений, где старшей модели Athlon XP удается удержать лидерство, это – Unreal Tournament 2003. Хочется отметить, что все современные игры не имеют поддержки технологии Hyper-Threading, поэтому в играх потенциал новых Pentium 4 пока раскрывается не полностью.

А вот в Serious Sam 2 Athlon XP 3200+ больше лидером не является. С выходом нового процессора от Intel пальма первенства в этой игре переходит именно к Pentium 4 3.2 ГГц.

Новая игра Splinter Cell, хотя и основана на том же движке, что и Unreal Tournament 2003, быстрее работает на процессорах от Intel.

В целом, остается признать, что быстрейшим процессором для современных 3D игр на данный момент является Pentium 4 3.2 ГГц, обходящий Athlon XP 3200+ в большинстве игровых тестов. Ситуация меняется стремительно. Еще совсем недавно старшие Athlon XP в игровых тестах нисколько не уступали процессорам от Intel.

Производительность при 3D-рендеринге

Поскольку 3ds max 5.1, который мы использовали в данном тестировании, хорошо оптимизирован под многопоточность, Pentium 4, умеющий исполнять два потока одновременно благодаря технологии Hyper-Threading, с большим отрывом оказывается лидером. Даже старший Athlon XP 3200+ не может составить ему никакой конкуренции.

Абсолютно тоже самое можно сказать и про скорость рендеринга в Lightwave 7.5. Впрочем, в некоторых сценах, например при рендеринге Sunset, старшие модели Athlon XP смотрятся не так уж и плохо, однако такие случаи единичны.

Спорить с Pentium 4, выполняющем два потока одновременно, в задачах рендеринга для Athlon XP сложновато. К сожалению, AMD не имеет планов по внедрению технологий, подобных Hyper-Threading даже в будущих процессорах семейства Athlon 64.

Абсолютно аналогичная ситуация наблюдается и в POV-Ray 3.5.

Производительность при научных расчетах

Для тестирования скорости новых CPU от AMD при научных расчетах был использован пакет ScienceMark 2.0. Подробности об этом тесте можно получить на сайте http://www.sciencemark.org . Этот бенчмарк поддерживает многопоточность, а также все наборы SIMD-инструкций, включая MMX, 3DNow!, SSE и SSE2.

То, что в задачах математического моделирования или криптографии процессоры семейства Athlon XP показывают себя с наилучшей стороны, известно давно. Здесь мы видим еще одно подтверждение этого факта. Хотя, надо сказать, свое былое преимущество Athlon XP начинает терять. Например, в тесте Molecular Dinamics на первое место выходит уже новый Pentium 4 3.2 ГГц.

Кроме теста ScienceMark в этом разделе мы решили протестировать и скорость работы новых процессоров в клиенте российского проекта распределенных вычислений MD@home, посвященному расчету динамических свойств олигопептидов (фрагментов белков). Расчет свойств олигопептидов, возможно, сможет помочь изучению фундаментальных свойств белков, тем самым, внеся вклад в развитие науки.

Как видим, задачи молекулярной динамики новые Pentium 4 решают быстрее Athlon XP. Столь высокого результата Pentium 4 достигают благодаря своей технологии Hyper-Threading. Сам клиент MD@home, к сожалению, многопоточность не поддерживает, однако запуск двух клиентских программ в параллели на системах с процессорами с технологией Hyper-Threading позволяет ускорить процесс расчета более чем на 40%.

Выводы

Проведенное тестирование явно показывает, что на очередном этапе конкурентной борьбы Intel удалось одержать победу над AMD. Последний процессор на ядре Northwood обгоняет по своей производительности старшую и последнюю модель Athlon XP в большинстве тестов. За последнее время Intel смог значительно увеличить частоты своих CPU, увеличить частоту их шины, а также внедрить хитрую технологию Hyper-Threading, дающую дополнительный прирост скорости в ряде задач. AMD же, не имея возможности наращивать тактовые частоты своих процессоров ввиду технологических и архитектурных сложностей, не смогла адекватно усилить свои CPU. Не поправило положение даже появление нового ядра Barton: последние модели Pentium 4 оказываются явно сильнее старших Athlon XP. В результате, Pentium 4 3.2 ГГц вполне можно считать наиболее производительным CPU для настольных систем в настоящее время. Такая ситуация продлится по меньшей мере до сентября, когда AMD, наконец, должна будет анонсировать свои новые процессоры семейства Athlon 64.

Необходимо отметить и тот факт, что рейтинговая система, используемая в настоящее время AMD для маркировки своих процессоров, не может больше являться критерием, по которому Athlon XP можно сопоставлять с Pentium 4. Улучшения, которые произошли с Pentium 4, в числе которых следует отметить перевод этих CPU на 800-мегагерцовую шину и внедрение технологии Hyper-Threading, привели к тому, что Pentium 4 с частотой, равной рейтингу соответствующего Athlon XP, оказывается явно быстрее.

В общем, мы с интересом будем ожидать осени, когда и AMD и Intel представят свои новые разработки, Prescott и Athlon 64, которые, возможно, смогут обострить конкурентную борьбу между давними соперниками на процессорном рынке. Сейчас же AMD оказывается оттеснена Intel в сектор недорогих процессоров где, впрочем, эта компания чувствует себя превосходно: Celeron по сравнению с Athlon XP – откровенно слабый соперник.

4 считается самой удачной по сравнению с другими модификациями производителя, ведь в течение многих лет работы она доказала право на своё существование. В данной статье читатель сможет узнать, чем же так хороши эти процессоры, узнает их технические характеристики, а тестирование и отзывы помогут потенциальному покупателю определиться с выбором на рынке компьютерных комплектующих.

Гонка за частотами

Как показывает история, поколения процессоров сменялись одно за другим благодаря гонке производителей за частотами. Естественно, внедрялись также новые технологии, но они были не на первом плане. И пользователи, и производители понимали, что настанет день, когда эффективная частота процессора будет достигнута, и это случилось после появления четвёртого поколения Intel Pentium. 4 GHz - частота работы одного ядра - стала пределом. Кристаллу для работы требовалось слишком много электроэнергии. Соответственно, и рассеиваемая мощность в виде колоссального тепловыделения ставила под сомнение работу всей системы.

Все последующие модификации а также аналоги конкурентов стали производиться в пределах 4 ГГц. Тут уже вспомнили про технологии с использованием нескольких ядер и внедрение специальных инструкций, которые способны оптимизировать работу по обработке данных в целом.

Первый блин комом

В сфере высоких технологий монополия на рынке ни к чему хорошему привести не может, в этом уже убедились многие производители электроники на собственном опыте (диски DVD-R были заменены на DVD+R, а ZIP-дисковод вообще канул в Лету). Однако компании Intel и Rambus решили всё-таки хорошо заработать и выпустили совместный многообещающий продукт. Так на рынке появился первый Pentium 4, который работал на Socket 423 и на очень высокой скорости общался с оперативной памятью Rambus. Естественно, многие пользователи пожелали стать владельцами самого быстрого компьютера в мире.

Стать монополистами на рынке двум компаниям помешало открытие двухканального режима памяти. Проведённые тестирования новинки показали колоссальный прирост производительности. Новой технологией тут же заинтересовались все производители компьютерных комплектующих. А первый процессор Pentium 4 вместе с сокетом 423 стал историей, ведь производитель не обеспечил платформу возможностью модернизации. На данный момент комплектующие под эту платформу востребованы, как оказалось, ряд государственных предприятий успели закупить сверхбыстрые компьютеры. Естественно, замена комплектующих на порядок дешевле полного апгрейда.

Шаг в правильном направлении

У многих владельцев персональных компьютеров, которые не играют в игры, а предпочитают работать с документацией и просматривать мультимедиа контент, до сих пор установлен Intel Pentium 4 (Socket 478). Миллионы тестов, проведённых профессионалами и энтузиастами, показывают, что мощности данной платформы достаточно для всех задач рядового пользователя.

Данная платформа использует две модификации ядер: Willamette и Prescott. Судя по характеристикам, отличия между двумя процессорами незначительные, в последней модификации добавлена поддержка 13 новых инструкций для оптимизации данных, получивших краткое название SSE3. Частотный диапазон работы кристаллов находится в пределах 1,4-3,4 ГГц, что, по сути, и удовлетворяет требования рынка. Производитель рискнул ввести дополнительную ветку процессоров под сокет 478, которые должны были привлечь внимание любителей игр и оверлокеров. Новая линейка получила название Intel Pentium 4 CPU Extreme Edition.

Преимущества и недостатки 478 сокета

Судя по отзывам ИТ-специалистов, процессор Intel Pentium 4, работающий на платформе 478 сокета, является до сих пор довольно востребованным. Не каждый владелец компьютера может позволить себе модернизацию, которая требует приобретения трёх базовых комплектующих (материнская плата, процессор и оперативная память). Ведь для большинства задач, для улучшения производительности всей системы достаточно установить более мощный кристалл. Благо вторичный рынок ими переполнен, ведь процессор намного долговечнее той же материнской платы.

И если производить апгрейд, то внимание нужно уделить самым мощным представителям в данной категории Extreme Edition, которые до сих пор показывают достойные результаты в тестах на производительность. Недостатком мощных процессоров под является большая рассеиваемая мощность, которая требует хорошего охлаждения. Поэтому к расходам пользователя добавится и необходимость приобретения достойного кулера.

Процессоры по низкой цене

Читатель однозначно сталкивался на рынке с моделями процессоров Intel Pentium 4, имеющих в маркировке надпись Celeron. По сути - это младшая линейка устройств, которая обладает меньшей мощностью за счёт уменьшения инструкций и отключения блоков внутренней памяти микропроцессора (кэш). Рынок Intel Celeron нацелен на пользователей, которым прежде всего важна цена компьютера, а не его производительность.

Среди пользователей бытует мнение, что младшая линейка процессоров является отбраковкой в процессе производства кристаллов Intel Pentium 4. Истоком данного предположения является ажиотаж на рынке в далёком 1999 году, когда группа энтузиастов доказала общественности, что Pentium 2 и его младшая модель Celeron являются одним и тем же процессором. Однако за прошедшие годы ситуация в корне изменилась, и производитель имеет отдельную линию по выпуску недорогого устройства для нетребовательных покупателей. К тому же нельзя забывать о конкуренте AMD, который претендует на то, чтобы вытеснить компанию Intel с рынка. Соответственно, все ценовые ниши должны быть заняты достойной продукцией.

Новый виток эволюции

Многие специалисты в области компьютерных технологий считают, что именно появление на рынке процессора Intel Pentium 4 Prescott открыло эпоху устройств с несколькими ядрами и завершило гонку за гигагерцами. С появлением новых технологий производителю пришлось перейти на сокет 775, который и помог раскрыть потенциал всех персональных компьютеров в работе с ресурсоёмкими программами и динамическими играми. По статистике, более 50% всех компьютеров на планете работают на легендарном разъёме Socket 775 от компании Intel.

Появление процессора Intel привело к ажиотажу на рынке, ведь производитель на одном ядре умудрился запустить два потока инструкций, создав прообраз двухъядерного устройства. Технология получила название Hyper-threading и на сегодня является передовым решением при производстве самых мощных кристаллов в мире. Не останавливаясь на достигнутом, компания Intel презентовала технологии Dual Core, Core 2 Duo и Core 2 Quad, которые на аппаратном уровне имели по несколько микропроцессоров на одном кристалле.

Двуликие процессоры

Если ориентироваться на критерий «цена-качество», то в фокусе однозначно окажутся процессоры с двумя ядрами. Их низкая себестоимость и отличная производительность дополняют друг друга. Микропроцессоры Intel Pentium Dual Core и Core 2 Duo являются самыми продаваемыми в мире. Их основное отличие между собой в том, что последний имеет два физических ядра, которые работают независимо друг от друга. А вот процессор Dual Core реализован в виде двух контроллеров, которые установлены на одном кристалле и их совместная работа неразрывно связана между собой.

Частотный диапазон устройств, имеющих два ядра, немного занижен и колеблется в пределах 2-2,66 ГГц. Вся проблема - в рассеиваемой мощности кристалла, который сильно греется на повышенных частотах. Примером служит вся восьмая линейка Intel Pentium D (D820-D840). Именно они получили первыми два раздельных ядра и рабочие частоты свыше 3 ГГц. Потребляемая мощность этих процессоров составляет в среднем 130 Вт (в зимнее время вполне приемлемый обогреватель комнаты для пользователей).

Перебор с четырьмя ядрами

Новинки с четырьмя ядрами Intel(R) Pentium(R) 4 явно были рассчитаны на пользователей, которые предпочитают приобретать комплектующие с большим запасом на будущее. Однако рынок программного обеспечения вдруг остановился. Разработка, тестирование и внедрение приложений производится для устройств, имеющих одно или два ядра максимум. А как же быть с системами, состоящими из 6, 8 и более микропроцессоров? Обычный маркетинговый ход, ориентированный на потенциальных покупателей, которые желают приобрести сверхмощный компьютер или ноутбук.

Как с мегапикселями на фотоаппарате - лучше не тот, где написано 20 Мп, а устройство с большей матрицей и фокусным расстоянием. А в процессорах погоду делает набор инструкций, которые обрабатывают программный код приложения и выдают результат пользователю. Соответственно, программисты должны этот самый код оптимизировать так, чтобы микропроцессор его быстро и без ошибок обрабатывал. Так как слабых компьютеров на рынке большинство, то разработчикам выгодно создавать нересурсоёмкие программы. Соответственно, большая мощность компьютера на данном этапе эволюции не нужна.

Владельцам процессора Intel Pentium 4 желающим произвести модернизацию с минимальными затратами, профессионалы рекомендуют посмотреть в сторону вторичного рынка. Но для начала нужно выяснить технические характеристики установленной в системе материнской платы. Сделать это можно на сайте производителя. Интересует раздел «поддержка процессоров». Далее в средствах массовой информации необходимо найти и, сравнив с характеристиками материнской платы, выбрать несколько достойных вариантов. Не помешает изучить отзывы владельцев и ИТ-специалистов в СМИ по выбранным устройствам. После чего можно заняться поиском необходимого процессора, бывшего в употреблении.

Для многих платформ, поддерживающих работу микропроцессоров с четырьмя ядрами, рекомендуется устанавливать Intel Core Quad 6600. Если система умеет работать только с двухъядерными кристаллами, то стоит поискать серверный вариант Intel Xeon или инструмент для оверлокера Intel Extreme Edition (естественно, под сокет 775). Их стоимость на рынке находится в пределах 800-1000 рублей, что на порядок дешевле любого апгрейда.

Рынок мобильных устройств

Помимо стационарных компьютеров, процессоры Intel Pentium 4 устанавливались также на ноутбуки. Для этого производителем была создана отдельная линейка, которая в своей маркировке имела букву «М». Характеристики мобильных процессоров были идентичны стационарным компьютерам, однако частотный диапазон явно был занижен. Так, самым мощным среди процессоров для ноутбуков считается Pentium 4M 2,66 ГГц.

Однако с развитием платформ в мобильных версиях всё так напутано, что сам производитель Intel до сих пор не предоставил дерево развития процессоров на своём официальном сайте. Используя 478-контактную платформу в ноутбуках, компания изменяла лишь технологию обработки процессорного кода. В результате, на одном сокете удалось развести целый "зоопарк" процессоров. Самым популярным, по статистике, принято считать кристалл Intel Pentium Dual Core. Дело в том, что это самое дешёвое устройство в производстве, и его рассеиваемая мощность ничтожно мала по сравнению с аналогами.

Гонка за энергосбережением

Если для процессором мощность не является для системы критичной, то для ноутбука ситуация кардинально меняется. Тут устройства Intel Pentium 4 были вытеснены менее энергозависимыми микропроцессорами. И если читатель познакомится с тестами мобильных процессоров, то он увидит, что по производительности старый Core 2 Quad из линейки Pentium 4 не сильно отстаёт от более современного кристалла Core i5, а вот энергопотребление последнего в 3,5 раза меньше. Естественно, такое различие сказывается на автономности работы ноутбука.

Проследив за рынком мобильных процессоров, можно обнаружить, что производитель снова вернулся к технологиям прошлого десятилетия и начинает активно устанавливать во все ноутбуки продукты Intel Atom. Только не нужно их сравнивать с маломощными процессорами, устанавливаемыми на нетбуки и планшеты. Это совершенно новые, технологичные и очень производительные системы, имеющие на борту 2 или 4 ядра и способные принять участие в тестировании приложений или игр наравне с кристаллами Core i5/i7.

В заключение

Как видно из обзора, легендарный процессор Intel Pentium 4, характеристики которого претерпели изменений за многие годы, не только имеет право на сосуществование с новыми линейками производителя, но и успешно конкурирует в сегменте «цена-качество». И если речь идёт об апгрейде компьютера, то перед совершением важного шага стоит понять, есть ли смысл менять шило на мыло. В большинстве случаев, особенно когда речь идёт о производительных играх, профессионалы рекомендуют произвести модернизацию заменой видеокарты. Также многие пользователи не знают, что слабым звеном компьютера в динамических играх является жёсткий магнитный диск. Замена его на SSD-накопитель способна увеличить производительность компьютера в несколько раз.

Относительно мобильных устройств ситуация несколько другая. Работа всей системы сильно зависима от температуры внутри корпуса ноутбука. Понятно, что мощный процессор в пиковых нагрузках приведёт к торможениям или полному отключению устройства (много негативных отзывов этот факт подтверждают). Естественно, при покупке ноутбука для игр нужно уделить внимание экономичности процессора в плане энергопотребления и достойного охлаждения всех комплектующих.


Казалось бы не так уж и давно вышел Pentium 4 2,8 ГГц, но неугомонная компания Intel видать настолько горда способностью своего нового процессорного ядра к постоянному «разгону», что не дает нам покоя анонсами все новых и новых процессоров:). Однако сегодняшний наш герой отличается от предыдущей топовой модели не только на 200 с небольшим мегагерц — то, о чем давно мечтали некоторые особо продвинутые пользователи, наконец-то свершилось: технология эмуляции двух процессоров на одном процессорном ядре, ранее бывшая достоянием лишь сверхдорогих Xeon, наконец-то «освобождена» и отправлена в «свободное десктопное плавание». Хотите двухпроцессорный домашний компьютер? Их есть у нас! Все последующие модели Pentium 4, начиная с рассматриваемой в этом материале, будут обладать поддержкой Hyper-Threading. Однако кто-то может вполне резонно поинтересоваться: «А зачем мне двухпроцессорная машина дома? У меня же не сервер какой-нибудь!». И действительно — зачем? Именно это мы и постарались объяснить ниже. Итак: Hyper-Threading — что это такое и зачем он может быть нужен в обычных персональных компьютерах?

SMP и Hyper-Threading: «галопом по европам»

Для начала, давайте сделаем вид, что начинаем «с чистого листа» т. е. механизмы функционирования многопроцессорных систем нам неизвестны. Мы не собираемся начинать данной статьей цикл монографий, посвященных этому вопросу:), поэтому сложных моментов, связанных, к примеру, с виртуализацией прерываний и прочими вещами, трогать не будем. Фактически, нам нужно просто представлять как работает классическая SMP(Symmetric Multi-Processor)-система с точки зрения обычной логики. Нужно это хотя бы потому, что не так уж велико количество пользователей, хорошо себе представляющих как работает SMP-система, и в каких случаях от использования двух процессоров вместо одного можно ожидать реального увеличения быстродействия, а в каких — нет. Честное слово, один из авторов этого материала как-то угробил часа полтора времени, доказывая своему, скажем так, «не бедному» другу, что Unreal Tournament у него на многопроцессорной машине будет работать ничуть не быстрее, чем на обычной:). Смешно? Уверяю вас — только со стороны. Итак, представим, что у нас есть, к примеру, два процессора (остановимся на этом, самом простом примере) вместо одного. Что это нам дает?

В общем-то… ничего. Потому что в дополнение к этому нам нужна еще и операционная система, умеющая эти два процессора задействовать. Система эта должна быть по определению многозадачной (иначе никакого смысла в наличии двух CPU просто быть не может), но кроме этого, ее ядро должно уметь распараллеливать вычисления на несколько CPU. Классическим примером многозадачной ОС, которая этого делать не умеет, являются все ОС от Microsoft, называемые обычно для краткости «Windows 9x» — 95, 95OSR2, 98, 98SE, Me. Они просто-напросто не могут определить наличие более чем одного процессора в системе… ну и, собственно, дальше объяснять уже нечего:). Поддержкой SMP обладают ОС этого же производителя, построенные на ядре NT: Windows NT 4, Windows 2000, Windows XP. Также в силу своих корней, этой поддержкой обладают все ОС, основанные на идеологии Unix — всевозможные Free- Net- BSD, коммерческие Unix (такие как Solaris, HP-UX, AIX), и многочисленные разновидности Linux. Да, к слову — MS DOS многопроцессорность в общем случае тоже «не понимает»:).

Если же два процессора все же определились системой, то дальнейший механизм их задействования в общем-то (на «логическом», подчеркнем, уровне!) довольно-таки прост. Если в данный момент времени исполняется одно приложение — то все ресурсы одного процессора будут отданы ему, второй же будет просто простаивать. Если приложений стало два — второе будет отдано на исполнение второму CPU, так что по идее скорость выполнения первого уменьшиться не должна вообще никак. Это в примитиве. Однако на самом деле все сложнее. Для начала: исполняемое пользовательское приложение у нас может быть запущено всего одно, но количество процессов (т. е. фрагментов машинного кода, предназначенных для выполнения некой задачи) в многозадачной ОС всегда намного больше. Начнем с того, что сама ОС — это тоже приложение… ну и не будем углубляться — логика понятна. Поэтому на самом деле второй CPU способен немного «помочь» даже одиночной задаче, взяв на себя обслуживание процессов, порожденных операционной системой. Опять-таки, к слову об упрощениях — именно так, идеально, разделить CPU между пользовательским приложением и ОС, конечно, все равно не получится, но, по крайней мере, процессор, занятый исполнением «полезной» задачи, будет меньше отвлекаться.

Кроме того, даже одно приложение может порождать потоки (threads), которые при наличии нескольких CPU могут исполняться на них по отдельности. Так, например, поступают почти все программы рендеринга — они специально писались с учетом возможности работы на многопроцессорных системах. Поэтому в случае использования потоков выигрыш от SMP иногда довольно весо м даже в «однозадачной» ситуации. По сути, поток отличается от процесса только двумя вещами — он во-первых никогда не порождается пользователем (процесс может запустить как система, так и человек, в последнем случае процесс = приложение; появление потока инициируется исключительно запущенным процессом), и во-вторых — поток умирает вместе с родительским процессом независимо от своего желания — к примеру, если родительский процесс «глюкнул и упал» — все порожденные им потоки ОС считает бесхозными и «прибивает» уже сама, автоматически.

Также не стоит забывать, что в классической SMP-системе оба процессора работают каждый со своим кэшем и набором регистров, но память у них общая. Поэтому если две задачи одновременно работают с ОЗУ, мешать они друг другу будут все равно, даже если CPU у каждой «свой собственный». Ну и наконец последнее: в реальности мы имеем дело не с одним, не с двумя, и даже не с тремя процессами. На приведенном коллаже (это действительно коллаж, потому что со скриншота Task Manager были удалены все пользовательские процессы, т. е. приложения, запускаемые «для работы») хорошо видно, что «голая» Windows XP, сама по себе, не запустив еще ни одного приложения, уже породила 12 процессов, причем многие из них к тому же еще и многопоточные, и общее количество потоков достигает двухсот восьми штук (!!!).

Поэтому рассчитывать на то, что нам удастся прийти к схеме «по собственному CPU на каждую задачу» совершенно не приходится, и переключаться между фрагментами кода процессоры будут все равно — и физические, и виртуальные, и будь они хоть виртуальные в квадрате и по 10 штук на каждое физическое ядро:). Впрочем, на самом деле все не так грустно — при грамотно написанном коде ничего в данный момент не делающий процесс (или поток) процессорного времени практически не занимает (это тоже видно на коллаже).

Теперь, разобравшись с «физической» многопроцессорностью, перейдем к Hyper-Threading. Фактически — это тоже многопроцессорность, только… виртуальная. Ибо процессор Pentium 4 на самом деле один — вот он, стоит в сокете, сверху кулер пришлепнут:). Второго сокета — нет. А процессоров ОС видит — два. Как это? В общем-то, очень просто. Смотрим на рисунок.

Здесь нам придется все-таки немного углубиться в технические детали, потому что иначе, увы, что-либо объяснить не получится. Впрочем, те, кому оные детали неинтересны, могут данный абзац просто пропустить. Итак, классическому «одноядерному» процессору в нашем случае добавили еще один блок AS — IA-32 Architectural State. Architectural State содержит состояние регистров (общего назначения, управляющих, APIC, служебных). Фактически, AS#1 плюс единственное физическое ядро (блоки предсказания ветвлений, ALU, FPU, SIMD-блоки и пр.) представляет из себя один логический процессор (LP1), а AS#2 плюс все то же физическое ядро — второй логический процессор (LP2). У каждого LP есть свой собственный контроллер прерываний (APIC — Advanced Programmable Interrupt Controller) и набор регистров. Для корректного использования регистров двумя LP существует специальная таблица — RAT (Register Alias Table), согласно данным в которой можно установить соответствие между регистрами общего назначения физического CPU. RAT у каждого LP своя. В результате мы получили схему, при которой на одном и том же ядре могут свободно выполняться два независимых фрагмента кода т. е. де-факто — многопроцессорную систему!

Hyper-Threading: совместимость

Кроме того, возвращаясь к вещам практическим и приземленным, хотелось бы затронуть еще один немаловажный аспект: не все ОС, даже поддерживающие многопроцессорность, могут работать с таким CPU как с двумя . Связано это с таким «тонким» моментом, как изначальное определение количества процессоров при инициализации операционной системы. Intel прямо говорит, что ОС без поддержки ACPI второй логический процессор увидеть не смогут. Кроме того, BIOS системной платы также должен уметь определять наличие процессора с поддержкой Hyper-Threading и соответствующим образом «рапортовать» системе. Фактически, применительно, к примеру, к Windows, это означает, что «в пролете» у нас оказывается не только линейка Windows 9x, но и Windows NT — последняя ввиду отсутствия поддержки ACPI не сможет работать с одним новым Pentium 4 как с двумя. А вот что приятно — это то, что несмотря на заблокированную возможность работы с двумя физическими процессорами, с двумя логическими, получаемыми с помощью Hyper-Threading, сможет работать Windows XP Home Edition. А Windows XP Professional, кстати, несмотря на ограничение количества физических процессоров до двух, при двух установленных CPU с поддержкой Hyper-Threading честно «видит» четыре:).

Теперь немного о «железе». То, что новые CPU с частотой более 3 ГГц могут потребовать замены системной платы, знают, наверное, уже все — земля (а точнее — Internet) слухами полнится уже давно. К сожалению, это на самом деле так. Даже при номинальном сохранении все того же процессорного разъема Socket 478 Intel не удалось оставить в неприкосновенности потребляемую мощность и тепловыделение новых процессоров — потребляют они больше, и греются, соответственно, тоже. Можно предположить (хоть это и не подтверждено официально), что увеличение потребления по току связано не только с ростом частоты, но и с тем, что из-за ожидаемого использования «виртуальной многопроцессорности» нагрузка на ядро в среднем вырастет, следовательно, возрастет и средняя потребляемая мощность. «Старые» системные платы в некоторых случаях могут быть совместимы с новыми CPU — но только если делались «с запасом». Грубо говоря, те производители, которые делали свои PCB в соответствии с рекомендациями самой Intel относительно потребляемой Pentium 4 мощности, оказались в проигрыше по отношению к тем, кто немного «перестраховался», поставив на плату VRM с запасом и соответствующим образом ее разведя. Но и это еще не все. Кроме ОС, BIOS и электроники платы, с технологией Hyper-Threading должен быть совместим еще и чипсет . Поэтому счастливыми обладателями двух процессоров по цене одного:) смогут стать только те, чья системная плата основана на одном из новых чипсетов с поддержкой 533 МГц FSB: i850E, i845E, i845PE/GE. Несколько особняком стоит i845G — первая ревизия этого набора микросхем Hyper-Threading не поддерживает , более поздняя — уже совместима.

Ну, вот, вроде бы с теорией и совместимостью разобрались. Но не будем спешить. ОК, у нас есть два «логических» процессора, у нас есть Hyper-Threading, вау! — это круто. Но как уже было сказано выше, физически у нас процессор как был один, так и остался. Зачем же тогда нужна такая сложная «эмуляционная» технология, отбрасывая то, что можно горделиво демонстрировать Task Manager с графиками загруженности двух CPU друзьям и знакомым?

Hyper-Threading: зачем она нужна?

Против обыкновения, в этой статье мы немного больше чем обычно уделим внимания рассуждениям т. е. не технической прозе (где все в общем-то довольно однозначно трактуется и на основании одних и тех же результатов совершенно независимые люди чаще всего делают тем не менее весьма похожие выводы), а «технической лирике» — т. е. попытке понять, что же такое нам предлагает Intel и как к этому следует относиться. Я уже неоднократно писал в «Колонке редактора» на нашем сайте, и повторю здесь, что эта компания, если внимательно посмотреть, никогда не отличалась абсолютным совершенством своих продуктов, более того — вариации на те же темы от других производителей подчас получались гораздо более интересными и концептуально стройными. Однако, как оказалось, абсолютно все делать совершенным и не нужно — главное чтобы чип олицетворял собой какую-то идею, и идея эта приходилась очень вовремя и к месту. И еще — чтобы ее просто не было у других.

Так было с Pentium, когда Intel противопоставила весьма шустрому в «целочисленке» AMD Am5x86 мощный FPU. Так было с Pentium II, который получил толстую шину и быстрый кэш второго уровня, благодаря чему за ним так и не смогли угнаться все процессоры Socket 7. Так было (ну, по крайней мере, я считаю это свершившимся фактом) и с Pentium 4, который противопоставил всем остальным наличие поддержки SSE2 и быстрый рост частоты — и тоже де-факто выиграл. Сейчас Intel предлагает нам Hyper-Threading. И мы отнюдь не призываем в священной истерике биться лбом о стенку и кричать «господи помилуй», «аллах велик» или «Intel rulez forever». Нет, мы просто предлагаем задуматься — почему производитель, известный грамотностью своих инженеров (ни слова про маркетологов! :)) и громадными суммами, которые он тратит на исследования, предлагает нам эту технологию.

Объявить Hyper-Threading «очередной маркетинговой штучкой», конечно, проще простого. Однако не стоит забывать, что это технология , она требует исследований, денег на разработку, времени, сил… Не проще ли было нанять за меньшую сумму еще одну сотню PR-менеджеров или сделать еще десяток красивых рекламных роликов? Видимо, не проще. А значит, «что-то в этом есть». Вот мы сейчас и попытаемся понять даже не то, что получилось в результате, а то, чем руководствовались разработчики IAG (Intel Architecture Group), когда принимали решение (а такое решение наверняка принималось!) — разрабатывать «эту интересную мысль» дальше, или отложить в сундук для идей забавных, но бесполезных.

Как ни странно, для того чтобы понять как функционирует Hyper-Threading, вполне достаточно понимать как работает… любая многозадачная операционная система. И действительно — ну ведь исполняет же каким-то образом один процессор сразу десятки задач? Этот «секрет» всем уже давно известен — на самом деле одновременно все равно выполняется только одна (на однопроцессорной системе), просто переключение между кусками кода разных задач выполняется настолько быстро, что создается иллюзия одновременной работы большого количества приложений.

По сути, Hyper-Threading предлагает нам то же самое, но реализована аппаратно, внутри самого CPU. Есть некоторое количество различных исполняющих блоков (ALU, MMU, FPU, SIMD), и есть два «одновременно» исполняемых фрагмента кода. Специальный блок отслеживает, какие команды из каждого фрагмента необходимо выполнить в данный момент, после чего проверяет, загружены ли работой все исполняющие блоки процессора. Если один из них простаивает, и именно он может исполнить эту команду — ему она и передается. Естественно, существует и механизм принудительного «посыла» команды на выполнение — в противном случае один процесс мог бы захватить весь процессор (все исполняющие блоки) и исполнение второго участка кода (исполняемого на втором «виртуальном CPU») было бы прервано. Насколько мы поняли, данный механизм (пока?) не является интеллектуальным т. е. не способен оперировать различными приоритетами, а просто чередует команды из двух разных цепочек в порядке живой очереди т. е. просто по принципу «я твою команду исполнил — теперь уступи место другому потоку». Если, конечно, не возникает ситуации, когда команды одной цепочки по исполняющим блокам нигде не конкурируют с командами другой. В этом случае мы получаем действительно на 100% параллельное исполнение двух фрагментов кода.

Теперь давайте подумаем, чем Hyper-Threading потенциально хороша, и чем — нет. Самое очевидное следствие ее применения — повышение коэффициента полезного действия процессора. Действительно — если одна из программ использует в основном целочисленную арифметику, а вторая — выполняет вычисления с плавающей точкой, то во время исполнения первой FPU просто ничего не делает, а во время исполнения второй — наоборот, ничего не делает ALU. Казалось бы, на этом можно закончить. Однако мы рассмотрели лишь идеальный (с точки зрения применения Hyper-Threading) вариант. Давайте теперь рассмотрим другой: обе программы задействуют одни и те же блоки процессора. Понятно, что ускорить выполнение в данном случае довольно сложно — ибо физическое количество исполняющих блоков от «виртуализации» не изменилось. А вот не замедлится ли оно? Давайте разберемся. В случае с процессором без Hyper-Threading мы имеем просто «честное» поочередное выполнение двух программ на одном ядре с арбитром в виде операционной системы (которая сама представляет собой еще одну программу), и общее время их работы определяется:

  1. временем выполнения кода программы №1
  2. временем выполнения кода программы №2
  3. временными издержками на переключение между фрагментами кода программ №1 и №2

Что мы имеем в случае с Hyper-Threading? Схема становится немного другой:

  1. время выполнения программы №1 на процессоре №1 (виртуальном)
  2. время выполнения программы №2 на процессоре №2 (виртуальном)
  3. время на переключение одного физического ядра (как набора требуемых обеим программам исполняющих блоков) между двумя эмулируемыми «виртуальными CPU»

Остается признать, что и тут Intel поступает вполне логично : конкурируют между собой по быстродействию у нас только пункты за номером три, и если в первом случае действие выполняется программно-аппаратно (ОС управляет переключением между потоками, задействуя для этого функции процессора), то во втором случае мы фактически имеем полностью аппаратное решение — процессор все делает сам. Теоретически, аппаратное решение всегда оказывается быстрее. Подчеркнем — теоретически. Практикум у нас еще впереди.

Но и это еще не все. Также одним из серьезнейших… нет, не недостатков, а скорее, неприятных моментов является то, что команды, увы, не исполняются в безвоздушном пространстве, но вместо этого Pentium 4 приходится иметь дело с классическим x86-кодом, в котором активно используется прямое адресование ячеек и даже целых массивов, находящихся за пределами процессора — в ОЗУ. Да и вообще, к слову, большинство обрабатываемых данных чаще всего находится там:). Поэтому «драться» между собой наши виртуальные CPU будут не только за регистры, но и за общую для обоих процессорную шину, минуя которую данные в CPU попасть просто не могут. Однако тут есть один тонкий момент: на сегодняшний день «честные» двухпроцессорные системы на Pentium III и Xeon находятся в точно такой же ситуации ! Ибо наша старая добрая шина AGTL+, доставшаяся в наследство всем сегодняшним процессорам Intel от знаменитого Pentium Pro (в дальнейшем ее лишь подвергали модификациям, но идеологию практически не трогали) — ВСЕГДА ОДНА, сколько бы CPU ни было установлено в системе. Вот такой вот «процессорный коаксиал»:). Отойти от этой схемы на x86 попробовала только AMD со своим Athlon MP — у AMD 760MP/760MPX от каждого процессора к северному мосту чипсета идет отдельная шина. Впрочем, даже в таком «продвинутом» варианте мы все равно убегаем от проблем не очень далеко — ибо уж что-что, а шина памяти у нас точно одна — причем вот в этом случае уже везде (напоминаем, разговор идет про x86-системы).

Однако нет худа без добра, и даже из этого в общем-то не очень приятного момента Hyper-Threading может помочь извлечь какую-то пользу. Дело в том, что по идее мы должны будем наблюдать существенный прирост производительности не только в случае с несколькими задачами, использующими разные функциональные блоки процессора, но и в том случае, если задачи по-разному работают с данными, находящимися в ОЗУ. Возвращаясь к старому примеру в новом качестве — если одно приложение у нас что-то усиленно считает «внутри себя», другое же — постоянно подкачивает данные из ОЗУ, то общее время выполнения их в случае использования Hyper-Threading по идее должно уменьшиться даже если они используют одинаковые блоки исполнения инструкций — хотя бы потому, что команды на чтение данных из памяти смогут обрабатываться в то время, пока наше первое приложение будет что-то усиленно считать.

Итак, подведем итог: технология Hyper-Threading с теоретической точки зрения выглядит весьма неплохо и, мы бы сказали, «адекватно», т. е. соответствует реалиям сегодняшнего дня. Уже довольно редко можно застать пользователя с одним сиротливо открытым окном на экране — всем хочется одновременно и музыку слушать, и по Internet бродить, и диски с любимыми MP3 записывать, а может даже, и поиграть на этом фоне в какую-нибудь стрелялку или стратегию, которые, как известно, процессор «любят» ну просто со страшной силой:). С другой стороны, общеизвестно, что конкретная реализация способна иногда своей «кривизной» убить любую самую превосходную идею, и с этим мы тоже не раз встречались на практике. Поэтому закончив с теорией, перейдем к практике — тестам. Они-то и должны нам помочь ответить на второй главный вопрос: так ли хороша Hyper-Threading сейчас — и уже не в качестве идеи, а в качестве конкретной реализации этой идеи «в кремнии». Тестирование

Тестовый стенд:

  • Процессор: Intel Pentium 4 3,06 ГГц с поддержкой технологии Hyper-Threading, Socket 478
  • Материнская плата: Gigabyte 8PE667 Ultra (версия BIOS F3) на чипсете i845PE
  • Память: 512 МБ PC2700(DDR333) DDR SDRAM DIMM Samsung, CL 2
  • Видеокарта: Palit Daytona GeForce4 Ti 4600
  • Жесткий диск: IBM IC35L040AVER07-0, 7200 об/мин

Программное обеспечение:

  • OC и драйверы:
    • Windows XP Professional SP1
    • DirectX 8.1b
    • Intel Chipset Software Installation Utility 4.04.1007
    • Intel Application Accelerator 2.2.2
    • Audiodrivers 3.32
    • NVIDIA Detonator XP 40.72 (VSync=Off)
  • Тестовые приложения:
    • (с поддержкой мультипроцессорности и технологии Hyper-Threading)
    • RazorLame 1.1.5.1342 + Lame codec 3.92
    • VirtualDub 1.4.10 + DivX codec 5.02 Pro
    • WinAce 2.2
    • Discreet 3ds max 4.26
    • BAPCo & MadOnion SYSmark 2002
    • MadOnion 3DMark 2001 SE build 330
    • Gray Matter Studios & Nerve Software Return to Castle Wolfenstein v1.1
    • Croteam/GodGames Serious Sam: The Second Encounter v1.07

Вопреки обычаю, мы не будем сегодня тестировать производительность нового Pentium 4 3,06 ГГц в сопоставлении с предыдущими моделями или же с процессорами-конкурентами. Ибо это по большому счету бессмысленно. Тесты, составляющие нашу методику, не менялись уже довольно продолжительный период времени, и желающие провести необходимые сопоставления могут воспользоваться данными из предыдущих материалов , мы же сосредоточимся на основном моменте, не распыляясь на детали. А основным в этом материале, как, наверное, нетрудно догадаться, является исследование технологии Hyper-Threading и ее влияния на производительность… на производительность чего ? Не столь уж и праздный вопрос, как оказывается. Впрочем, не будем забегать вперед. Начнем с традиционных тестов, через которые мы плавно подойдем (в контексте данного материала) к основным.

Кодирование WAV в MP3 (Lame)
Кодирование VideoCD в MPEG4 (DivX)
Архивация с помощью WinAce с 4-мегабайтным словарем

Хоть сколько-нибудь явного преимущества Hyper-Threading не продемонстрировала, но надо сказать, что мы и шансов-то особых данной технологии не дали — почти все приложения «однопроцессорные», одновременно исполняемых потоков не порождают (проверено!), и, стало быть, в этих случаях мы имеем дело с обычным Pentium 4, которому чуть-чуть подняли частоту. Говорить о каких-то тенденциях на фоне таких мизерных расхождений вряд ли уместно… хотя если все же высасывать их из пальца, то они даже немного в пользу Hyper-Threading.

3ds max 4.26

Классический тест, но в то же самое время — первое из приложений в этом обзоре, которое в явном виде поддерживает многопроцессорность. Конечно, колоссальным преимущество системы с включенной поддержкой Hyper-Threading не назовешь (оно составляет порядка 3%), однако не будем забывать, что в данном случае Hyper-Threading работала далеко не в самой лучшей для себя ситуации: 3ds max реализует поддержку SMP за счет порождения потоков , причем все они используются для одной и той же цели (рендеринг сцены) и, стало быть, содержат примерно одинаковые команды, а потому и работают тоже одинаково (по одной схеме). Мы уже писали, что Hyper-Threading лучше подходит для того случая, когда параллельно исполняются разные программы, задействующие разные блоки CPU. Тем более приятно, что даже в такой ситуации технология смогла «на ровном месте» обеспечить пусть и небольшой, но прирост быстродействия. Ходят слухи, что 3ds max 5.0 дает больший выигрыш при задействовании Hyper-Threading, и учитывая рвение, с которым Intel «проталкивает» свои технологии в области ведения производителей ПО, это как минимум следует проверить. Несомненно, так мы и сделаем, но уже в более поздних материалах на эту тему.

3DMark 2001SE

Результаты в общем-то вполне закономерные, и вряд ли могут вызвать у кого-то удивление. Быть может, лучше все-таки использовать бенчмарки для 3D именно для того, для чего они предназначены — тестирования скорости видеокарт, а не процессоров? Наверное, так оно и есть. Впрочем, результаты, как известно, лишними не бывают. Несколько настораживает чуть меньший балл у системы с задействованной Hyper-Threading. Впрочем, учитывая что разница составляет около 1%, мы бы не делали из этого далеко идущих выводов.

Return to Castle Wolfenstein,
Serious Sam: The Second Encounter

Примерно аналогичная ситуация. Впрочем, мы еще не подобрались даже близко к тестам, способным хоть как-то продемонстрировать плюсы (или минусы) Hyper-Threading. Иногда (на неощутимо малую величину) задействование «псевдо-многопроцессорности» дает отрицательный результат. Однако это не те сенсации, которых мы ждем, не так ли? :) Не слишком помогает даже тестирование со звуком, который, по идее, должен обсчитываться отдельным потоком и потому давать шанс проявить себя второму логическому процессору.

SYSmark 2002 (Office Productivity и Internet Content Creation)

А вот теперь так и хочется во весь голос крикнуть: «Ну, кто сомневался в том, что Hyper-Threading реально способна повысить быстродействие на реальных задачах?!». Результат: +16—20% — действительно ошеломляет. Причем что самое интересное — ведь SYSmark пытается эмулировать именно ту схему работы, которую Intel считает самой «удачной» для технологии Hyper-Threading — запуск различных приложений и одновременная работа с ними. Причем в процессе исполнения своего скрипта, SYSmark 2002 поступает вполне грамотно с точки зрения имитации работы пользователя, «отправляя в background» некоторые приложения, которые уже получили свое «долгосрочное задание». Так, например, кодирование видео происходит на фоне исполнения прочих приложений из скрипта Internet Content Creation, а в офисном подтесте действует вездесущее антивирусное ПО и декодирование речи в текст с помощью Dragon Naturally Speaking. По сути — первый тест, в котором созданы более или менее «вольготные» условия для технологии Hyper-Threading, и она тут же показала себя с наилучшей стороны! Впрочем, мы решили не полагаться во всем на тесты, написанные не нами, и провели «для закрепления эффекта» несколько показательных собственных экспериментов. Экспериментируем с Hyper-Threading

Одновременное выполнение рендеринга в 3ds max и архивирования в WinAce

Вначале на фоне заведомо более длительного процесса архивирования была отрендерена стандартная тестовая сцена в 3ds max. Затем на фоне рендеринга специально растянутой сцены было выполнено стандартное тестовое архивирование файла в WinAce. Результат сравнивался со временем окончания последовательного выполнения тех же самых стандартных тестов. К полученным цифрам применялись два корректирующих коэффициента: для выравнивания времени исполнения заданий (мы полагаем, что эффект ускорения от параллельного выполнения двух приложений может быть корректно подсчитан только при условии одинаковой продолжительности выполняемых заданий) и для «снятия» эффекта от неравномерности выделяемых процессорных ресурсов для foreground-/background-приложений. В итоге мы «насчитали» положительный эффект ускорения на 17% от использования технологии Hyper-Threading.

Итак, впечатляющие результаты SYSmark получили подтверждение в тесте с соседством двух реальных программ. Конечно же, ускорение не двукратное, да и тесты в пару мы выбирали сами, исходя из наиболее благоприятной, по нашему мнению, ситуации для задействования Hyper-Threading. Но давайте задумаемся над этими результатами вот в каком разрезе: процессор, производительность которого мы сейчас исследуем — в общем-то, за исключением поддержки Hyper-Threading — просто давно привычный Pentium 4. Фактически, столбик «без Hyper-Threading» — это то, что мы могли бы видеть если бы эту технологию не стали переводить в десктопы . Несколько другое чувство сразу же возникает, правда? Давайте все-таки не будем жаловаться (по отечественной традиции) на то, что «все не так хорошо, как могло бы быть», а просто подумаем о том, что нам вместе с новым процессором дали еще один способ ускорить выполнение некоторых операций.

Фоновое архивирование в WinAce + проигрывание фильма
Рендеринг в 3ds max + фоновое проигрывание музыки

Методика выполнения теста совершенно тривиальна: в пару к просмотру фильма, сжатого предварительно в формат MPEG4 при помощи кодека DivX, фоном запускалось архивирование в WinAce (разумеется, в случае пропуска кадров и подтормаживания при просмотре, данный тест не имел бы практического смысла, но нареканий на качество просмотра не было). Аналогично, во время рендеринга обычной тестовой сцены в 3ds max фоном проигрывалась (через WinAmp) музыка из файла формата MP3 (и отслеживались не замеченные ни разу в итоге «заикания» звука). Обратите внимание на естественное распределение ролей «главное-фоновое» в каждой паре приложений. В качестве результата, как обычно, бралось время архивации и полного рендеринга сцены соответственно. Эффект от Hyper-Threading в цифрах: +13% и +8%.

Достаточно реальная ситуация, именно такие мы и старались воспроизвести. Вообще (и об этом будет сказано далее) Hyper-Threading не настолько очевидна, как кажется. Простой подход «в лоб» («у нас в ОС видны два процессора — давайте относиться к ним как к двум процессорам») не дает ощутимого эффекта, и возникает даже некоторое чувство обманутости. Однако, возвращаясь к вышесказанному, попробуем оценивать результаты с несколько других позиций: задачи, которые в обычной ситуации исполняются за одно время, в случае задействования Hyper-Threading, выполняются за меньшее время . Кто попробует возразить, что «нечто» хуже, чем «ничто»? В этом-то вся и суть — отнюдь не панацею нам предлагают, а «всего лишь» средство ускорить уже имеющееся процессорное ядро, кардинальных изменений не претерпевшее. Получается? Да. Ну и какие, по большому счету, могут быть еще вопросы? Конечно, до обещанных в пресс-релизе 30% в большинстве случаев оказывается далеко, однако не стоит делать вид, что в жизни случается, сопоставив пресс-релиз компании X с пресс-релизом компании Y, убедиться, что в первом обещаний меньше и они более «сбыточные». :)

Тестирование в CPU RightMark 2002B

Новая версия CPU RM поддерживает многопоточность (соответственно, и Hyper-Threading), и, естественно, мы не могли не воспользоваться возможностью протестировать новый процессор с помощью этого бенчмарка. Оговоримся, что пока это только первый «выход» CPU RM в тестах многопроцессорных систем, поэтому можно сказать что исследование было «обоюдосторонним» — мы тестировали Hyper-Threading как частный случай SMP на системе с Pentium 4 3,06 ГГц, а эта система, в свою очередь, тестировала наш бенчмарк:) на предмет валидности результатов, и, соответственно, правильной реализации в нем поддержки мультипоточности. Без преувеличения скажем, что результатами остались довольны обе стороны:). Несмотря на то, что пока CPU RM все еще «не полностью многопроцессорный» (несколько потоков создаются только в блоке рендеринга, Math Solving блок остается однопоточным), полученные нами результаты явственно свидетельсвуют о том, что поддержка SMP и Hyper-Threading присутствует, и польза от их наличия видна невооруженным глазом. Кстати, реализация многопоточности в блоке «решателя» в общем-то задача намного менее тривиальная, чем в блоке рендеринга, поэтому если у кого-то из читателей будут некие идеи по этому поводу — мы ждем ваших комментариев, идей, и предложений. Напоминаем, что проект CPU RightMark — это бенчмарк с открытыми исходными текстами, так что интересующиеся программированием могут не только воспользоваться им, но и вносить предложения по поводу усовершенствования кода.

Перед тем как перейти к диаграммам, остановимся поподробнее на методике. По подписям столбцов, легко заметить, что тестировалась производительность системы в целых двенадцати (!) вариантах. Однако ничего страшного в этом нет, и разобраться достаточно просто. Итак, изменяемыми были следующие факторы:

  1. Тесты проводились со включенной Hyper-Threading и с отключенной.
  2. Использовались установки CPU RM для количества создаваемых потоков: один, два, и четыре.
  3. Использовались установки CPU RM для используемого типа инструкций в расчетном модуле: SSE2 и «классические» x87 FPU.

Объясним последнее. Казалось бы, отказываться от использования SSE2 на Pentium 4 — полный, извините, бред (о чем мы уже неоднократно писали раньше). Однако в данном случае чисто теоретически это было неплохим шансом проверить функционирование и результативность технологии Hyper-Threading. Дело в том, что инструкции FPU использовались только в расчетном модуле , в модуле же рендеринга по-прежнему оставалась включенной поддержка SSE. Таким образом, те, кто внимательно читал теоретическую часть, наверняка уже поняли «где собака зарыта» — мы принудительно заставили разные части бенчмарка использовать разные вычислительные блоки CPU ! По идее, в случае принудительного отказа от SSE2, Math Solving блок CPU RM должен был оставлять «нетронутым» блоки исполнения SSE/SSE2 инструкций, что давало возможность на полную катушку воспользоваться ими блоку рендеринга того же CPU RM. Вот теперь самое время перейти к результатам, и посмотреть насколько правильными оказались наши предположения. Также заметим, что с целью увеличения валидности и стабильности результатов, была изменена еще одна установка: количество фреймов (по умолчанию — 300) было увеличено до 2000.

Тут, собственно, комментировать практически нечего. Как мы уже говорили выше, блок «решателя» (Math Solving) остался нетронутым, поэтому на его производительность Hyper-Threading не оказывает никакого влияния. Однако в то же время отрадно… что не вредит! Ведь мы уже знаем, что теоретически возникновение ситуаций когда «виртуальная многопроцессорность» может мешать работе программ — возможно. Однако один факт советуем крепко запомнить: посмотрите, как сильно влияет на производительность блока «решателя» отказ от использования SSE2! Мы еще вернемся к этой теме чуть позже, и в весьма неожиданном ключе…

И вот — долгожданный триумф. Легко заметить, что как только количество потоков в блоке рендеринга становится больше одного (в последнем случае использовать возможности Hyper-Threading, мягко говоря, трудновато:) — сразу же это обеспечивает данной конфигурации одно из первых мест. Также заметно, что именно два потока являются оптимальными для систем с Hyper-Threading. Правда, быть может, кто-то вспомнит скриншот Task Manager, которым мы «стращали» вас выше, поэтому сделаем оговорку — два активно работающих потока. В общем-то, это очевидно и вполне логично — раз у нас два виртуальных CPU, то наиболее правильно создать ситуацию, когда и потоков тоже будет два. Четыре — уже «перебор», потому что за каждый из виртуальных CPU начинают «драться» по несколько потоков. Однако даже в этом случае системе со включенной Hyper-Threading удалось обогнать «однопроцессорного» конкурента.

Об удачах всегда принято говорить подробно и со вкусом, и естественно, еще подробнее и вкуснее о них говорить когда они — твои собственные. Констатируем, что «эксперимент с переходом на инструкции FPU» также безусловно удался. Казалось бы, отказ от SSE2 должен был сильнейшим образом ударить по производительности (быстренько вспоминаем разгромные результаты Math Solving Speed с применением инструкций FPU на первой диаграмме этого раздела). Однако что мы видим! — во второй строчке, на самом верху, среди чемпионов — именно такая конфигурация! Причины опять-таки понятны, и это очень радует, потому что их понятность позволяет сделать вывод о предсказуемости поведения систем с поддержкой технологии Hyper-Threading. «Минусовый» результат блока Math Solving на системе с включенной Hyper-Threading «компенсировал» своим вкладом в общую производительность блок рендеринга, которому полностью отдали на откуп исполняющие блоки SSE/SSE2. Причем компенсировал настолько хорошо, что по результатам такая система оказалась в первых рядах. Остается пожалуй только еще раз повторить то, о чем неоднократно шла речь выше: в полную силу возможности Hyper-Threading проявляются в тех ситуациях, когда активно работающие программы (или потоки) используют разные исполняющие блоки CPU. В данной ситуации эта особенность проявилась особенно сильно, поскольку мы имели дело с хорошо, тщательно оптимизированным кодом CPU RM. Однако главный вывод состоит в том, что в принципе Hyper-Threading работает — значит, будет работать и в других программах. Естественно, тем лучше, чем больше их разработчики будут уделять времени оптимизации кода.

Выводы

…В очередной раз, к радости всего прогрессивного человечества, Intel выпустила новый Pentium 4, производительность которого еще выше чем у предыдущего Pentium 4, но это еще не предел, и скоро мы увидим еще более быстрый Pentium 4… М-да… Не то что бы это неправда — действительно, так и есть. Однако мы уже договорились, что не будем рассматривать в данной статье производительность вышеуказанного Pentium 4 3,06 ГГц в связке с другими процессорами по той самой причине, что… см. выше по тексту. Нас, видите ли, интересует Hyper-Threading. Вот такие мы привередливые — не важны нам предсказуемые результаты повышения еще на 200 МГц частоты работы давно знакомого и предсказуемого процессорного ядра, подавай нам «свежатинку», ранее не рассматриваемую. И как уже наверное догадались прозорливые читатели, выводы наши будут посвящены опять-таки этой самой навязшей в зубах технологии и всему что с ней связано. Почему? Наверное, потому, что все остальное вы отлично знаете сами..

И раз уж речь идет о Hyper-Threading, давайте для начала определим для себя главное: как к ней относиться? Что она из себя представляет? Не претендуя на истину в последней инстанции, сформулируем общее мнение, которое возникло у нас на основании результатов тестов: Hyper-Threading — это не SMP . «Ага!!!» — закричат поклонники альтернативы. «Мы так и знали!!!» — завопят они что есть мочи. «Hyper-Threading — это нечестный SMP!!!» — крики сии еще долго будут разноситься по бескрайним просторам Рунета… Мы же, как умудренные саксаулами аксакалы (или наоборот? :), возразим: «Ребята, а кто, собственно, обещал?». Кто произнес эту крамольную аббревиатуру? SMP, напомним — это Symmetric Multi-Processing, сиречь многопроцессорная архитектура. А у нас, пардон, процессор всего один . Да, он снабжен некой, простонародно выражаясь, «фичей», которая позволяет делать вид, что вроде бы оных процессоров два. Однако делает ли кто-то секрет из того, что на самом деле это не так? Вроде бы этого мы не заметили… Стало быть, мы имеем дело именно с «фичей», и не более того. И относиться к ней стоит именно таким образом, и никак иначе. Поэтому давайте не будем ниспровергать никем не возводимых идолов, и спокойно подумаем, имеет ли данная фича какой-то смысл.

Результаты тестов свидетельствуют, что в некоторых случаях — имеет. Фактически, то, о чем мы чисто теоретически рассуждали в первой части статьи, нашло свое практическое подтверждение — технология Hyper-Threading позволяет увеличить коэффициент полезного действия процессора в определенных ситуациях. В частности — в ситуациях, когда одновременно исполняются разнородные по характеру приложения. Зададим сами себе вопрос: «Это — плюс?». Наш ответ: «Да, это — плюс». Является ли он всеобъемлющим и глобальным? Похоже, что нет — ибо эффект от Hyper-Threading наблюдается исключительно в некоторых случаях. Однако так ли это важно если мы рассматриваем технологию в целом? Понятно, что появление CPU, способного в два раза быстрее делать все то, что делалось ранее — это громадный прорыв. Однако как говорили еще древние китайцы «упаси нас Господи жить в эпоху перемен». Intel не стал инициировать начало такой эпохи, просто добавив своему процессору возможность кое-что делать быстрее. Классический западный принцип, не очень хорошо воспринимаемый в нашем «шаролюбивом» обществе: «Вы можете получить нечто получше, если заплатите несколько больше».

Возвращаясь к практике: Hyper-Threading нельзя назвать «бумажной» технологией, ибо при определенных комбинациях она дает вполне ощутимый эффект. Добавим — даже намного больший эффект, чем иногда наблюдается при сравнении, к примеру, двух платформ с одним процессором на разных чипсетах. Однако следует четко понимать, что эффект этот наблюдается не всегда, и существенно зависит от… наверное, самым приемлемым термином будет «стиль». От стиля работы пользователя с компьютером. Причем именно здесь проявляется то, о чем мы сказали в самом начале: Hyper-Threading — это не SMP . «Классический SMP-стиль», где пользователь рассчитывает на реакцию столь же классической «честной» многопроцессорной системы, здесь не даст желаемого результата.

«Стиль Hyper-Threading» — это сочетание процессов, не побоимся этого слова, «развлекательных» или «служебных» с процессами «рабочими». Вы не получите существенного ускорения от CPU с поддержкой этой технологии в большинстве классических многопроцессорных задач, или если по привычке запускаете только одно приложение в один момент времени. Но вы скорее всего получите уменьшение времени исполнения многих фоновых задач , исполняемых в качестве «довеска» к обычной работе. Фактически, Intel просто еще раз напомнила всем нам, что операционные системы, в которых мы работаем — многозадачные . И предложила способ ускорения — но не столько одного какого-то процесса самого по себе, сколько комплекса выполняемых одновременно приложений . Это интересный подход, и, как нам кажется, достаточно востребованный. Теперь он обрел свое имя. Не мудрствуя лукаво, хочется сказать: просто хорошо, что эта оригинальная идея пришла кому-то в голову. Тем более неплохо, что он смог ее воплотить в конкретный продукт. В остальном, как и всегда — время покажет.

На момент начала продаж процессорные решения серии Intel Pentium 4 позволяли создавать наиболее производительные настольные вычислительные системы. Спустя 8 лет это семейство чипов устарело и было снято с производства. Именно об этом легендарном модельном ряде ЦПУ и пойдет в этом материале речь.

Позиционирование процессора

На самом старте продаж данные процессоры принадлежали к наиболее быстродействующим решениям. На подобную их принадлежность указывали передовая на тот момент архитектура полупроводникового кристалла NetBurst, существенно возросшие тактовые частоты и прочие значительно улучшенные технические характеристики. Как результат, владельцы персональных компьютеров на их базе могли решать любые по уровню сложности задачи. Единственная сфера, в которой эти чипы не применялись - это серверы. В таких высокопроизводительных вычислительных машинах использовались процессорные решения серии XEON. Также не совсем оправданно применение в составе офисных ПК Intel Pentium 4. Ядра такого чипа в этом случае не до конца нагружались и с экономической точки зрения такой подход был целиком и полностью не оправдан. Для ниши “Интел” выпускала менее производительные и более доступные ЦПУ серии Celeron.

Комплектация

В двух типичных вариантах поставки можно было встретить процессор Intel Pentium 4. Один из них был нацелен на небольшие компании, которые специализировались на сборке системных блоков. Также такой вариант поставки подходил для домашних сборщиков персональных компьютеров. В прайс-листах он обозначался ВОХ, а в него производитель включал следующее:

    Чип в защитной упаковке из прозрачного пластика.

    Фирменную систему теплоотвода, которая состояла из специальной термопасты и кулера.

    Краткое руководство по назначению и использованию процессорного решения.

    Наклейка с логотипом модели чипа для передней панели системного блока.

Второй вариант поставки в каталогах компьютерных комплектующих обозначался TRAIL. В этом случае из списка поставки исключалась система охлаждения и ее необходимо было дополнительно приобретать. Подобный вид комплектации наиболее оптимально подходил для крупных сборщиков персональных компьютеров. За счет большого объема продаваемой продукции они могли позволить покупать системы охлаждения по более низким оптовым ценам и такой подход был оправдан с экономической точки зрения. Также такой вариант поставки пользовался повышенным спросом среди компьютерных энтузиастов, которые приобретали улучшенные модификации кулеров и это позволяло еще лучше разогнать такой процессор.

Процессорные разъемы

Процессор Intel Pentium 4 мог устанавливаться в один из 3-х видов процессорных разъемов:

Первый разъем появился в 2000 году и был актуальным до конца 2001 года. Затем ему на смену пришел PGA478, который вплоть до 2004 года занимал ведущие позиции в перечне продукции компании “Интел”. Последний сокет LGA775 появился на прилавках магазинов в 2004 году. В 2008 году его сменил LGA1156, который был нацелен на применение чипов с более передовой архитектурой.

Сокет 423. Семейства поддерживаемых чипов

Производители процессоров в лице компаний “Интел” и АМД в конце 1999 года - начале 2000 года постоянно расширяли перечень предлагаемых чипов. Только у второй компании была вычислительная платформа с запасом, которая базировалась на сокете PGA462. А вот “Интел” все возможное на тот момент из процессорного разъема PGA370 “выжала” и ее нужно было предлагать рынку компьютерных технологий что-то новое. Этим новым и стал рассматриваемый чип с обновленным процессорным разъемом в 2000 году. Intel Pentium 4 дебютировал одновременно с анонсом платформы PGA423. Стартовая частота процессоров в этом случае была установлена на отметке 1,3 ГГц, а наибольшее ее значение достигало 2,0 ГГц. Все ЦПУ в этом случае принадлежали к семейству Willamette, изготавливались по технологии 190 нм. Частота системной шины была равна реальным 100 МГц, а ее эффективное значение составляло 400 МГц.

Процессорный разъем PGA478. Модели ЦПУ

Через год в 2001 году вышли обновленные процессоры Intel Pentium 4. Socket 478 - это разъем для их установки. Как было уже отмечено ранее, этот сокет был актуальным вплоть до 2004 года. Первым семейством процессоров, которые в него могли быть установлены, стал Willamette. Наивысшее значение частоты для них было установлено на 2,0 ГГц, а начальное - 1,3 ГГц. Техпроцесс у них соответствовал 190 нм. Затем появилось в продаже семейство ЦПУ Northwood. Эффективное значение частоты в некоторых моделях в этом случае было увеличено с 400 МГц до 533 МГц. Частота чипов могла находиться в пределах от 2,6 ГГц до 3,4 ГГц. Ключевое же нововведение чипов этого модельного ряда - это появление поддержки технологии виртуальной многозадачности HyperTraiding. Именно с ее помощью на одном физическом ядре обрабатывалось сразу два потока программного кода. По результатам тестов получался 15-процентный прирост быстродействия. Следующее поколение чипов “Пентиум 4” получило кодовое название Prescott. Ключевые от предшественников в этом случае заключались в улучшенном технологическом процессе, увеличении кеш-памяти второго уровня и повышение тактовой частоты до 800 МГц. При этом сохранилась поддержка HyperTraiding и не увеличилось максимальное значение тактовой частоты - 3,4 ГГц. Напоследок необходимо отметить то, что платформа PGA478 была последней вычислительной платформой, которая не поддерживала 64-битные решения и могла выполнять лишь только 32-разрядный программный код. Причем это касается и системных плат, и процессорных решений Intel Pentium 4. Характеристики компьютеров на базе таких комплектующих являются целиком и полностью устаревшими.

Завершающий этап платформы Pentium 4. Сокет для установки чипов LGA775

В 2006 году производители процессоров начали активно переходить на 64-разрядные вычисления. Именно по этой причине Intel Pentium 4 перешел на новую платформу на основе разъема LGA775. Первым поколением процессорных устройств для нее называлось точно также, как и для PGA478 - Prescott. Технические спецификации у них были идентичны предыдущим моделям чипов. Ключевое отличие - это повышение максимальной тактовой частоты, которая в этом случае могла уже достигать 3,8 ГГц. Завершающим же поколением ЦПУ стало Cedar Mill. В этом случае максимальная частота понизилась до 3,6 ГГц, но при этом техпроцесс улучшился и энергоэффективность улучшилась. В отличие от предшествующих платформ, в рамках LGA775 “Пентиум 4” плавно перешел из сегмента решений среднего и премиального уровня в нишу процессорных устройств бюджетного класса. На его место пришли чипы серии Pentium 2, которые уже могли похвастаться двумя физическими ядрами.

Тесты. Сравнение с конкурентами

В некоторых случаях достаточно неплохие результаты может показать Intel Pentium 4. Processor этот отлично подходит для выполнения программного кода, который оптимизирован под один поток. В этом случае результаты будут сопоставимы даже с нынешними ЦПУ среднего уровня. Конечно, сейчас таких программ не так уж и много, но они все еще встречаются. Также этот процессор способен составить конкуренцию нынешним флагманам в офисных приложениях. В остальных случаях этот чип не может показать приемлемый уровень производительности. Результаты тестов будут приведены для одного из последних представителей данного семейства “Пентиум 4 631”. Конкурентами для него будут процессоры Pentium D 805, Celeron Е1400, Е3200 и G460 от “Интел”. Продукция же АМД будет представлена Е-350. Количество ОЗУ стандарта DDR3 равно 8 Гб. Также данная вычислительная система доукомплектована адаптером GeForce GTX 570 с 1 Гб видеопамяти. В трехмерных пакетах Maya, Creo Elements и Solid Works в актуальных версиях 2011 года рассматриваемая модель “Пентиум 4” показывает достаточно неплохие результаты. По результатам тестов в этих 3-х программных пакетах была выведена средняя оценка по сто балльной шкале и силы распределились следующим образом:

“Пентиум 4 631” проигрывает процессорам с более продвинутой архитектурой и более высокими тактовыми частотами G460 и Е3200, у которых 2 физических ядра. Но при этом обходит полноценную двухъядерную модель D 805 на аналогичной архитектуре. Результаты же Е-350 и Е1400 были предсказуемые. Первый чип ориентирован на сборку ПК, в которых на первый план выходит энергопотребление, а удел второго - это офисные системы. Совершенно по-другому распределяются силы при кодировании медиафайлов в программах Lame, Apple Lossless, Nero AAC и Ogg Vorbis. В этом случае на первый план уже выходит количество ядер. Чем их больше, тем лучше выполняется задача. Опять-таки, по усредненной сто балльной шкале силы распределились следующим образом:

Даже Е-350 с приоритетом на энергоэффективность обходит “Пентиум 4” модели 631. Продвинутая архитектура полупроводникового кристалла и наличие 2-х ядер все-таки дают о себе знать. Изменяется картина при тестировании процессоров в архиваторах WinRAR и 7-Zip. Результаты чипов по той же самой шкале распределились так:

В этом тесте множество факторов оказывает влияние на конечный результат. Это и архитектура, это и размер кеша, это и тактовая частота, это и количеств ядер. Как результат, типичным середнячком получился тестируемый “Пентиум 4” в исполнении 631. Эталонная же система, производительность которой соответствовала 100 баллам, базировалась на ЦПУ Athlon II Х4 модели 620 от АМД.

Разгон

Внушительным увеличением уровня производительности мог похвастаться Intel Pentium 4. Разгон этих процессорных устройств позволял достичь значений тактовой частоты в 3,9-4,0 ГГц при улучшенной воздушной системе охлаждения. Если же заменить воздушное охлаждение на жидкостное на базе азота, то вполне можно рассчитывать на покорение значения в 4,1-4,2 ГГц. Перед разгоном компьютерная система должна быть укомплектована следующим образом:

    Мощность блока питания должна быть минимум 600 Вт.

    В компьютере должна быть установлена продвинутая модель системной платы, на которой можно осуществлять плавное регулирование различных параметров.

    Кроме основного кулера, на процессоре в системном блоке должны находиться дополнительные 2-3 вентилятора для осуществления улучшенного теплоотвода.

Мультипликатор частоты в этих чипах был заблокирован. Поэтому простым поднятием его значения разогнать ПК невозможно. Поэтому единственный способ увеличения производительности - это увеличение реального значения тактовой частоты системной шины. Порядок же разгона в этом случае следующий:

    Уменьшаются значения частот всех компонентов ПК. В этот список лишь только не попадает лишь только системной шины.

    На следующем этапе увеличиваем рабочее значение частоты последней.

    После каждого такого шага необходимо проверить стабильность работы компьютера с помощью прикладного специализированного софта.

    Когда простого повышения частоты уже недостаточно начинаем повышать напряжение на ЦПУ. Его максимальное значение равно 1,35-1,38 В.

    После достижения наибольшего значения напряжения частоту чипа повышать нельзя. Это и есть режим максимального быстродействия компьютерной системы.

В качестве примера можно привести модель 630 процессора “Пентиум 4”. Ее стартовая частота равна 3 ГГц. Номинальная же тактовая частота системной шины составляет в этом случае 200 МГц. Значение последней можно на воздушном охлаждении повысить вплоть до 280-290 МГц. В результате ЦПУ будет работать уже на 4,0 ГГц. То есть прирост производительности составляет 25 процентов.

Актуальность на сегодняшний день

На сегодняшний день целиком и полностью устарели все процессоры Intel Pentium 4. Температура их функционирования, энергопотребление, технологический процесс, тактовые частоты, размер кеш-памяти и ее организация, количество адресуемой ОЗУ - это далеко не полный перечень тех характеристик, которые указывают на то, что это полупроводниковое решение устарело. Возможностей такого чипа лишь достаточно для решения наиболее простых задач. Поэтому владельцам таких компьютерных систем необходимо их обновлять в срочном порядке.

Стоимость

Несмотря на то что в 2008 году выпуск рассматриваемых ЦПУ был прекращен, их все еще можно купить в новом состоянии со складских запасов. При этом необходимо отметить то, что в исполнении LGA775 и с поддержкой технологии НТ можно приобрести чипы Intel Pentium 4. Цена на них находится в пределах 1300-1500 рублей. Для офисных систем это вполне адекватный уровень стоимости. Процессорные решения, которые находились в использовании, можно найти на различных торговых площадках в интернете. Цена в этом случае начинается с отметки в 150-200 рублей. Полностью же собранный персональный компьютер бывший в употреблении можно купить по цене от 1500 рублей.

Новые "весенние" процессоры продолжают радовать нас своим появлением. На этот раз отличилась компания Intel, представившая на украинском рынке сразу два топовых процессора Pentium 4 c частотой 3,4 GHz, однако построенных на различных ядрах — Northwood и Prescott соответственно. Надеемся, данный обзор поможет определиться с тем, что же способны дать пользователю такие похожие и вместе с тем настолько разные CPU.
На сей раз мы решили не делать громоздкий материал, тем более что совсем недавно
уже рассматривали детально предыдущие поколения этих процессоров с частотами 3,2
GHz. С особенностями ядра Northwood наверняка знакомо большинство читателей нашего
издания, следовательно, изменения в производительности при переходе на новую частоту
3,4 GHz можно просчитать даже на калькуляторе, имея необходимую базу предыдущих
результатов тестирования. Но конструктив процессора несколько обновился. Основное
(внешнее) изменение коснулось элементов питания самого кристалла. Как известно,
на тыльной стороне процессорной подложки расположены навесные элементы (в основном
шунтирующие конденсаторы). Так вот, если раньше в 200 (800) MHz серии Northwood
их количество и расположение было одинаковым, то модель 3,4 GHz кардинально отличается
от своих предшественников. Его подложка как две капли воды похожа на Pentium 4
Extreme Edition. Почти двукратное увеличение числа конденсаторов наверняка вызвано
желанием уменьшить всплески и уровень помех, возникающих в цепях питания процессора.
Как оказалось, данные метаморфозы положительно сказались на разгонном потенциале,
но об этом позже.

Prescott также отметился, но в данном случае изменения касаются исключительно
программной части. С технической точки зрения отличий новой модели с частотой
3,4 GHz от 3,2 нам обнаружить не удалось. Так что же это за изменения, которые
позволят новым массовым CPU от Intel показать себя во всей красе?

Конфигурации
тестовых систем
Платформа
Intel
AMD
Процессор Intel Pentium 4 (Prescott) 3,2/3,4E GHz Intel Pentium 4 (Northwood) 3,4C GHz AMD Athlon 64 3400+ 2,2 GHz
Материнская плата Abit IC7-MAX3 (чипсет i875P) ASUS K8V Deluxe (чипсет VIA K8T800)
Память Kingston HyperX PC3500 (2?512
MB)
Видеокарта HIS Radeon 9800XT 256 MB
Жесткий диск Western Digital WD300BB 30
GB 7200 об/мин
ОС Windows XP Professional SP2

Экосистема процессорного ядра Prescott

Пожалуй, одно из значимых достижений
последнего времени — корректное "понимание" Prescott операционной
системой Windows XP с установленным Service Pack 2. До официального выхода этого
"апгрейда" рано говорить о возможных преимуществах и новом уровне
управления технологией Hyper-Threading, но сама тенденция все-таки положительная.
Также в ходе тестирования нами была замечена еще одна интересная особенность
— материнские платы, для которых есть новые версии BIOS с заявленной 100%-ной
совместимостью с ядром Prescott, демонстрируют весьма необычное поведение. Действительно,
после перепрошивки скорость работы с памятью существенно возрастает, а ее латентность
несколько снижается (напомним, в случае установки CPU Prescott). Но если в плату
с новым BIOS установить Northwood, быстродействие подсистемы памяти хоть и незначительно,
но все же упадет. Выводов из всего этого пока два: а) если вы владелец Pentium
4 серий B/C, не спешите обновлять BIOS на своей материнской плате; б) пока рано
говорить о "нюансах" BIOS как о сложившейся закономерности, но тот
факт, что три популярные модели материнских плат все же демонстрируют такой
результат, по крайней мере, заставляет задуматься.

Также отметим медленное внедрение поддержки SSE3 в современное мультимедийное
ПО. Обещанные драйверы от ATI и NVidia пока не появились, а авторы медиакодеков
пока не спешат использовать преимущества SSE3 в своих продуктах. Хотя в Японии
— стране, так любящей высокие технологии, — новый набор команд уже достаточно
интенсивно применяется "национальным" ПО. Нам даже удалось найти результаты
тестирования, где сообщалось о 10%-ном приросте производительности в случае
медиакодирования. Опять-таки, когда "реальность" SSE3 дойдет до нас
— еще неизвестно. Но тот факт, что, по крайней мере, это будет "в плюс",
а не "в минус", уже радует.


Результаты тестирования

Тест Primordia из набора Science Mark 2.0 хоть и косвенно, но свидетельствует
о том, что Prescott не создан для сложной математики. Даже с новой частотой
3,4 GHz он далек от своих конкурентов. А вот Northwood 3,4 GHz доказал, что
при использовании технологии Hyper-Threading его вычислительные способности
практически не уступают Athlon 64 3400+.

Остальные результаты вполне можно рассматривать с точки зрения глобальных закономерностей.
Налицо действительное соответствие рейтинга 3400+ у Athlon 64 2,2 GHz реальной
производительности Pentium 4 (Northwood) 3,4 GHz. При некоторых отклонениях
(Unreal Tournament всегда демонстрировал более высокие результаты на процессорах
AMD, а "мультимедиа" всегда лучше удается CPU от Intel, особенно с
использованием ПО, поддерживающего SMP) мы наблюдаем в принципе схожее быстродействие.
Теперь посмотрим, где же новый 90-нанометровый процессор Intel занял первые
места — архивирование WinRAR, 3DMark 2003, SPECviewperf 7.1.1. Опять-таки примечательно
— если Prescott отстает, то отстает значительно, если лидирует, то тоже весьма
ощутимо. Еще одно подтверждение тому, что новый процессор Intel нельзя однозначно
назвать ни "хорошим", ни "наоборот". Во-первых, пока полностью
не сформировалась та самая экосистема, где он сможет себя проявить на все 100%,
а во-вторых, он просто другой (отличный от всего того, к чему мы так
долго привыкали).

Выводы

После довольно революционного появления семейства AMD64, пошатнувшего
и взбудоражившего IT-общественность, снова наблюдается некоторое спокойствие.
Как показало наше тестирование, новые массовые процессоры Intel Pentium 4 (Northwood)
3,4 GHz и AMD Athlon 64 3400+ 2,2 GHz действительно являются "топовыми"
для обеих компаний и ничем друг другу не уступают, а выбор остается исключительно
за пользователем. Хотя платформа от AMD обойдется покупателю несколько дешевле,
но той разительной разницы, которая была в случае с Athlon XP, уже не будет.
Теперь при желании приобрести новые High-End-системы вне зависимости от производителя
платформы придется заплатить сопоставимые суммы. Ну а посоветовать приобретение
Prescott можно тем, кто хочет стать обладателем передовых технологий, которые
должны проявить себя в будущем. Так сказать, платформа "на вырост".

Но все же выскажем некоторые претензии к Prescott. Заключаются они в слишком
высоком тепловыделении. Даже выполнив все рекомендации касательно циркуляции
воздуха, мы получили в закрытом корпусе около 70 °С на чипе. В случае применения
мощной видеокарты и модулей памяти PC3200 это может привести к тому, что температура
внутри корпуса превысит 50 °С — согласитесь, многовато. Надеемся, что в
будущих степпингах Intel вплотную займется решением данной проблемы, иначе дальнейший
рост частот может оказаться небезопасным.

Разгон

Для серьезного и стабильного разгона новых процессоров от Intel придется
как минимум сменить штатные кулеры на что-то более мощное и добавить в корпус
пару-тройку вентиляторов. CPU с индексом "С" смог стабильно работать
на частоте 3,72 GHz (наверняка сказались дополнительные элементы в цепи питания,
о которых мы говорили вначале). Prescott достиг порога в 3,8 GHz, однако в открытом
корпусе и с кулером Zalman CNPS7000ACu, как нам кажется, достичь более высоких
частот, используя традиционные методы охлаждения, просто не удастся.

Статьи по теме: