Что такое fsb на материнской плате. Системная шина — что это? Преимущества подобного решения налицо

Здравствуйте, уважаемые читатели блога сайт. Очень часто на просторах интернета можно встретить много всякой компьютерной терминологии, в частности - такое понятие, как "Системная шина". Но мало кто знает, что именно означает этот компьютерный термин. Думаю, сегодняшняя статья поможет внести ясность.

Системная шина (магистраль) включает в себя шину данных, адреса и управления. По каждой их них передается своя информация: по шине данных - данные, адреса - соответственно, адрес (устройств и ячеек памяти), управления - управляющие сигналы для устройств. Но мы сейчас не будем углубляться в дебри теории организации архитектуры компьютера, оставим это студентам ВУЗов. Физически магистраль представлена в виде (контактов) на материнской плате.

Я не случайно на фотографии к этой статье указал на надпись "FSB". Дело в том, что за соединение процессора с чипсетом отвечает как раз шина FSB, которая расшифровывается как "Front-side bus" - то есть "передняя" или "системная". И, на который обычно ориентируются при разгоне процессора, например.

Существует несколько разновидностей шины FSB, например, на материнских платах с процессорами Intel шина FSB обычно имеет разновидность QPB, в которой данные передаются 4 раза за один такт. Если речь идет о процессорах AMD, то там данные передаются 2 раза за такт, а разновидность шины имеет название EV6. А в последних моделях CPU AMD, так и вовсе - нет FSB, ее роль выполняет новейшая HyperTransport.

Итак, между и центральным процессором данные передаются с частотой, превышающей частоту шины FSB в 4 раза. Почему только в 4 раза, см. абзац выше. Получается, если на коробке указано 1600 МГц (эффективная частота), в реальности частота будет составлять 400 МГц (фактическая). В дальнейшем, когда речь пойдет о разгоне процессора (в следующих статьях), вы узнаете, почему необходимо обращать внимание на этот параметр. А пока просто запомните, чем больше значение частоты, тем лучше.

Кстати, надпись "O.C." означает, буквально "разгон", это сокращение от англ. Overclock, то есть это предельно возможная частота системной шины, которую поддерживает материнская плата. Системная шина может спокойно функционировать и на частоте, существенно ниже той, что указана на упаковке, но никак не выше нее.

Вторым параметром, характеризующим системную шину, является. Это то количество информации (данных), которая она может пропустить через себя за одну секунду. Она измеряется в Бит/с. Пропускную способность можно самостоятельно рассчитать по очень простой формуле: частоту шины (FSB) * разрядность шины. Про первый множитель вы уже знаете, второй множитель соответствует разрядности процессора - помните, x64, x86(32)? Все современные процессоры уже имеют разрядность 64 бита.

Итак, подставляем наши данные в формулу, в итоге получается: 1600 * 64 = 102 400 МБит/с = 100 ГБит/с = 12,5 ГБайт/с. Такова пропускная способность магистрали между чипсетом и процессором, а точнее, между северным мостом и процессором. То есть системная, FSB, процессорная шины - все это синонимы . Все разъемы материнской платы - видеокарта, жесткий диск, оперативная память "общаются" между собой только через магистрали. Но FSB не единственная на материнской плате, хотя и самая главная, безусловно.

Как видно из рисунка, Front-side bus (самая жирная линия) по-сути соединяет только процессор и чипсет, а уже от чипсета идет несколько разных шин в других направлениях: PCI, видеоадаптера, ОЗУ, USB. И совсем не факт, что рабочие частоты этих подшин должны быть равны или кратны частоте FSB, нет, они могут быть абсолютно разные. Однако, в современных процессорах часто контроллер ОЗУ перемещается из северного моста в сам процессор, в таком случае получается, что отдельной магистрали ОЗУ как бы не существует, все данные между процессором и оперативной памятью передаются по FSB напрямую с частотой, равной частоте FSB.

Пока что это все, спасибо.

Микропроцессор персонального компьютера через шину FSB подключается к системному контроллеру или северному мосту чипсета . Системный контроллер имеет в своем составе контроллер ОЗУ (в некоторых микропроцессорах контроллер ОЗУ встроен в микропроцессор), а также контроллеры шин , к которым подключаются периферийные устройства .

Архитектура некоторых компьютеров предусматривает подключение к северному мосту наиболее производительных периферийных устройств, например графической платы с шиной PCI-Express 16х , а менее производительные устройства, например модуль BIOS с шиной PCI , подключаются кюжному мосту , который соединяется с северным мостом специальной шиной, например Hyper Transport , MuTIOL , V-Link , A-Link и т.д.

Таким образом, FSB работает в качестве магистрального канала между процессором и чипсетом.

Некоторые компьютеры имеют внешнюю кэш-память , подключенную через шину заднего плана процессора (Back Side Bus - ВSB) , которая обладает более высокой пропускной способностью чем шина FSB, но работает только со специфичными устройствами.

Каждая из вторичных шин, по отношению к шине FSB, работает на своей частоте, которая может быть как выше, так и ниже этой частоты. Иногда частота вторичной шины является производной от частоты FSB, а иногда задается независимо.

На системных платах старших поколений частота системы ОЗУ совпадала с частотой на шине FSB, на современных системных платах эти частоты могут отличаться.

В таблице ниже представлены сравнительные характеристики шин FSB для некоторых микропроцессоров.

Сравнительные характеристики шин FSB для некоторых процессоров

Все рассмотренные в таблице выше шины 64-разрядные. Самой быстрой из шин всех типов является QPB - одно из наиболее интересных усовершенствований в процессорах поколения Р7. Учетверенная внутренняя шина подкачки (Quad-Pumped Bus - QPB) синхронизируется внешней системной частотой 100, 133, 166, 200 или 266 МГц.

Процессор организует подкачку данных - четыре раза за такт системной синхронизации, т.е. с коэффициентом передачи 4х. Таким образом, частота на шине FSB возрастает и составляет соответственно 400, 533 и 800 МГц. Ширина шины QPB - 64 разряда, а это означает, что за один такт синхронизации по шине пересылается четыре пакета 64-разрядных данных.

Более ранние 64-разрядные шины компании Intel - логика хост-шины Host Bus, или GTL+ (Gunning Transceiver Logic) и AGTL+ (AssistedGunning Transceiver Logic) пересылают за такт синхронизации всего один пакет данных. Шины позволяют подключать до двух микропроцессоров, причем быстродействие при этом делится пополам.

Принцип работы шин CTI+ и ACTI+

Шина Alpha EV6, которую использовала компания AMD в своих микропроцессорах Athlon и Athlon ХР , позволяет передавать два пакета за такт по фронту и срезу импульса синхронизации. Ширина этой шины - 72 разряда, восемь из них используются для контроля достоверности кода данных ЕСС. Благодаря точечному подключению шина допускает без потери производительности подключить до 14-ти процессоров.

Принцип работы шины Alpha EV6

Процессоры AMD Athlon 64, AMD Athlon FX и Opteron имеют встроенный в процессор контроллер памяти, что несколько изменяет назначение FSB.


Лабораторная BIOS: настройка системной шины (FSB)

FSB (Front Site Bus) – системная шина, которая соединяет ЦП с северным мостом чипсета материнской платы. Системная шина обеспечивает взаимодействие процессора с компонентами компьютера. Частота системной шины – частота, с которой работает память. Иногда называется внешней частотой.

Хотя процессоры Core i7 с интегрированным контроллером памяти уже анонсированы и доступны в магазинах, их присутствие на рынке остается и будет оставаться незначительным (по прогнозам самой же Intel), до выхода i5 еще есть время, так что пока сборщики будут продолжать готовить системы на базе процессоров предыдущей микроархитектуры. И конечно, задача оптимального подбора конфигурации при этом сохранит свою актуальность в применении к системам на базе Core 2. В данной статье мы в очередной раз рассмотрим несколько вариантов конфигураций памяти, чтобы понять, насколько быстрая и какого типа она нужна, чтобы раскрыть потенциал самых быстрых процессоров, но не переплачивать при этом понапрасну.

Вопрос о переплате абсолютно уместен, так как только «обычные» производители (вроде, скажем, Samsung и Hynix) продают соответствующие стандартам JEDEC модули, в характеристиках которых и указать-то нечего, кроме максимальной частоты, на которой они могут работать. Зато производители «элитной» памяти (Corsair, OCZ, GeIL и пр.) легко перекрывают заданные стандартом потолки и по частотам, и по напряжению питания (как правило, конечно, одновременно), за что вполне резонно хотят получить дополнительных денег. Более того, многие варианты платформ под процессоры Intel предполагают использование DDR3, а эта память, помимо того, что все еще дороже, чем DDR2, также провоцирует покупку «элитных» модулей, только теперь с совсем уж запредельными скоростными характеристиками. Кстати, такая память скорее всего не будет иметь перспектив при апгрейде, так как для процессоров на базе Nehalem есть официальная рекомендация производителя не поднимать напряжение модулей DDR3 выше 1,65 В.

Для исследования мы возьмем системные платы на двух топовых чипсетах: Intel X48 и NVIDIA nForce 790i Ultra SLI . Оба они обеспечивают максимальные возможные конфигурации для Core 2: полноценную поддержку PCI Express 2.0, поддержку всех стандартов памяти DDR3 (по крайней мере, при использовании модулей с расширением SPD - EPP 2.0 или XMP), поддержку частоты процессорной шины 400(1600) МГц. Сразу возникает вопрос: насколько актуальна последняя характеристика для обычных покупателей с учетом того факта, что до сих пор с частотой FSB 1600 МГц выпущен один-единственный процессор? Ответ: действительно, неактуальна, но исследование этого режима поможет нам выстроить более ясную общую картину, а кроме того, такой режим можно рассматривать как частный случай разгона, чтобы делать прикидки, какой памятью следует запасаться при желании разогнать процессор.

Исследование производительности

Тестовый стенд:

  • Процессоры:
    • Intel Core 2 Duo E6600 (2,4 ГГц, шина 1066 МГц)
    • Intel Core 2 Duo E8200 (2,66 ГГц, шина 1333 МГц)
    • Intel Core 2 Extreme QX9770 (3,2 ГГц, шина 1600 МГц)
  • Материнские платы:
    • MSI X48C Platinum (версия BIOS 7.0b6) на чипсете Intel X48
    • XFX nForce 790i Ultra 3-Way SLI (версия BIOS P03) на чипсете NVIDIA nForce 790i Ultra SLI
  • Память:
    • 2 модуля по 1 ГБ Corsair CM2X1024-9136C5D (DDR2-1142)
    • 2 модуля по 1 ГБ Corsair CM3X1024-1800С7DIN (DDR3-1800)
  • Видеокарта: PowerColor ATI Radeon HD 3870, 512 МБ
  • Жесткий диск: Seagate Barracuda 7200.7 (SATA), 7200 об/мин

Программное обеспечение:

  • ОС и драйверы:
    • Windows XP Professional SP2
    • DirectX 9.0c
    • Intel Chipset Drivers 8.3.1.1009
    • NVIDIA Chipset Drivers 9.64
    • ATI Catalyst 8.3
  • Тестовые приложения:
    • RMMA (RightMark Memory Analyzer) 3.8
    • RMMT (RightMark Multi-Threaded Memory Test) 1.1
    • 7-Zip 4.10b
    • Doom 3 (v1.0.1282)

Предваряя тестирование

Оба примененных чипсета, как уже было сказано выше, рассчитаны на память типа DDR3. К счастью, на базе чипсета Intel выпущено достаточное количество системных плат, предполагающих использование DDR2 или комбинированных, как примененная нами модель MSI.

Какие же конфигурации мы будем проверять? Здесь надо сделать традиционное вынужденное отступление и пояснить, что скорости операций с памятью ограничены собственно частотой и таймингами работы памяти, а также характеристиками процессорной шины, поскольку именно ее пропускная способность может лимитировать максимальную скорость перекачки данных из памяти и обратно. Действительно, начиная с момента использования двухканального доступа к DDR, пропускная способность памяти не уступает ПС системной шины, а со времен внедрения DDR2 - и значительно превосходит ее (для частоты FSB 1066 МГц, например, ПС шины составляет ~8533 МБ/с, что соответствует ПС двухканальной DDR2-533).

Но достаточно ли будет установить в плату два модуля DDR2-533 одновременно с процессором с FSB 1066 МГц? Однозначности ответа мешает еще как минимум такой параметр, как тайминги памяти. Из общих соображений понятно, что чем выше частота работы микросхемы памяти, тем больше должны быть относительные (выраженные в количестве тактов) задержки доступа к ней (просто потому, что время такта сократится). Однако на практике иногда, с одной стороны, удается обеспечить сохранение таймингов при повышении частоты (за счет того, что абсолютная задержка доступа может точнее уложиться в заданное количество тактов), а с другой стороны, в зависимости от организации микросхем и прочих параметров, при снижении частоты относительная задержка уже не может быть уменьшена, так как достигла предела рабочих характеристик. Таким образом, скажем, система с FSB 1066 МГц и двумя модулями DDR2-533, работающими при CL=4, должна, по идее, показать производительность чуть ниже, чем та же система с двумя модулями DDR2-667, работающими при той же задержке CL=4.

В нашем исследовании мы постарались обеспечить некоторое сочетание различных частот FSB, а также частоты и таймингов памяти, дополняя или проверяя результаты на двух чипсетах.

Результаты тестов при FSB 1066 МГц

Первым установим на тестовые стенды процессор с частотой FSB 1066 МГц. Как мы уже указали выше, с точки зрения величины пропускной способности при этой частоте шины достаточно использовать двухканальную DDR2-533. Впрочем, мы не включили в тестирование такую конфигурацию памяти, потому что DDR2-533 на рынке уже практически не представлена, так что ее цена неадекватна ситуации. Модули DDR2-667 и DDR2-800 представлены гораздо шире, но нельзя уверенно сказать, что между ними есть определенная разница по цене. Тем не менее, конфигурацию с двухканальной DDR2-667 мы все-таки рассмотрим - хотя бы из исследовательского интереса.

Мы уже отмечали в прошлых статьях, что при работе в равных режимах чипсет NVIDIA немного опережает решения Intel, а в синтетических тестах это иногда бывает заметно особенно хорошо. Также DDR3 в нынешних системах, как правило, немного медленнее, чем DDR2 (при использовании одинаковых скоростных режимов и таймингов). В дальнейшем не будем уделять внимания этим вопросам, если только разница не проявится в интересующем нас аспекте сравнения конфигураций памяти.

Традиционно начнем с низкоуровневого исследования потенциала памяти при помощи разработанного нашими программистами теста .

По данной диаграмме хорошо заметно, что скорость системы растет во всех случаях при увеличении частоты памяти до 1066 МГц, даже если это сопровождается повышением таймингов - иногда явно непропорциональным (например, абсолютные величины задержек доступа у DDR3-1066@7-7-7-20-1T гораздо хуже, чем у DDR3-800@5-5-5-16-1T). И лишь повышение частоты памяти до 1333 МГц ничего не дает (или, по крайней мере, перекрывается эффектом от повышения таймингов на шаг).

Картина при изучении скорости записи в память абсолютно соответствует описанной в предыдущем случае.

Неудивительно, что и тест латентности чтения из памяти демонстрирует те же соотношения, хотя в данном случае DDR3-1333 все-таки сумела чуть обойти DDR3-1066 по времени случайного доступа.

Теперь проверим, не изменится ли картина при многопоточном доступе в память: возможно, два ядра в конкурирующем режиме сумеют более эффективно использовать пропускную способность шины? Для этой цели используем тест RMMT (RightMark Multi-Threaded Memory Test) из пакета RMMA. (Для операций каждому потоку выделим по 32 МБ, дистанцию предвыборки данных будем подбирать индивидуально, чтобы максимизировать результат.)

Очевидно, что величина цифр несколько изменилась (многопоточное чтение идет чуть быстрее, многопоточная запись - чуть медленнее), однако взаимное расположение участников - нет.

Что ж, теперь проверим полученные данные на паре реальных приложений, а заодно оценим разницу в актуальных величинах.

Вооруженные результатами синтетических тестов, мы и не ожидали иного расклада. Производительность при архивировании (группа реальных тестов, наиболее сильно зависящих от скорости подсистемы памяти) действительно увеличивается с поднятием частоты памяти до 1066 МГц, даже при непропорциональном увеличении таймингов. В то же время, использование DDR3-1333 видимых дивидендов не приносит, хотя практически не снижает производительность, если тайминги при этом не слишком «задираются».

Производительность в играх подчиняется тем же закономерностям - по крайней мере, в тех игровых режимах, где скорость ограничена именно процессором и памятью, а не видеокартой.

Посмотрим на абсолютные величины выигрыша. В 7-Zip применение наиболее быстрой (де-факто) конфигурации на Intel X48 (DDR2-1066@5-5-5-16-2T) ускоряет систему с FSB 1066 МГц на 6,5% относительно базовой (DDR2-667@4-4-4-12-2T). Это не так уж мало: разница примерно соответствует 0,5 множителя частоты процессора, то есть при прочих равных такое ускорение обеспечивает ту же разницу, что и покупка процессора на одну модель старше. В Doom 3 аналогичный эффект равен и вовсе +8,3%. Главный же вывод из данной группы тестов: применение более скоростной памяти, вопреки чисто теоретическим выкладкам, обеспечивает ускорение системы вплоть до применения DDR2/DDR3-1066. Случайно ли, что максимальная эффективная частота памяти совпадает с частотой FSB? Попробуем найти ответ в следующих разделах.

Результаты тестов при FSB 1333 МГц

Теперь установим на тестовые стенды процессор с частотой FSB 1333 МГц. Опять-таки, с точки зрения величины пропускной способности при этой частоте шины достаточно использовать двухканальную DDR2-667. Поскольку штатные варианты DDR2 не могут даже приблизиться к этой частоте FSB, сосредоточимся мы на DDR3.

Скорость чтения из памяти по-прежнему уверенно растет при повышении частоты ее работы вплоть до 1333 МГц, даже в тех случаях, когда тайминги повышаются непропорционально (CL7 у DDR3-1333 в сравнении с CL5 у DDR3-1066). А вот частота памяти 1600 МГц прироста производительности не дает, и снижение абсолютной величины таймингов не помогает.

Впрочем, по скорости записи в память сравнительные результаты получаются чуть иными, но лишь в последнем пункте: здесь есть прирост и от повышения частоты памяти до 1600 МГц.

Результаты теста латентности чтения ближе к теоретическим выкладкам по подсчету таймингов: здесь выигрыш имеют те режимы, которые обеспечивают меньшие значения таймингов в абсолютных величинах. В итоге память с большей частотой всегда выигрывает но лишь поскольку (и насколько) имеет тайминги пониже.

Многопоточное чтение по-прежнему идет чуть быстрее, а многопоточная запись - чуть медленнее, а результаты в той же степени соответствуют результатам при однопоточном доступе в память.

Вряд ли кого-нибудь удивит практическое подтверждение синтетических тестов; по большому счету, интрига заключалась только в вопросе, сумеет ли DDR3-1600 при более низких таймингах опередить DDR3-1333. Практика деликатно уклонилась от прямого ответа на этот вопрос, предоставив нам самостоятельно оценивать статистическую погрешность тестирования. Что ж вполне можно признать эти режимы равными по скорости.

Теперь конкретные цифры разницы в реальных приложениях. 7-Zip уверенно отдает предпочтение чипсету NVIDIA, так что у нас есть два варианта сравнения: Intel X48 с DDR3 в лучшем случае выигрывает около 5,5% относительно режима с DDR2-667@4-4-4-12-2T, а NVIDIA nForce 790i Ultra - примерно столько же, но в сравнении с самым медленным режимом DDR3. Если бы мы рассматривали неофициальные скоростные вариации DDR2 (а производители такие модули предлагают), то, очевидно, могли бы получить и больший прирост на Intel X48, так как DDR2 на нем работает быстрее, а частота памяти задается независимо от ее типа. В случае Doom 3 максимальный прирост (из возможных штатных) на X48 составил почти 7%, у чипсета NVIDIA он скромнее, но и минимальный режим более скоростной.

В этом разделе тестов мы подтверждаем вывод о пользе применения более скоростной памяти, и лишь верхнюю границу однозначно определить затрудняемся: 1333 МГц достаточно, но хоть падения скорости от покупки DDR3-1600 с нормальными таймингами можно не ожидать.

Результаты тестов при FSB 1600 МГц

Наконец, настал черед единственного в своем роде процессора с частотой FSB 1600 МГц. Штатные возможности контроллера памяти в чипсете Intel не дадут нам создать здесь достаточно интересную непрерывную цепь показателей, так что воспользуемся по полной программе гибкостью контроллера памяти у NVIDIA nForce 790i Ultra. Вообще, такая частота FSB ограничивает минимальную частоту памяти на уровне 1066 МГц (только в случае контроллеров Intel, конечно), то есть штатные модули DDR2 здесь использовать невозможно. Это означает, что наше сравнение из практической плоскости «оправдана ли покупка нестандартной, более дорогой памяти?» переходит в чисто теоретическое «какая нестандартная память лучше?». Впрочем, не будем забывать и о DDR3 - там эти частоты вполне стандартны.

Что ж, вполне привычная по предыдущим частям сравнения картина: скорость чтения из памяти растет при повышении частоты ее работы вплоть до 1600 МГц, но не дальше, и, опять же, увеличение таймингов не нарушает эту закономерность.

Та же картина и при записи, только здесь еще более подчеркнута бесполезность и даже вредность DDR3-1800.

Впрочем, DDR3-1800 берет реванш в тесте латентности чтения: как ни крути, а абсолютные величины таймингов в этом режиме ниже.

Как мы помним по результатам первого тестирования процессора QX9770 с двухканальной DDR2-800, максимальная скорость многопоточного чтения достигается при конкурентной работе двух потоков, выполняющихся на физически разных ядрах, а максимальная скорость многопоточной записи - при конкурентной работе двух потоков, выполняющихся на ядрах, относящихся к физически единому ядру (разделяющих общий кэш L2). Дополнив прежнюю конфигурацию тестовых стендов чипсетом NVIDIA и куда более скоростными модулями памяти, мы получили следующие интересные наблюдения:

  1. на NVIDIA nForce 790i Ultra SLI скорость чтения практически одинакова при работе двух потоков, выполняющихся на физически разных ядрах и на ядрах, относящихся к физически единому ядру (а четырехпоточное чтение существенно медленнее);
  2. скорость чтения с предвыборкой происходит на NVIDIA nForce 790i Ultra SLI существенно быстрее в случае чтения в два потока с ядер, относящихся к физически единому ядру (а четырехпоточный вариант вновь заметно медленнее остальных);
  3. зато максимальная скорость записи на NVIDIA nForce 790i Ultra SLI выше именно при работе двух потоков на физически разных ядрах, запись в 4 потока занимает промежуточное положение по скорости.

Для наших целей возьмем именно максимальные показатели, полученные, таким образом, при немного отличающихся условиях тестирования многопоточных чтения и записи.

В случае чипсета Intel преимущества от использования DDR3-1600 очевидны; у чипсета NVIDIA разница между разными режимами отнюдь не так впечатляет, но общий итог прежний: более быстрая (но не быстрее FSB) память дает некоторый выигрыш в скорости.

Тем важнее практическая проверка, и ее результаты не столь оптимистичны: различия между режимами с памятью разной частоты укладываются в 2-3%, что вряд ли можно считать серьезным стимулом для покупки топовых модулей памяти.

Таким образом, «полусинтетический» раздел тестов позволил нам подтвердить вывод о принципиальной пользе применения более скоростной памяти, с небольшим максимумом в районе DDR3-1600, но реально измеримого превосходства в производительности относительно базовой DDR3-1066 можно не ждать. Еще раз напомним, что этот вывод относится не только к крайне немногочисленным обладателям QX9770, но и ко всем оверклокерам, серьезно увеличивающим частоту FSB для разгона процессора.

Выводы

Здесь нам остается только свести воедино результаты, полученные при тестировании в трех группах конфигураций, и соотнести их с изначальным вопросом статьи.

Итак, в случае распространенных процессоров семейства Core 2 с частотой FSB 1066/1333 МГц, вопреки чисто теоретическим выкладкам, имеет некоторый смысл использовать двухканальную память, существенно превосходящую по пропускной способности штатную системную шину. Если взять за опорную точку конфигурацию с DDR2-667 (как наиболее дешевый из реально представленных на рынке вариантов), то применением быстрой DDR2 или DDR3 можно выиграть 6-7-8% в реальных приложениях. Еще раз повторим, что это не так уж мало: разница примерно соответствует 0,5 множителя частоты процессора, то есть при прочих равных такое ускорение обеспечивает ту же разницу, что и покупка процессора на одну модель старше. Но, конечно, на ускорение в разы рассчитывать не стóит.

Память при этом оптимально подбирать такую, которая способна работать «псевдосинхронно» с FSB (их опорные частоты должны совпадать), не слишком задирая при этом тайминги (в абсолютных величинах, конечно). Будет ли такая покупка оправдана по большому счету? Почти всегда нет, так как разница в стоимости модулей «оверклокерской» и «обычной» памяти легко может составлять несколько раз (давая выигрыш, напомним, на 6–8%) - хотя вывод, безусловно, будет зависеть и от стоимости системы в сборе. Однако будут и ситуации, когда такая покупка явится наиболее рациональным способом улучшения системы - например, при намерении купить топовый или околотоповый процессор в линейке.

Сделанные выводы останутся справедливыми и для варианта разгона процессора, но тогда платы на наиболее популярных чипсетах (Intel) просто физически не позволят использовать память с низкой частотой работы, а значит, опорная точка в любом случае сместится в сторону более дорогих и производительных модулей. В итоге выигрыш от применения, скажем, DDR3-1600/1800 будет существенно меньше (в районе 2-3%), хотя и разница в цене модулей памяти несколько нивелируется.


Front Side Bus (FSB) - это магистральный канал, обеспечивающий соединение процессора и внутренних устройств: памяти, видеокарты, устройств хранения информации и т. п.

Наиболее часто можно встретить систему организации внешнего интерфейса процессора, которая предполагает, что параллельная мультиплексированная процессорная шина, носящая название FSB, соединяет процессор (порой два процессора, четыре или даже больше) и системный контроллер, который обеспечивает доступ к оперативной памяти и внешним устройствам. Этот системный контроллер обычно называется «северным мостом» (от англ. Northbridge). Он, наряду с «южным мостом» (от англ. Southbridge), входит в состав набора системной логики, который, однако, чаще фигурирует под названием «чипсет» (от англ. Chipset).


Northbridge

Северный мост начал именоваться именно так из-за своего расположения на материнской плате. Он представляет собой микрочип, визуально расположенный «под» процессором, однако в верхней части материнской платы, как бы в «северной» ее части.

Системный контроллер служит для передачи команд центрального процессора к оперативной памяти, и видеоконтроллеру (в случае встроенного видеоконтроллера, северный мост, производимый компанией Intel, именуется GMCH (от англ. Chipset Graphics and Memory Controller Hub), а также конвертацию этих команд в форму, необходимую для обращения к оперативной памяти. Порой, для увеличения потенциальной производительности системы, к северному мосту подключаются наиболее производительные периферийные устройства, например, видеокарты с шиной PCI Express, а менее производительные устройства (BIOS, устройства PCI, интерфейсы устройств хранения информации, ввода и т. п.) могут подключаться к так называемому южному мосту. Северный мост соединен с материнской платой посредством согласующего интерфейса, также контроллер соединяется шиной и с южным мостом.


Северным мостом определяются параметры (пропускная способность, частота, а также тип): системной шины, оперативной памяти (тип используемой памяти, а также ее максимальный объем), подключенного видеоконтроллера (режим работы, возможность использования SLI (от англ. Scalable Link Interface, что означает «масштабируемый интерфейс» и фактически означает возможность работы 2 (3 - 3-Way SLI, или даже 4 - Quad SLI) видеоадаптеров одновременно, что чрезвычайно повышает производительность видео).

В настоящее время в процессорах серии Core i-x с разъемом LGA 1156 северный мост встроен в процессор и связывается с ядрами по внутренней шине QPI со скоростью соединения 2.5^109 операций в секунду. Из факта поглощения процессором северного моста вытекает неактуальность использования шины FSB и внешней шины QPI в подобных системах.


Southbridge

Еще одним компонентом чипсета является функциональный контроллер ввода-вывода (от англ. I/O Controller Hub, ICH), так называемый южный мост, служащий для связи центрального процессора (через северный мост) с устройствами, не столь критичными к скорости взаимодействия:

Контроллеры PCI (X, E), прерываний, SMBus (I2C), LPC, IDE/SATA DMA, IRQ, ISA;

Super I/O: контроллер floppy-дисководов; контроллер LPT-порта; Контроллер COM-портов; MIDI, джойстик, инфракрасный порт и т.п.

Часы реального времени RTC (от англ. Real Time Clock);

BIOS (CMOS), вместе с энергонезависимыми системами обеспечения;

Системы энергообеспечения APM и ACPI;

Звуковой контроллер (AC97);

Может включать в себя контроллеры Ethernet, USB, RAID, FireWire и т. п.

Особенностью южного моста является его взаимодействие с внешними устройствами. Как следствие, он довольно чувствителен различным негативным факторам, влияющим на нормальную работу устройств (короткое замыкание, перегрев, деформация материнской платы и т. п.). Замена южного моста, как правило, составляет стоимость самой материнской платы, поэтому замена его нерациональна из-за ее высокой стоимости и обычно не проводится.


Шина BSB (от англ. Back Side Bus) служит для соединения центрального процессора с кэш-памятью второго уровня для процессоров, в которых используется двойная независимая шина DIB (от англ. Dual Independent Bus), которая также называется вторичным (или внешним) КЭШем (и носит обозначение L2-cache).


Компанией Intel была разработана системная шина QPB (от англ. Quad Pumped Bus), передающая 4 64-разрядных блока данных или 2 адреса за такт, тогда как пытавшаяся получить лицензию на системную шину GTL+ для создания своих новых процессоров, компания AMD вынуждена была при создании процессоров серии К7 лицензировать шину EV6 для процессоров AMD Athlon и Athlon XP передающую данные два раза за такт (Double Data Rate).

Данная шина оказалась значительно сложнее в производстве, чем предыдущие исполнения. Данное обстоятельство не могло не сказаться на серьезном увеличении количества транзисторов, используемых для реализации вышеуказанного принципа передачи данных, как для процессора, так и для самого чипсета.


DMI (от англ. Direct Media Interface) – шина, которая была разработана компанией Intel, для соединения южного и северного мостов материнской платы. Для разъема LGA 1156 со встроенным контроллером памяти (продукты Core i3, Core i5 и некоторые серии Core i7 (800, к примеру)), DMI соединяет процессор и чипсет PCH (от англ. Platform Controller Hub) по технологии CtC (от англ. Chip-to-Chip).

PCH является, по сути, аналогом южного моста, однако представляет из себя совершенно новый P55 Ibex Peak. Фактически, в новом решении сочетается расширенный функционал предыдущих версий южных мостов компании Intel, а также дополнительный контроллер PCI-e для периферии.


Первыми чипсетами, построенными с помощью технологии DMI, были устройства серии Intel i915, на основе сокета LGA 1156, получившие свое распространение с 2004 года.


Пропускная способность DMI составляет 2 Гбайт/с. Из-за столь невысоких значений, инженеры Intel пошли на революционное решение, встроив контроллер памяти, PCI-e и непосредственно интерфейс DMI в сам процессор.


HyperTransport

HyperTransport (ранее известная, как Lightning Data Transport) – технология последовательной/параллельной связи, разработанная с использованием технологии P2P (от англ. «point-to-point»), которая обеспечивает достаточно высокую скорость при низком уровне латентности (от англ. Low-latency responses), которая обеспечивает межпроцессорную связь, связь процессоров с сопроцессорами и процессоры с I/O Controller Hub. Имеет оригинальную схему на основе соединений, тоннелей, последовательного объединения нескольких тоннелей в цепь и мостов (для организации маршрутизации пакетов между цепями) для более простого масштабирования всей системы.


HyperTransport оптимизирует внутрисистемные связи заменой шин и мостов на их физическом уровне. Также тут используется DDR (от англ. Double Data Rate), что позволяет производить до 5.2x109 посылок в секунду с частотой синхронизации сигнала на уровне 2.6 гигагерц.


Версии HyperTransport:

Версия Год Максимальная частота (МГц) Максимальная ширина (бит) Пиковая пропускная способность (Гбайт/сек)
1.0 2001 800 32 12.8
1.1 2002 800 32 12.8
2.0 2004 1400 32 22.4
3.0 2006 2600 32 41.6
3.1 2008 3200 32 51.6

Очередной шаг в совершенствовании научно-технического процесса был обозначен инженерами компании Intel созданием нового типа системной шины QPI (от англ. Quick Path Interconnect, ранее известной, как Common-System Interface, или CSI). Она заключается в интегрированном контроллере памяти и быстрой последовательной шины P2P для доступа к распределенной и разделяемой памяти.


Необходимость повышения скорости обработки и обмена данными диктует более жесткие требования к пропускной способности шины. С развитием технологии и характеристик процессоров нового поколения, использование FSB уже неактуально и в полной мере является наглядным изображением пресловутого эффекта «бутылочного горлышка». Результатом модернизации технологии FSB было создание шины нового поколения – QPI. Общая пропускная способность данного нового вида системной шины достигает невероятных (для предшественников) значений в 25.6 ГБ/с.

Первые процессоры, построенные на технологии использования системной шины QPI, поступили на рынок в начале 2008 года. Данная технология является прямым конкурентом консорциума, во главе с компанией AMD, выпустившей системную шину HyperTransport.


Название микроструктуры процессорного ряда компании Intel - Nehalem произошло от названия небольшого города в США неподалеку от головного офиса компании Intel в г. Санта-Клара (основанного в 18 веке) в Калифорнии. Nehalem является продолжением процесса модернизации модельного ряда архитектур Intel x86. Свое продолжение в 2010 году QPI получила в процессоре серии Itanium 9300, получив кодовое имя Tukwila, что является большим шагом вперед для систем, построенных на базе Itanium. Вместе с QuickPath в процессоре используется встроенный контроллер памяти, и интерфейс памяти прямо использует интерфейс QPI для взаимодействия с другими процессорами и I/OCH. Именно в этих продуктах наиболее типичным решением и стала системная шина QPI, что делает вероятной возможность использования одного чипсета процессорами Tukwila и Nehalem.

Каждое ядро процессора содержит интегрированный контроллер памяти и скоростное соединение для подключения иных компонентов. Данная структура служит для обеспечения следующих аспектов:

Огромной производительности и удобства работы с памятью;

Динамически изменяемой полосы эффективного пропускания при связи процессора с иными компонентами системы;

Значительного увеличения характеристик RAS (от англ. Reliability, Availability, Serviceability, что дословно означает «надежность, доступность и обслуживаемость») - достигается для достижения наилучшего баланса между ценой, производительностью и энергоэффективностью.


Чипсеты с разъемом LGA 1366 используют шину DMI для связи между северным мостом и южным мостом. А процессоры для сокета LGA 1156 вообще не имеют внешнего интерфейса QuickPath, т.к. чипсеты для данного сокета взаимодействуют с однопроцессорными конфигурациями, а функционал северного моста же напрямую встроен в сам процессор, что заставляет использовать шину DMI для связи процессора с аналогом южного моста. Однако, встроенная шина QPI используется в процессорах сокета LGA 1156 для связи ядер и встроенного контроллера PCI-e внутри самого процессора.

Данные, передаваемые в виде датаграмм (пакетов) в системной шине QPI передаются по паре односторонних каналов, каждый из которых состоит из 20 пар проводов. Общая ширина канала составляет 20 бит, при этом 16 бит служат для передачи исключительно данных (полезной нагрузки). Максимальная пропускная способность одного канала варьируется от 4.8^109 до 6.4^109 транзакций в секунду, следовательно, общая максимальная пропускная способность одного соединения приближается к значениям от 19.2 до 25.6 ГБ/с в двух направлениях, что составляет, соответственно, от 9.6 до 12.8 ГБ/с в каждую сторону.


В настоящее время системную шину QPI используют, в основном, для серверных решений. Связано это обстоятельство с тем, что QPI приобретает максимальную эффективность (и КПД) именно в загруженности пересылкой данных в оба направления, как в случае с многосокетными рабочими станциями или, собственно, серверами.

Как показывают тесты, для пользовательских машин использовать решения на основе QPI нецелесообразно, так как даже намеренное снижение пропускной способности QPI в 2 раза никоим образом не влияет на получаемые результаты в тестах, даже при условии использования связки из 3 наиболее производительных графических адаптеров.


PCI (от англ. Peripheral Component Interconnect bus) – шина для соединения материнской платы с периферийными устройствами различного рода.


Начало PCI было положено в начале 1992 года компанией Intel (для замены шины VLB (от англ. Vesa Local Bus)), которая допустила полноценное использование возможностей процессоров 486, Pentium и Pentium Pro, при этом стандарт шины с самого начала был открыт, что гарантировало возможность создания устройств для шины PCI без обязательства лицензирования.


В 1993 году в ходе маркетинговой политики по продвижению PCI на рынке вышла PCI 2.0. В 1995 году данная модель модифицировалась до версии PCI 2.1.


PCI имела реальную тактовую частоту на уровне 33 МГц, тактовой частотой для версии 2.1 стало значение в 66 МГц, что позволило повысить скорость передачи данных до 533 Мбайт/с. Вместе с тем, и в операционных системах (Windows 95, к примеру) уже была предусмотрена поддержка шины PCI 2.1, которая стала настолько популярной, что вскоре была использована при создании платформ процессоров Alpha, MIPS, PowerPC, SPARC и т.д.

Однако, ничего не стоит на месте, включая научно-технический процесс, поэтому в связи с разработкой шины PCI Express, AGP и PCI практически не используются в решениях высшего ценового диапазона.


PCI Express

PCI Express получила свое кодовое название 3GIO (от англ. 3rd Generation I/O) – компьютерная шина, использующая последовательную передачу данных, обеспечиваемую высокопроизводительным физическим протоколом на основе программной модели шины PCI.

В связи с тем, что использование параллельной передачи данных, при попытке увеличить производительность, будет означать физическое ее расширение, последовательная передача данных обладает возможностью масштабирования (1x, 2x, 4x, 8x, 16x и 32x) а, значит, более приоритетна в разработке. Топология PCI Express, в общем случае, представляет собой звезду со взаимодействием между собой устройств через среду, образованную коммутаторами, с прямой связью каждого устройства соединением P2P.


Очередными отличительными особенностями PCI Express являются:

Возможность горячей замены карт;

Последовательность;

Спецификация;

Возможность создания виртуальных каналов, гарантирования полосы пропускания и количество времени отклика, а также сбора статистики QoS (от англ. Quality of Service)

Возможность влиять на энергопотребление оборудования ASMP (от англ. Active State Power Management) – перевод устройства в режим уменьшенного энергопотребления в случае его простоя в течение конкретного (задаваемого программно) интервала времени;

Контроль целостности информации и структуры данных, предназначенных для передачи – алгоритм Data Link прикрепляет к пакету данных (в передаче) контрольную сумму последовательности и ее номер, что позволяет обнаруживать все одиночные и двойные ошибки, а также ошибки в нечетном числе бит – CRC (от англ. Cyclic Redundancy Check).


В отличие от PCI (использование подключения к общей 32-разрядной параллельной двунаправленной шине), PCI Express использует двунаправленное последовательной соединение P2P, а соединение между двумя устройствами состоит из 1 (2, 4, 8, 16, 32) двунаправленных линий. На электрическом уровне каждое соединение способно подключаться к PCI Express всего лишь 4 проводниками.


Преимущества подобного решения налицо:

Устройство корректно работает в таком же слоте, или большей пропускной способности;

Корректная работа слота возможна даже при использовании не всех линий (однако в таком случае необходимо подключение и заземление всех проводников питания);

Физическая составляющая слота не позволит допустить некорректную работу системы, в случае попытки вставить устройство в слот с меньшей пропускной способностью, дифференциацией размеров слотов x1 (x2, x4, x8, x16, x32).


Чтобы высчитать пропускную способность PCI Express, нужно учесть битрейт, дуплексность связи и процент (отношение) эффективного количества «полезной нагрузки» бит к общему количеству (в PCI Express 1.0 и 2.x это отношение выглядело, как 8 бит информации / 10 бит служебных данных). Перемножая все три значения, получим скорость передачи данных. Так общая пропускная способность шины PCI Express 3.0 достигает 1 Гбайт/с для каждой линии при сигнальной скорости передачи данных в 8 GT/s (для 2.0 этот показатель был равен 5 GT/s, а для 1.0 – вообще 2.5 GT/s). А для планируемого к стандартизации и спецификации к 2014-2015 гг. стандарта 4.0 планируется удвоить показатель сигнальной скорости до 16 GT/s или даже более, что будет, по-меньшей мере, в 2 раза быстрее PCI Express 3.0


Заключение.

В настоящее время развитие технологий дает потребителям возможность выбирать технологию себе по вкусу из огромного количества вариантов. Решение различного рода задач потребителей задает необходимость определяться с наилучшим соотношением «цена-качество-целесообразность». К примеру: обыватель не замечает разницы в производительности между системами, построенных на базе сокета LGA 1366 (используется системная шина QPI) и сокета LGA 1156(1155) (используется системная шина DMI) в силу достаточности технологии, связанной с LGA 1156 и отсутствием задач, для которых ресурс данной системы был бы недостаточен. Лишь настоящие ценители и коллекционеры не откажут себе в радости приобретения компьютера, ресурс которого не будет использован и на 50%. Для потребителей-корпораций и крупных фирм нередко уже недостаточно производительности шины DMI.

Разрыв в разнице задач растет соответственно уровню потребителя. Кто знает, какие технологии используются в суперкомпьютерах мировых держав, однако ясно одно: именно эти технологии мы и будем использовать в ближайшем будущем.