Меня интересовали спецификации сервера UNIX, который мой университет предоставляет студентам, поэтому я запустил screenfetch . Вот вывод:
user@unix4.university.edu
`.-..........` OS: Red Hat Enterprise Linux 7.5 Maipo
`////////::.`-/. Kernel: x86_64 Linux 3.10.0-862.14.4.el7.x86_64
-: ....-////////. Uptime: 9h 1m
//:-::///////////` Packages: 3796
`--::: `-://////////////: Shell: bash 4.2.46
//////- ``.-:///////// .` CPU: Intel Xeon E5-2680 v2 @ 40x 3.6GHz [61.0°C]
`://////:-.` :///////::///:` GPU: Matrox Electronics Systems Ltd. G200eR2
.-/////////:---/////////////: RAM: 8290MiB / 64215MiB
.-://////////////////////.
yMN+`.-::///////////////-`
.-`:NMMNMs` `..-------..`
MN+/mMMMMMhoooyysshsss
MMM MMMMMMMMMMMMMMyyddMMM+
MMMM MMMMMMMMMMMMMNdyNMMh` hyhMMM
MMMMMMMMMMMMMMMMyoNNNMMM+. MMMMMMMM
MMNMMMNNMMMMMNM+ mhsMNyyyyMNMMMMsMM
Все, что я могу найти о графических процессорах Matrox, это их страница в Википедии, на которой написано, что G200 был выпущен в 1998 году. Почему мой университет использовал их на современном сервере (CPU был выпущен в конце 2013 года)?
Ответы:
Серверы общего назначения не нуждаются в современном графическом процессоре - их достаточно для отображения рабочего стола консоли среднего размера. Они в основном имеют дело с обычными процессорами и сетевыми процессорами.
Однако VGA Matrox G200 обычно используются на серверах из-за их интеграции с контроллером управления системной платой (BMC, также известным как iLO, iDRAC или IPMI).
Этот контроллер управления действует как независимая система со своей собственной операционной системой и позволяет администратору сервера удаленно подключаться к дисплею и клавиатуре консоли - они могут видеть экраны BIOS, перезагружать сервер, даже если он полностью заморожен, даже запускать его с полной мощности. выкл. Для этих задач контроллер должен знать, что графический адаптер отображает прямо сейчас.
Поэтому я бы предположил, что для этого используются старые видеоадаптеры Matrox, поскольку они хранят видеобуфер в системной памяти (а не в собственной VRAM) и используют достаточно простую компоновку данных, чтобы BMC мог ее расшифровать, не требуя тайных знаний о графическом процессоре внутренности, ни без какой-либо помощи от основной ОС.
(Или, возможно, наоборот - как упоминалось в комментариях, G200 обычно встроен в BMC, возможно, предоставляя BMC полностью прямой доступ к видеобуферу G200.)
Но даже если бы сервер был построен для вычислений на GPU, я предполагаю, что у него не будет «все-в-одном» видеокарты, как у ПК, а вместо этого будет набор выделенных GPGPU только для вычислений (например, от nVidia) для тяжелых работа - и все тот же Matrox VGA для консоли.
источник
Именно Matrox G200eR2 не является отдельной видеокартой. Это чип, непосредственно интегрированный в материнскую плату сервера. Это дешево, очень надежно, легко интегрируется и обеспечивает отличные возможности отображения текста (консоли) и приличную возможность 2D-графики. Также известно, что почти каждая операционная система для оборудования Intel имеет встроенную поддержку драйверов.
Единственная цель для VGA-карты - получить базовый дисплей консоли, который можно использовать для настройки Bios и начальной установки сервера. После этого вы, вероятно, когда-либо будете получать доступ к серверу только удаленно. Это не обязательно должна быть хорошая видеокарта. Вы не собираетесь играть на нем. Но это большое благословение, если оно работает "из коробки" с любой операционной системой, которую вы собираетесь установить на сервере. И это все, что вам нужно и нужно на сервере.
Чипы Matrox всегда были очень популярны для этой цели, и этот конкретный чип до сих пор использовался в 2014 году на новых серверах Dell и, возможно, в некоторых других брендах.
источник
You are not going to be gaming on it.
- Говорите сами, я создал программы автоматизации для онлайн-игр mmorpg и работал круглосуточно, выполняя рутинные, но полезные задачи на серверах.Потому что серверу не нужен высокопроизводительный графический процессор.
И, кстати, у Matrox были хорошие Multi-Monitor графические карты задолго до появления ATI / AMD и NVidia.
Так что решение, вероятно, было логичным к моменту покупки.
источник