143.30K
Category: electronicselectronics

Эволюция видеокарт NVIDIA

1.

Презентация на тему
"Эволюция видеокарт NVIDIA"
Подготовил:
Елисеев Кирилл Денисович Р-122

2.

Введение
• Итак, целью моей индивидуальном проекте работы поколения видеокарты NVIDIA. NVIDIA переносит выпуск
видеокарт GeForce RTX 40 на конец 2022 – начало 2023 года – Hardwaretimes. Инсайдеры сообщают, что к середине
2023 в продажу поступит суперфлагман GeForce RTX 4090 Ti с 48 Гб видеопамяти на скорости 24 Гбит/с. 1 сентября
2022, четверг 17:12 Zelot для раздела Блоги. В 2020 году инсайдеры вещали о выходе одного из самых
перспективных поколений графических чипов NVIDIA. Сообщалось, что геймеров ждёт не только снижение
средней стоимости, но и высокая доступность. Дженсен Хуанг был настроен оптимистично, но первые признаки
приближающейся беды появились ещё в начале лета 2020 года, когда NVIDIA прекратила производство флагманов
GeForce RTX 2000-й серии, а после и GeForce RTX 2060/2060 Super.
• Поскольку количество этих видеокарт никогда не было чрезмерным, уже к концу года образовался дефицит, а
несмотря на все обещания цены на поколение GeForce RTX 3000 так и остались заоблачными. Но проблемы 2020
года только казалась неразрешимыми, ведь после криптобума в магазинах и вовсе не осталось видеокарт, а
доступные для покупки стоили в 3 раза дороже рекомендованной цены. В какой-то момент прибыль так выросла,
что средняя цена за 1 графический чип достигла 1000 долларов, а майнеры были готовы покупать видеокарты по
самой неразумной стоимости.
• Именно на этом фоне у руководства NVIDIA возникли ошибочные мысли о том, что майнинг вечен. К весне 2022
года стало ясно, что на носу PoS, а фермеры перестали интересоваться новыми видеокартами. Вот только
Дженсена Хуанга было не остановить. Глава NVIDIA наштамповал столько видеокарт, что теперь ими забиты все
складские помещения партнёров компании. В августе была произведена неудачная попытка разгрузить склады за
счёт снижения рекомендованных цен на флагманы. Неясно, кто придумал такую гениальную идею, но этому
парню следовало бы знать, что геймеры предпочитают тратить на видеокарты до 300 долларов, а перекачанная
GeForce RTX 3090 за 1100 вечнозелёных интересует только мажоров и энтузиастов. Даже в США графические чипы
GeForce RTX 3060 и GeForce RTX 3050 стоят намного дороже рекомендаций на начало продажи, а инсайдеры
полагают, что в сентябре NVIDIA будет вынуждена устроить большую распродажу. Пока неясно, будет ли
распродажа, ведь согласно последним слухам, Дженсен Хуанг принял непростое решение.

3.

Основная часть
• -памяти
Видеокарта – составная часть компьютера, функция которой заключается в том, чтобы перевести определенные данные, расположенные в
системы в доступное иизображение. Если сказать нетерминологическим языком, то видеокарта, или видеоадаптер – деталь компьютера
(часто подключаемая плата) которая обрабатывает информацию и передает её на экран. Они бывают разных видов и размеров, с системой
охлаждения и без. Вероятно вы уже получили базовый ответ на вопрос что такое видеокарта, но также, скорее всего, это далеко не все, что вы
хотели бы о ней знать, поэтому продолжим.
-для чего нужна ведокарта? Давайте рассмотрим более детально функции графической карты. Для этого вернемся к определению, там
говорилось, что данное устройство занимается выведением на дисплей вашего компьютера изображение, сформированного из информации,
содержащейся в нем. Следовательно, графическая карта отвечает за все, что вы видите. Уберите ее и все процессы перестанут поступать на
экран. Они будут идти, но вы их не увидите. То есть, вынимаем из системника графическую плату и имеем черный экран.
На самом деле, в большинстве случаев, если из ПК убрать видеокарту, то он даже не запуститься. Дело в том, что большинство BIOS настроено
так, чтобы не давать загружаться компьютеру в случае обнаружения каких-либо ошибок, коей и является отсутствие видеокарты. Не будет того,
что предаст данным и происходящим внутри системы процессам вид вполне понятного для вас изображения. Даже больше – если ее не вынимать
оттуда, а просто повредить, то уже будут проблемы с переводом данных в образы на мониторе. Надеюсь теперь вы понимаете для чего
компьютеру нужна видеокарта. Поехали дальше.
Видеокарта в играх. Многие пользователи приобретают мощные видеокарты исключительно для запуска современных игр. Графический
процессор берет на себя выполнение основных операций. Например, для построения видимого игроку кадра происходит просчет видимых
объектов, освещения и постобработка с добавлением эффектов и фильтров. Все это ложится на мощности GPU, а CPU выполняет лишь малую
часть всего процесса создания изображения. Из этого и получается, что чем мощнее видеокарта, тем быстрее происходит обработка
необходимой визуальной информации. Высокое разрешение, детализация и остальные настройки графики требуют большое количество
ресурсов и времени на обработку. Поэтому одним из самых важных параметров при подборе является объем памяти GPU.
Из чего она состоит? Видеопроцессор – как и его старший родственник ЦП, является важным органом графической карты. Он занимается
вычислительной работой над проецируемой на ваш монитор картинкой и несет ответственность за 3D графику;
Видеоконтроллер – создает образ в оперативной памяти видеокарты, обрабатывает полученные данные от ЦП, выполняет работу в части
произведения сигналов развертки для монитора;
Видеопамять – фактически является ОЗУ графического ускорителя. В ней находятся информационные данные образа идущего на дисплей;
Цифро-аналоговый преобразователь – работает над модифицированием картинки, которую генерирует видеоконтроллер, а также принимает
участие в регулировке цветовой гаммы на экране компьютера;
Видео–ПЗУ (постоянное запоминающее устройство) – в нем находится БИОС графической карты. Доступ в него есть только у ЦП;
Система охлаждения – поддерживает оптимальный уровень температурного показателя графической платы.

4.


История видеокарт NVIDIA.
NVIDIA Corporation — американская технологическая компания, разработчик графических процессоров и систем-на-чипе
(SoC). Разработки NVIDIA получили распространение в индустрии видеоигр, сфере профессиональной визуализации,
области высокопроизводительных вычислений и автомобильной промышленности, где бортовые компьютеры NVIDIA
используются в качестве основы для беспилотных автомобилей. Важным приоритетом для компании также является рынок
искусственного интеллекта (ИИ).
Компания была основана в 1993 году. На III квартал 2018 года NVIDIA была крупнейшим в мире производителем PCсовместимой дискретной графики с долей 74,3% (статистика включает все графические процессоры, доступные для прямой
покупки конечными пользователями — GeForce, Quadro и ускорители вычислений на базе GPU Tesla). По состоянию на
январь 2018 года численность сотрудников превышала 11,5 тысяч человек. Штаб-квартира компании находится в городе
Санта-Клара, штат Калифорния (США).
NV 1. Первый графический 3D-ускоритель от NVIDIA, выпущен в 1995 году.
Примечательная особенность данной карты состоит как в необычном подходе с 3D-рендерингом, когда использовались
Quadratic Texture Maps, вместо привычных нынче полигонов, так и в наличии микросхемы, отвечавшей за обработку звука.Riva
128/128ZX. В 1997 году компанией был выпущен второй графический чип, основанный на 350-нм техпроцессе, сыскавший
звание «народного».
Название RIVA является акронимом Real-time Interactive Video and Animation, а цифра 128 указывает на разрядность шины.
Главной «фишкой» GPU является технология рендеринга, основанной на квадратическом маппинге текстур, который не
поддерживался в Direct3D.
Riva TNT2
В начале 1999 года компания NVIDIA начала производство графического процессора пятого поколения.
Riva TNT2 была доработанным вариантом TNT: добавлена поддержка AGP интерфейса, техпроцесс уменьшился до 250-нм, а
частота чипа выросла с 90 до 150 мегагерц.
GeForce 256
Всё в том же 1999 году появился первый GPU из линейки GeForce.

5.

Эволюция видеокарт NVIDIA
• Чипы NVIDIA G70 и G71. Очередным шагом NVIDIA стал выпуск в 2005 году чипа
G70, который лег в основу видеокарт серии GeForce 7800. После успеха NV40 у
«зеленых» не было необходимости заново перекраивать дизайн процессора. GPU
производился по 110-нм техпроцессу, но количество транзисторов увеличилось
до отметки 302 млн. Несмотря на возросшую архитектурную сложность,
энергопотребление чипа осталось примерно на прежнем уровне. При этом
увеличились тактовые частоты и разгонный потенциал. Что касается изменений
G70 в сравнении со своим предшественником, то их было не так много. Прежде
всего, стоит отметить переработанные пиксельные конвейеры. В каждый
конвейер были добавлены дополнительные блоки ALU, которые отвечали за
обработку наиболее популярных пиксельных шейдеров. При этом число самих
конвейеров было увеличено вдвое — теперь их стало 24 штуки. Это позволило
значительно поднять производительность чипа в тех играх, которые делали упор
на производительность пиксельных процессоров. Такими играми являлись
популярные Half-Life 2 и Doom 3, где преимущество G70 доходило порой до 50%.
Изменения претерпели и вершинные конвейеры, получившие улучшенные
алгоритмы работы. Их количество также было увеличено до 8. А вот блоки
растеризации были почти полностью идентичны тем, что использовались в NV40.
Помимо этого, в очередной раз были улучшены алгоритмы сглаживания и
фильтрации.

6.

Эволюция видеокарт NVIDIA
• Чипы ATI R520 и R580. АТI немного припоздала со своим ответом на G70. Чип R520 был выпущен только в
октябре 2005 года. Задержка была связана из-за найденного бага в процессоре, который сильно
ограничивал тактовую частоту ядра. R520 был основан на новой архитектуры и имел мало общего со своим
предшественником R420. Кристалл выпускался в соответствии с 90-нм технологическими нормами и
использовал новую многопоточную архитектуру ATI. Ее задачей было оптимальное распределение
нагрузки между различными блоками. С этой целью в чип был добавлен специальный блок, который
отвечал за оптимальную работу пиксельных конвейеров. Сами пиксельные конвейеры, которые, в свою
очередь, работали через специальный регистр для наиболее быстрой передачи данных. Новые GPU
работали с Shader Model 3.0. Количество пиксельных конвейеров в R520 увеличено не было, но их малое
количество компенсировались высокими тактовыми частотами ядра и памяти. Были доработаны и
вершинные конвейеры. Также R520 обзавелся совершенно новым контроллером памяти с шиной,
равномерно распределяющей запросы. Кроме этого, R520 поддерживал новую версию технологии HyperZ,
а также работал с HDR-изображениями. Флагманским устройством на базе R520 была видеокарта Radeon
X1800 XT. Ее частоты ядра и памяти составляли 625 МГц и 1500 МГц соответственно. Использовалась
GDDR3-память объемом 256 или 512 Мбайт вместе с 256-битной шиной. В плане производительности
Radeon X1800 XT была равна GeForce 7800 GTX с 256 Мбайт видеопамяти, но проигрывала 512-мегабайтной
версии. Однако качество изображения на ультравысоких настройках порой было выше у акселератора ATI.
• .Из-за позднего запуска R520 и видеокарты серии Radeon X1800 недолго пробыли на рынке. Уже через
несколько месяцев их сменил чип R580 и адаптеры серии Radeon X1900. R580 был запланированным
обновлением R520. Новый чип незначительно, но все же отличался от предшественника. Так, количество
пиксельных конвейеров было увеличено втрое — их стало 48. На 50% был увеличен HyperZ-буфер, а также
была оптимизирована выборка текстур. Кроме этого, у Radeon X1900 XTX были увеличены частоты ядра и
памяти. Они составляли 650 и 1550 МГц соответственно. Эти улучшения позволили Radeon X1900 XTX быть
стабильно быстрее, чем 512-мегабайтная версия GeForce 7800 GTX.

7.

Эволюция видеокарт NVIDIA
• Чипы ATI R520 и R580. АТI немного припоздала со своим ответом на G70. Чип R520 был выпущен только в
октябре 2005 года. Задержка была связана из-за найденного бага в процессоре, который сильно ограничивал
тактовую частоту ядра. R520 был основан на новой архитектуры и имел мало общего со своим
предшественником R420. Кристалл выпускался в соответствии с 90-нм технологическими нормами и
использовал новую многопоточную архитектуру ATI. Ее задачей было оптимальное распределение нагрузки
между различными блоками. С этой целью в чип был добавлен специальный блок, который отвечал за
оптимальную работу пиксельных конвейеров. Сами пиксельные конвейеры, которые, в свою очередь,
работали через специальный регистр для наиболее быстрой передачи данных. Новые GPU работали с Shader
Model 3.0. Количество пиксельных конвейеров в R520 увеличено не было, но их малое количество
компенсировались высокими тактовыми частотами ядра и памяти. Были доработаны и вершинные
конвейеры. Также R520 обзавелся совершенно новым контроллером памяти с шиной, равномерно
распределяющей запросы. Кроме этого, R520 поддерживал новую версию технологии HyperZ, а также
работал с HDR-изображениями. Флагманским устройством на базе R520 была видеокарта Radeon X1800 XT.
Ее частоты ядра и памяти составляли 625 МГц и 1500 МГц соответственно. Использовалась GDDR3-память
объемом 256 или 512 Мбайт вместе с 256-битной шиной. В плане производительности Radeon X1800 XT была
равна GeForce 7800 GTX с 256 Мбайт видеопамяти, но проигрывала 512-мегабайтной версии. Однако
качество изображения на ультравысоких настройках порой было выше у акселератора ATI.
• .Из-за позднего запуска R520 и видеокарты серии Radeon X1800 недолго пробыли на рынке. Уже через
несколько месяцев их сменил чип R580 и адаптеры серии Radeon X1900. R580 был запланированным
обновлением R520. Новый чип незначительно, но все же отличался от предшественника. Так, количество
пиксельных конвейеров было увеличено втрое — их стало 48. На 50% был увеличен HyperZ-буфер, а также
была оптимизирована выборка текстур. Кроме этого, у Radeon X1900 XTX были увеличены частоты ядра и
памяти. Они составляли 650 и 1550 МГц соответственно. Эти улучшения позволили Radeon X1900 XTX быть
стабильно быстрее, чем 512-мегабайтная версия GeForce 7800 GTX.

8.

Эволюция видеокарт NVIDIA
• Чипы ATI R600 и RV670. Компания ATI снова немного опоздала с выпуском ответного решения, и новый чип R600
увидел свет лишь в мае 2007 года. Однако чуть ранее произошло еще одно важное событие в истории компании —
она была куплена американской компанией AMD за 5,4 миллиардов долларов США. В октябре 2006 года ATI
официально стала графическим подразделением AMD. Но вернемся к чипу R600. Так же как и G80, R600
кардинально отличался от своего предшественника R520 и имел унифицированную шейдерную архитектуру
второго поколения. До выпуска R600 AMD применяла первое поколение этой архитектуры в графическом чипе
для приставки Xbox 360. «Камень» теперь также имел потоковые процессоры вместо отдельных конвейеров.
Интересно, что чип содержал кластеры, в которых располагались пять потоковых процессоров. Всего таких
кластеров у R600 было 64, то есть общее количество потоковых процессоров составляло 320 штук.
Поддерживались DirectX 10 и Shader Model 4.0, а также аппаратная тесселяция. В R600 присутствовал диспетчер
потоков, который оптимально распределял нагрузку между ALU. Как и в G80, были улучшены алгоритмы
сглаживания и фильтрации, поддерживалось HDR-освещение. Контроллер памяти имел кольцевую структуру.
Среди других возможностей R600 стоит выделить наличие отдельного движка UVD (Unified Video Decoder),
который отвечал за декодирование видео форматов MPEG4, VC-1, H.264. Технология CrossFire получила
значительные доработки, которые повысили ее быстродействие, и была переименована в CrossFireX.
• В мае 2007 года была представлена флагманская видеокарта Radeon HD2900 XT, использующая GDDR3-память. А
через два месяца свет увидела модификация Radeon HD2900 XT, оснащенная «GDDR4-мозгами». Частота ядра
видеокарты составляла 740 МГц, памяти GDDR3 — 1650 МГц. В обеих версиях использовались 512-битные шины
памяти. К слову, подсистема памяти отнюдь не была ахиллесовой пятой R600, поэтому прирост от использования
более быстрой GDDR4-памяти был минимален.
• Весь запуск R600 получился каким-то скомканным. Изначально предполагалось, что AMD запустит модификацию
XTX для конкуренции с GeForce 8800 GTX и Ultra, однако этого не произошло. Производительности же версии XT
хватало лишь для конкуренции с младшей видеокартой GeForce 8800 GTS.
• Более успешным оказался RV670, выпущенный в конце 2007 года. Чип выпускался по новому 55-нм техпроцессу, но
архитектурно почти не отличался от R600. Изменения затронули шину памяти. Она стала 256-битной и работала с
памятью типа GDDR4. Появилась поддержка DirectX 10.1 и Shader Model 4.1. Также RV670 поддерживал
технологию энергосбережения AMD PowerPlay.

9.

Заключение
• В заключении хочу сказать, что не стоить думать, что видеокарты как
таковые ждет скорая смерь - они еще долгое время будут развиваться
параллельно всяким вышеизложенным новаторским разработкам. По
крайней мере последний из Могикан - NVIDIA, которая, если верить
назойливым слухам, принимает непосредственное участие в
разработке Larrabee, смотрит твердо вперед и не собирается, по
крайней мере в ближайшее время, свернуть с намеченного пути. Так что
несмотря на всякие игры с GPGPU, она будет продолжать радовать нас
новыми видеокартами. Впрочем, как и AMD, которая также не
собирается сворачивать свои графические разработки в ближайшее
время. Но как оно будет, знают лишь производители.
English     Русский Rules