Android

Nvidia 【вся інформація】

Зміст:

Anonim

Корпорація Nvidia, більш відома як Nvidia, є американською технологічною компанією, зареєстрованою в штаті Делавер та заснованою в Санта-Кларі, Каліфорнія. Nvidia розробляє одиниці обробки графіки для відеоігор та професійних ринків, а також систему мікросхем (SoC) для ринку автомобільних та мобільних обчислень. Її основна лінійка продуктів GeForce прямо конкурує з продуктами AMD Radeon.

Рекомендуємо ознайомитись з нашими найкращими посібниками з обладнання та компонентів ПК:

Окрім виготовлення графічних процесорів, Nvidia забезпечує дослідники та науковці можливості паралельної обробки у всьому світі, що дозволяє їм ефективно запускати високоефективні програми. З недавнього часу він перейшов на ринок мобільних обчислень, де випускає мобільні процесори Tegra для консолей, планшетів і автономних систем навігації та розваг автомобілів. Це призвело до того, що Nvidia з 2014 року стала компанією, орієнтованою на чотири ринки: ігри, професійна візуалізація, центри обробки даних та штучний інтелект та автомобілі.

Зміст індексу

Історія Nvidia

Nvidia була заснована в 1993 році Джен-Хсун Хуанг, Кріс Малаховський і Кертіс Прием. Троє співзасновників компанії висловили припущення, що правильний напрямок для обчислень буде проходити через графічну прискорену обробку, вважаючи, що ця обчислювальна модель може вирішити проблеми, які обчислення загального призначення не зможе вирішити. Вони також відзначили, що відеоігри є одними з найбільш складних для обчислювальних питань, і що вони мають надзвичайно високі обсяги продажів.

Від невеликої компанії з відеоігор до гіганта штучного інтелекту

Компанія народилася з початковим капіталом у 40 000 доларів США, спочатку не мала імені, а співзасновники назвали всі її файли NV, як у "наступному випуску". Необхідність створення компанії змусила співзасновників переглянути всі слова тими двома літерами, що привело їх до "invidia", латинського слова, що означає "заздрість".

Запуск RIVA TNT у 1998 р. Закріпив репутацію Nvidia у розробці графічних адаптерів. Наприкінці 1999 року Nvidia випустила GeForce 256 (NV10), який найбільш помітно впровадив трансформацію та освітлення рівня споживачів (T&L) у 3D-обладнання. Працюючи на 120 МГц і містить чотири лінії пікселів, він реалізував розширене прискорення відео, компенсацію руху та апаратне змішування підримок зображення. GeForce перевершив існуючі продукти з великим запасом.

Завдяки успіху своїх продуктів Nvidia виграла контракт на розробку графічного обладнання для ігрової консолі Microsoft Xbox, заробивши Nvidia аванс на 200 мільйонів доларів. Однак проект взяв багатьох найкращих інженерів з інших проектів. У короткому терміні це не мало значення, і GeForce2 GTS був поставлений влітку 2000 року. У грудні 2000 року Nvidia домовилася придбати інтелектуальні активи свого єдиного конкурента 3dfx, піонера в галузі 3D графічної технології для споживача. який керував полем з середини 1990-х до 2000 р. Процес придбання закінчився у квітні 2002 року.

У липні 2002 року Nvidia придбала Exluna за нерозголошену суму грошей. Компанія Exluna відповідала за створення різних інструментів візуалізації програмного забезпечення. Пізніше, у серпні 2003 року, Nvidia придбала MediaQ приблизно на 70 мільйонів доларів. 22 квітня 2004 року він також придбав iReady, постачальника високоефективних рішень для розвантаження TCP / IP та iSCSI.

Настільки великим був успіх Nvidia на ринку відеоігор, що в грудні 2004 року було оголошено, що вона допоможе Sony в дизайні графічного процесора RSX PlayStation 3, консолі відеоігор нового покоління від японської фірми, що перед ним було складне завдання повторити успіх свого попередника, бестселера в історії.

У грудні 2006 року Nvidia отримала цитати від Міністерства юстиції США. Щодо можливих порушень антимонопольного законодавства у галузі відеокарт. У той час AMD стала її великим конкурентом після придбання останнього ATI. З того часу AMD та Nvidia були єдиними виробниками відеокарт відеоігор, не забуваючи про інтегровані мікросхеми Intel.

Forbes назвав Nvidia найкращою компанією року за 2007 рік, посилаючись на досягнення, досягнуті за останні п’ять років. 5 січня 2007 року Nvidia оголосила, що завершила придбання PortalPlayer, Inc, а в лютому 2008 року Nvidia придбала Ageia, розробника фізичного двигуна PhysX і підрозділу обробки фізики, який працює з цим двигуном. Nvidia оголосила, що планує інтегрувати технологію PhysX у свої майбутні продукти GeForce GPU.

Nvidia зіткнулася з великими труднощами в липні 2008 року, коли отримала зменшення доходу приблизно на 200 мільйонів доларів після того, як було повідомлено, що певні мобільні чіпсети та мобільні GPU, вироблені компанією, мали аномальні показники відмов через виробничі дефекти. У вересні 2008 року Nvidia стала предметом судового розгляду постраждалих, стверджуючи, що несправні графічні процесори були включені до певних моделей ноутбуків виробництва Apple, Dell та HP. Мильна опера закінчилася у вересні 2010 року, коли Nvidia досягла домовленості про те, що власникам постраждалих ноутбуків будуть відшкодовані витрати на ремонт або, в деяких випадках, заміну виробів.

У листопаді 2011 року Nvidia випустила свою систему мікросхем ARG Tegra 3 для мобільних пристроїв, попередньо представивши її на Всесвітньому мобільному конгресі. Nvidia стверджує, що в мікросхемі був перший чотириядерний мобільний процесор. У січні 2013 року Nvidia представила Tegra 4, а також Nvidia Shield - портативну ігрову консоль на базі Android, що працює на новому процесорі.

6 травня 2016 року Nvidia представила відеокарти GeForce GTX 1080 та 1070, першу на основі нової мікроархітектури Pascal. Nvidia заявила, що обидві моделі перевершили свою модель Titan X на основі Maxwell. Ці картки містять GDDR5X і GDDR5 пам'ять відповідно, і використовують 16nm виробничий процес. Архітектура Pascal також підтримує нову апаратну функцію, відому як одночасне багаторазове проектування (SMP), яка призначена для поліпшення якості багатомоніторної та віртуальної реальності. Паскаль дозволив виготовити ноутбуки, які відповідають стандарту дизайну Nvidia Max-Q.

У травні 2017 року Nvidia оголосила про партнерство з Toyota Motor Corp, згідно з яким останній використовуватиме платформу штучного інтелекту Nvidia Drive X для своїх автономних транспортних засобів. У липні 2017 року пошуковий гігант Nidia та китайський гігант Baidu, Inc. оголосили про потужне партнерство AI, яке включає хмарні обчислення, автономне водіння, побутові пристрої та AI-систему Baidu AI, PaddlePaddle.

Nvidia GeForce та Nvidia Pascal, які домінують в іграх

GeForce - це торгова марка відеокарт на основі одиниць обробки графічних процесорів (GPU), створених Nvidia з 1999 року. На сьогоднішній день серія GeForce знала шістнадцять поколінь з моменту створення. Версії, орієнтовані на професійних користувачів цих карт, мають назву Quadro і містять деякі функції, що відрізняються на рівні драйверів. Пряма конкуренція GeForce - це AMD зі своїми картами Radeon.

Паскаль - кодове ім’я новітньої мікроархітектури GPU, розробленої компанією Nvidia, яка вийшла на ринок відеоігор, як наступник попередньої архітектури Maxwell. Архітектура Pascal вперше була представлена ​​в квітні 2016 року з запуском Tesla P100 для серверів 5 квітня 2016 року. В даний час Pascal використовується в основному в серіях GeForce 10, при цьому GeForce GTX 1080 і GTX використовуються Перші 1070 карт відеоігор були випущені з цією архітектурою 17 травня 2016 року та 10 червня 2016 року відповідно. Паскаль виробляється за допомогою технологічного процесу 16-нм FinFET TSMC, що дозволяє йому пропонувати набагато більшу енергоефективність та продуктивність порівняно з Maxwell, який був виготовлений на 28-нм FinFET.

Архітектура Паскаля організована всередині, так званого потокового багатопроцесорного ( SM), функціональних підрозділів, що складаються з 64 ядер CUDA, які, в свою чергу, поділяються на два блоки обробки по 32 ядра CUDA кожна з них і супроводжується буфером інструкцій, планувальником основи, 2 блоками картографування текстур та 2 диспетчерськими блоками. Ці SM-накопичувачі є еквівалентом АС AMD.

Паскаль архітектури Nvidia був розроблений як найбільш ефективний і передовий в світі ігор. Інженерна команда Nvidia доклала багато зусиль для створення архітектури GPU, яка здатна до дуже високих тактових частот, зберігаючи при цьому енергоспоживання. Для цього було обрано дуже ретельний і оптимізований дизайн у всіх його схемах, в результаті чого Паскаль зміг досягти частоти на 40% вище, ніж Максвелл, цифра набагато вища, ніж це дозволило б досягти в 16 нм без усіх оптимізацій на рівні проектування.

Пам'ять є ключовим елементом у роботі графічної карти, технологія GDDR5 була оголошена у 2009 році, тому вона вже застаріла для найпотужніших відеокарт сьогодні. Ось чому Pascal підтримує пам'ять GDDR5X, яка була найшвидшим і найдосконалішим стандартом інтерфейсу пам'яті в історії на момент запуску цих відеокарт, досягаючи швидкості передачі до 10 Гбіт / с або майже 100 пікосекунд між бітами. даних. Пам'ять GDDR5X також дозволяє графічній карті споживати менше енергії порівняно з GDDR5, оскільки робоча напруга становить 1, 35 В порівняно з 1, 5 В або навіть більше, ніж потрібні швидші мікросхеми GDDR5. Це зниження напруги перетворюється на 43% більшу робочу частоту з однаковим споживанням енергії.

Ще одна важлива інновація Pascal - це техніка стиснення пам'яті без втрати продуктивності, що знижує попит на пропускну здатність з боку GPU. Паскаль включає в себе четверте покоління технології дельта кольорового стиснення. За допомогою дельта-стискання кольорів GPU аналізує сцени, щоб обчислити пікселі, інформація яких може бути стиснута без шкоди для якості сцени. Хоча архітектура Maxwell не змогла стиснути дані, пов'язані з деякими елементами, такими як рослинність та частини автомобіля в грі Project Cars, Паскаль здатний стискати більшість інформації про ці елементи, тим самим набагато ефективніше, ніж Максвелл. Як наслідок, Pascal здатний значно зменшити кількість байтів, які потрібно витягти з пам'яті. Це зменшення байтів перетворюється на додаткові 20% ефективної пропускної здатності, в результаті чого в 1, 7 раза збільшується пропускна здатність із використанням пам'яті GDDR5X порівняно з архітектурою GDDR5 та Maxwell.

Паскаль також пропонує важливі вдосконалення щодо асинхронних обчислень - щось дуже важливе, оскільки навантаження зараз дуже складна. Завдяки цим удосконаленням архітектура Паскаля є більш ефективною при розподілі навантаження між усіма його різними модулями SM, що означає, що майже не використовуються ядра CUDA. Це дозволяє значно оптимізувати GPU, краще використовувати всі наявні в ньому ресурси.

Наступна таблиця підсумовує найважливіші особливості всіх карт GeForce на основі Pascal.

ПАСКАЛЬНІ ГРАФІЧНІ КАРТКИ NVIDIA GEFORCE

Основи CUDA Частоти (МГц) Пам'ять Інтерфейс пам'яті Пропускна здатність пам'яті (ГБ / с) TDP (Вт)
NVIDIA GeForce GT1030 384 1468 рік 2 Гб GDDR5 64 біт 48 30
NVIDIA GeForce GTX1050 640 1455 рік 2 Гб GDDR5 128 біт 112 75
NVIDIA GeForce GTX1050Ti 768 1392 рік 4 Гб GDDR5 128 біт 112 75
NVIDIA GeForce GTX1060 3 Гб 1152 рік 1506/1708 3 Гб GDDR5 192 біт 192 120
NVIDIA GeForce GTX1060 6 Гб 1280 рік 1506/1708 6 Гб GDDR5 192 біт 192 120
NVIDIA GeForce GTX1070 1920 рік 1506/1683 8 Гб GDDR5 256 біт 256 150
NVIDIA GeForce GTX1070Ti 2432 1607/1683 8 Гб GDDR5 256 біт 256 180
NVIDIA GeForce GTX1080 2560 рік 1607/1733 8 Гб GDDR5X 256 біт 320 180
NVIDIA GeForce GTX1080 Ti 3584 1480/1582 11 ГБ GDDR5X 352 біт 484 250
NVIDIA GeForce GTX Titan Xp 3840 1582 рік 12 ГБ GDDR5X 384 біт 547 250

Штучний інтелект та архітектура Вольта

Графічні процесори Nvidia широко використовуються в галузі глибокого навчання, штучного інтелекту та прискореного аналізу великої кількості даних. Компанія розробила глибоке навчання на основі технології GPU, щоб використовувати штучний інтелект для вирішення таких проблем, як виявлення раку, прогнозування погоди та автономного водіння транспортних засобів, таких як знаменитий Tesla.

Мета Nvidia - допомогти мережам навчитися «думати ». Графічні процесори Nvidia надзвичайно добре працюють для завдань з глибокого навчання, оскільки вони розроблені для паралельних обчислень, і вони добре працюють для управління векторними та матричними операціями, які переважають у глибокому навчанні. Графічні процесори компанії використовуються дослідниками, лабораторіями, технологічними компаніями та комерційними підприємствами. У 2009 році Nvidia брала участь у тому, що називалося великим ударом для глибокого навчання, оскільки нейронні мережі з глибоким навчанням поєднувалися з підрозділами графічної обробки компанії. Того ж року Google Brain використовував графічні процесори Nvidia для створення глибоких нейронних мереж, здатних до машинного навчання, де Ендрю Нг визначив, що вони можуть збільшити швидкість глибоких систем навчання в 100 разів.

У квітні 2016 року Nvidia представила 8-GPU-кластерний суперкомп'ютер DGX-1 для підвищення можливостей користувачів використовувати глибоке навчання шляхом поєднання графічних процесорів із спеціально розробленим програмним забезпеченням. Nvidia також розробила віртуальні машини Nvidia Tesla K80 та P100, доступні через Google Cloud, який Google встановив у листопаді 2016 року. Майкрософт додав сервери на основі GPU-технології Nvidia для попереднього перегляду своєї серії N, на основі картки Tesla K80. Nvidia також співпрацювала з IBM, щоб створити набір програмного забезпечення, що збільшує можливості AI своїх графічних процесорів. У 2017 році графічні процесори Nvidia також були представлені в Інтернеті в Центрі RIKEN Проекту прогресивної розвідки для Fujitsu.

У травні 2018 року дослідники відділу штучного інтелекту Nvidi a зрозуміли, що робот може навчитися робити роботу, просто спостерігаючи за людиною, яка виконує ту саму роботу. Для цього вони створили систему, яка після короткого огляду та тесту тепер може бути використана для управління універсальними роботами нового покоління.

Volta - кодове ім’я для найдосконалішої мікроархітектури GPU, розробленої Nvidia, це архітектура-спадкоємець Паскаля і була оголошена як частина майбутньої амбіції дорожньої карти в березні 2013 року. Архітектура названа на честь Алессандро Вольта, фізик, хімік і винахідник електричної батареї. Архітектура Volta не дійшла до ігрового сектору, хоча це було зроблено з графічною карткою Nvidia Titan V, орієнтованою на споживчий сектор і яку також можна використовувати в ігровому обладнанні.

Ця Nvidia Titan V - це основна відеокарта GV100 та три стеки пам’яті HBM2, все в одному пакеті. Картка має загалом 12 ГБ пам'яті HBM2, яка працює через 3072-бітовий інтерфейс пам'яті. Його графічний процесор містить понад 21 мільйон транзисторів, 5120 ядер CUDA та 640 ядер тензорів для забезпечення 110 TeraFLOPS продуктивності в процесі глибокого навчання. Його робочі частоти - 1200 МГц в базі та 1455 МГц в турбо-режимі, в той час як пам'ять працює на 850 МГц, пропонуючи пропускну здатність 652, 8 ГБ / с. Нещодавно було оголошено версію CEO Edition, яка збільшує об'єм пам'яті до 32 Гб.

Першою відеокартою, виготовленою Nvidia з архітектурою Volta, став Tesla V100, який входить до системи Nvidia DGX-1. Tesla V100 використовує ядро GV100, яке було випущено 21 червня 2017 року. Графічний процесор Volta GV100 вбудований у виробничий процес 12-нм FinFET, з 32 ГБ пам'яті HBM2, здатним забезпечити пропускну здатність до 900 ГБ / с.

Volta також реалізує останній Nvidia Tegra SoC під назвою Xavier, який був оголошений 28 вересня 2016 року. Xavier Містить 7 мільярдів транзисторів та 8 користувальницьких ядер ARMv8, а також GPU Volta з 512 ядрами CUDA та TPU з відкритим кодом (модуль обробки тензора) під назвою DLA (прискорювач глибокого навчання). Xavier може кодувати та декодувати відео в роздільній здатності 8K Ultra HD (7680 × 4320 пікселів) в режимі реального часу, все з TDP 20-30 Вт і розміром штампу приблизно 300 мм2 завдяки 12 виробничим процесам. нм FinFET.

Архітектура Volta характеризується тим, що вперше включила ядро ​​Tensor - сердечники, спеціально розроблені для того, щоб запропонувати значно кращі показники виконання завдань з глибокого навчання порівняно зі звичайними ядрами CUDA. Ядро тензора - це одиниця, що множить дві матриці FP16 4 × 4, а потім додає до результату третю матрицю FP16 або FP32, використовуючи об'єднані операції додавання та множення, отримуючи результат FP32, який, можливо, може бути знижений до результату FP16. Ядра тензорів призначені для прискорення тренувань нейронної мережі.

Volta також виділяється тим, що включає вдосконалений фірмовий інтерфейс NVLink - протокол зв'язку для напівпровідникових комунікацій короткого діапазону, розроблений Nvidia, який може бути використаний для передачі коду даних та управління в процесорних системах на основі CPU та GPU та ті, які базуються виключно на GPU. NVLink визначає з'єднання "точка-точка" зі швидкістю передачі даних 20 і 25 Гбіт / с на смугу даних та на адресу у першій та другій версіях. Загальна швидкість передачі даних у реальних системах становить 160 та 300 Гб / с для загальної суми вхідних та вихідних потоків даних. Представлені на сьогоднішній день продукти NVLink зосереджуються на високоефективному просторі додатків. NVLINK вперше було оголошено в березні 2014 року і використовує фірмовий високошвидкісний сигнальний з'єднувач, розроблений і розроблений Nvidia.

Наступна таблиця підсумовує найважливіші особливості карт на базі Вольта:

ГРАФІЧНІ КАРТКИ NVIDIA VOLTA

Основи CUDA Основний тензор Частоти (МГц) Пам'ять Інтерфейс пам'яті Пропускна здатність пам'яті (ГБ / с)

TDP (Вт)

Tesla V100 5120 640 1465 рік 32 ГБ HBM2 4096 біт 900 250
GeForce Titan V 5120 640 1200/1455 12 ГБ HBM2 3072 біт 652 250
GeForce Titan V CEO Edition 5120 640 1200/1455 32 ГБ HBM2 4096 біт 900 250

Майбутнє Nvidia проходить через Тьюрінга та Ампера

Дві майбутні архітектури Nvidia будуть Тюрінгом та Ампером згідно з усіма чутками, що з’явилися на сьогоднішній день, можливо, коли ви прочитаєте цей пост, одна з них вже була офіційно оголошена. Наразі про ці дві архітектури достеменно нічого не відомо, хоча кажуть, що Тьюрінг був би спрощеною версією Volta для ігрового ринку, насправді очікується, що він прийде з тим же виробничим процесом у 12 нм.

Ампер звучить як спадкоємця архітектури Тьюрінга, хоча він також може бути наступником Вольти у галузі штучного інтелекту. Абсолютно нічого не відомо про це, хоча здається логічним очікувати, що він буде виготовлений у 7 нм. Чутки говорять про те, що Nvidia анонсує свої нові GeForce карти в Gamecom в наступному місяці серпня, тільки тоді ми залишимо сумніви щодо того, що буде Тьюрінг або Ампер, якщо вони дійсно з'являться.

NVIDIA G-Sync, що закінчує проблеми синхронізації зображень

G-Sync - це власна адаптивна технологія синхронізації, розроблена Nvidia, основною метою якої є усунення розриву екрану та необхідність альтернатив у вигляді програмного забезпечення, наприклад Vsync. G-Sync виключає розрив екрану, примушуючи його адаптуватися до частоти кадрів пристрою виводу, графічної карти, а не пристосовується до екрану пристрою виводу, в результаті чого зображення розривається екран.

Щоб монітор був сумісним з G-Sync, він повинен містити апаратний модуль, проданий Nvidia. AMD (Advanced Micro Devices) випустила аналогічну технологію для дисплеїв під назвою FreeSync, яка має ту ж функцію, що і G-Sync, але не потребує конкретного обладнання.

Nvidia створила спеціальну функцію, щоб уникнути можливості, коли новий кадр буде готовий під час малювання дубліката на екрані, що може спричинити затримку та / або заїкання, модуль очікує оновлення та чекає завершення наступного кадру. Перевантаження пікселів також стає неправдивим у нефіксованому сценарії оновлення, і рішення передбачають, коли відбудеться наступне оновлення, тому значення перенастроювання слід впроваджувати та коригувати для кожної панелі, щоб уникнути привидів.

Модуль базується на FPGA сімейства FPGA Altera Arria V GX з логічними елементами 156K, 396 блоками DSP та 67 каналами LVDS. Він виробляється в процесі TSMC 28LP і поєднується з трьома мікросхемами загалом 768 Мб DDR3L DRAM для досягнення певної пропускної здатності. Для FPGA використовується також інтерфейс LVDS для керування панеллю монітора. Цей модуль призначений для заміни звичайних альпіністів і має бути легко інтегрований виробниками моніторів, яким потрібно лише подбати про плату живлення та вхідні з'єднання.

G-Sync зіткнувся з деякою критикою через свій фірмовий характер, і той факт, що він все ще рекламується, коли існують безкоштовні альтернативи, наприклад, стандарт VESA Adaptive-Sync, який є необов'язковою особливістю DisplayPort 1.2a. Хоча FreeSync AMD базується на DisplayPort 1.2a, G-Sync вимагає, щоб модуль, створений Nvidia, замість звичного екранного масштабування для графічних карт Nvidia GeForce працював належним чином, сумісний з Kepler, Maxwell, Pascal та мікроархітектурами. Вольта.

Наступний крок був зроблений з технологією G-Sync HDR, яка, як випливає з назви, додає можливості HDR, щоб значно покращити якість зображення монітора. Щоб зробити це можливим, необхідно було зробити істотний стрибок у технічному забезпеченні. Ця нова версія G-Sync HDR використовує процесор Intel Altera Arria 10 GX 480 FPGA, високорозвинутий і високопрограмований процесор, який можна кодувати для широкого спектру застосувань, який супроводжується 3 ГБ пам'яті DDR4 2400 МГц, виготовленою Micron. Це робить ціну цих моніторів дорожчою.

Тут закінчується наш пост про все, що ви повинні знати про Nvidia. Пам’ятайте, що ви можете ділитися ним у соціальних мережах, щоб він охопив більше користувачів. Ви також можете залишити коментар, якщо у вас є якісь пропозиції або щось додати.

Android

Вибір редактора

Back to top button