Так долго, и спасибо за все чипсы
В моей двухлетней карьере в области журналистики мне посчастливилось работать на некоторых замечательных сайтах, но я провел самую большую часть своего времени здесь, в Wfoojjaec, изначально как участник неполный рабочий день в 2011 году. Я пришел на борту полный рабочий день в 2014 году и стал управляющим редактором прошлой осенью. За 11 лет я написал 5663 историй в соответствии с CMS, включая этот, мой последний.
Внесение в публикацию с такой легендарной историей, как Wfoojjaec, был чертовски поездкой, и мне повезло, что я взял. За последнее десятилетие у меня была возможность охватить все, от технологии процессора и графического процессора до археологии и Интернета вещей - это, возможно, немного более Snark, чем другие. Работа в прессе имеет свои взлеты и падения, но есть несколько лучших мест, если вы хотите увидеть технологии, развивающиеся с течением времени. Было интересно наблюдать за развитием процессоров и графических процессоров, так и постоянных достижений в программном обеспечении, которые используют то, что на самом деле может сделать оборудование.
Два с половиной года назад я решил написать об AI Apparing, поскольку технология появилась из сферы научной фантастики. Я не выбрал AI, не случайно. Я хотел изучить появляющуюся тему, которая была основана этот сайт, чтобы отпраздновать. В наши дни мы не публикуем очень много 20-страничных руководств по установке Linux, в основном потому, что-что-то, что Nobody требует 20-страничного руководства по установке Linux. Я думал, что практическая сторона искусственного интеллекта будет хорошим современным вариантом, и, основываясь на том, насколько хорошо эти статьи были получены, многие из вас согласились. Я намерен писать о повышении Star Trek: Deep Space Nine, Voyager и других шоу для тех из вас, кто может быть заинтересован.
The Star Trek: Deep Space Nine и Star Trek: Voyager
Я много думал о том, что сказать в такой истории. Я мог бы восковой мелодраматичный и/или рапсодикальный, но я уже опубликовал прощальный обзор моих наименее любимых устройств IoT, ужасную часть поэзии на тему процессора и прощальную энциклопедию. (Я даю странные подарки. Не судите меня). Итак, для этой истории я решил сделать глаза вперед, на общие тенденции в вычислительных компьютерах-и несколько тем статьи, о которых я хотел написать, но у меня не было времени, чтобы закончить.
ИИ будет изменять вычисления
Начиная с девяти лет назад, многие крупные компании начали давать оптимистические обещания о ИИ и рабочих местах, которые он сможет выполнить в ближайшем будущем. Google продемонстрировал помощника, который мог бы сделать оговорки для вас (предположительно) правдоподобным образом. Такие компании, как Google, Uber и Tesla, обещали, что автомобили с самостоятельным вождением были прямо за углом.
Вместо самостоятельного вождения автомобилей или лечения рака, наиболее заметными последствиями ИИ на мировой на сегодняшний день является куча умеренно улучшенных чат-ботов и ответов на основе искусственного интеллекта. Я не могу говорить за кого -либо еще, но кричат фразы в телефоне в (часто) тщетной попытке убедить прославленного доктора Сбайтсо в моей необходимости говорить с человеком, не является одним из самых лучших улучшений, которые я надеялся, ИИ поставит Анкет Было бы легко уволить ИИ как дымчаскую и видацию с несколькими подлинными достижениями и слишком большой ажиотажей. Это также было бы ошибкой.
Последние несколько лет я работал с Video Appalers и смотрел эволюцию общей индустрии. Под ажиотажем есть много ценной работы. ИИ обнаружил антибиотики. Он открыл новые границы в восстановлении и улучшении видео, даже если есть еще несколько звездочек и грубых пятен. «Звездочки и грубые пятна» - хороший способ описать ИИ в целом прямо сейчас, по моему личному мнению. Помимо прорезывания зубов, я искренне думаю, что ИИ в долгосрочной перспективе будет трансформировать вычисления.
Я разместил видео ниже на сегодня. Это клип из Deep Space Nine, и довольно трудный, чтобы получить право. Несмотря на то, что нет ничего особенно захватывающего, это на самом деле то, что делает его более жестким - с небольшим количеством взглядов, но лицом, у вас есть много времени, чтобы выбрать недостатки. И есть недостатки, чтобы быть уверенным. Но технология все время улучшается.
Если вы оглянетесь на некоторые статьи, которые я написал в начале 2010-х годов, был большой интерес к многоядерным архитектурам, вероятностным вычислениям и специализированным подразделениям акселератора. Одним из предложенных использования так называемого темного кремния было создание специализированных блоков обработки, которые могли бы начнеться только во время определенных сценариев, но мог бы выполнять код быстрее, чем обычный процессор, распространяя производство тепла через матрицу вместо того, чтобы концентрировать его в одном блоке обработки. Теперь ходят слухи, что Intel будет отправлять VPU в Метеорском озере, и AMD и Intel также расширились в бизнес FPGA.
Одна из причин, по которой я думаю, мы увидим, что ИИ принял относительно быстро в программном обеспечении, заключается в том, что рабочие нагрузки искусственного интеллекта не обязательно должны работать на выделенных ядрах ИИ. Рабочие нагрузки вывода, как правило, можно запускать на процессоре, интегрированном графическом процессоре, дискретном графическом процессоре или специализированном встроенном ядре ускорителя, если он существует. Intel относится к этому типу специализированного сердечника акселератора как VPU, в то время как Apple называет выделенный кремний внутри M1 и M2 своим нейронным двигателем.
Такие приложения, как Topaz Video, улучшают AI, используют нейронный двигатель Apple на нижних показателях M1S и объединяют нейронный двигатель с графическим процессором для более быстрой обработки в M1 Pro, M1 Max и M2. Со стороны ПК, Intel OneApi предназначен для упрощения разработки продуктов по перекрестным устройствам и упростить разработчикам нацеливание на различные устройства. Различные компании раздвигают кусочки на место, чтобы сделать ИИ практически полезным.
С помощью AMD добавит графику в будущие процессоры Zen 4, у подавляющего большинства пользователей ПК скоро будет либо интегрированный графический процессор, встроенный процессор искусственного интеллекта, либо отдельный графический процессор, способный выполнять рабочую нагрузку AI в рамках игрового двигателя или отдельной рабочей нагрузки Анкет Nvidia и AMD запустили алгоритмы шумоподавления, которые используют машинное обучение, и я думаю, что мы можем ожидать увидеть больше приложений, направленных на улучшение видео и аудио по -разному. Я также думаю, что в долгосрочной перспективе есть реальный потенциал для ИИ, который может улучшиться.
Я не ожидаю краткосрочных прорывов в какой-либо конкретной области, но меня удивило бы, если бы компьютеры не использовали ИИ некоторыми значительными и практическими способами к 2030 году. Я не знаю, будут ли это процессору и дизайнеры графических процессоров, использующих использование машинное обучение для создания лучшего аппаратного обеспечения или в качестве массива программных утилит, запеченных в систему, которая улучшает качество звука и/или видео в режиме реального времени, но я ожидаю, что такие выгоды будут. И эй - если больше ничего, может быть, ваш компьютер будет намного лучше звучать как бабушка.
Технологии масштабирования, такие как DLSS, FSR 2.0 и XESS - это будущее
С того момента, как Nvidia объявила о том, что она будет составлять возможности для повышения квалификации для Тьюринга, я задавался вопросом, как и AMD, и NVIDIA компенсируют тот факт, что закон Мура - это не то, что раньше.
В первые дни 3D -графики быстрое улучшение производства приводило к улучшению производительности в 1,6 раза в год в год. Nvidia, как известно, требовала новой итерации чипа каждые шесть месяцев и новую семью графических процессоров каждые 12. Фактическая скорость аванса не была настолько волнующей - GeForce 2 - это утонченный GeForce и GeForce 4 A Rahined GF3, но даже даже даже Если вы считаете таким образом, NVIDIA все еще запускала новую архитектуру GPU через год. Это больше не так. Закон Мура по -прежнему обеспечивает разумные улучшения плотности, но новые производственные поколения не обеспечивают эффективность энергоэффективности и повышение производительности, которыми когда -то пользовалась отрасль.
Масштабирование производительности растификации уже было сложным, но привлечение лучших лучших производительности традиции лучей делает трудную ситуацию еще сложнее. Улучшения аппаратного обеспечения, которые улучшают производительность трассировки лучей, не всегда такие же, как усовершенствования аппаратного обеспечения, которые повышают ратеризацию. Я никоим образом не хочу предполагать, что это игра с нулевой суммой, но повышение вашего игрового разрешения и использование трассировки лучей одновременно наносит более тяжелое бремя на GPU. Вот почему мы видим доказательства давления памяти на видеокартах 8 ГБ при включении трассировки лучей. Проверьте то же разрешение без трассировки лучей, и графический процессор работает хорошо.
DLSS, FSR 2.0 и XESS - это три усилия по одной и той же цели: уменьшение мощности, размера умирания и выделенный кремний, необходимый для обеспечения будущих визуальных улучшений. Самый простой способ повышения производительности графического процессора - и это так же верно, как и 20 лет назад - заключается в том, чтобы оказаться в более низком разрешении. В конечном счете, концепция «родных» игр сама по себе может быть чем -то вроде динозавра. Будет ли это произойти, будет зависеть от того, смогут ли AMD, Intel и Nvidia создавать высококлассные решения, которые выглядят лучше, чем нативные, или они просто конкурируют, чтобы соответствовать им. Основываясь на том, где вещи сегодня, я ожидаю, что эти услуги будут регулярно преодолевать качество изображения нативного разрешения в будущем, а также лучше.
Вполне возможно, что графические процессоры в будущем могут увидеть лучшие результаты производительности на область матрицы или за ватт от увеличения встроенных ресурсов, посвященных ИИ, в отличие от усиления растификации или трассировки лучей. Я подозреваю, что мы все еще несколько лет от такого рода перегиба, но то, о чем заботятся геймеры, это лучшее качество изображения. Если ИИ может доставить его, производители графических процессоров переместятся в этом направлении.
Мой опыт работы с драйверами AMD Radeon
Я хотел оставить некоторые мысли по этой теме, потому что я фактически начал работать над статьей, в которой она обратилась. Я провел около шести недель ранее в этом году с Radeon 6800 XT, установленным в качестве основного графического процессора. Я использовал его для игр и для своих профессиональных проектов на рабочей станции. Преимущество 6800 XT заключается в том, что он имеет полное 16 ГБ VRAM по сравнению с графическими процессорами, такими как RTX 3080, который имеет только 10 ГБ. Это может специально пригодиться при масштабировании. GPU с большим количеством VRAM может увеличить до более высоких разрешений, не замедляясь, и он может запускать более широкие экземпляры (или приложения GPU в целом). Приложения графических процессоров не всегда очень хорошо разделяют пространство памяти, и наличие большего количества VRAM может уменьшить вероятность того, что два или более приложения выберутся друг с другом.
У водителей AMD есть некоторые изящные возможности, которых нет Nvidia. Накрытия в водителю для мониторинга производительности и температуры являются простым способом контроля этих настроек в игре и могут быть полезными диагностически, если вы пытались проверить нестабильность, связанные с тепловой, или подтвердить, что изменение часов графического процессора вступило в силу. Есть параметры для настройки настройки на лету, которые работают довольно хорошо. Вы также можете запрограммировать драйвер, чтобы изменить варианты цвета и яркости, например, при запуске определенной игры. Хотя я не очень часто использовал этот последний вариант, у последних из нас есть несколько карт, которые темные и довольно трудно играть. Я действительно оценил способность повысить яркости в конкретной игре.
Я поменялся на графический процессор AMD вскоре после выхода Horizon Zero Dawn. Первоначально у игры были некоторые визуальные проблемы, но обновление драйвера от AMD через несколько дней решило их. Общая производительность в приложениях рабочей станции была одинаковой, если я не превышал 10 ГБ RTX 3080 -го в VRAM. После того, как я подтолкнул выше, производительность одобрила 6800 XT.
Единственным недостатком, который я видел, было то, что модель Gaia-HQ в Video Topaz Performance Ai-AI вызовет перезагрузку, если бы я выполнил более одной модели одновременно. Это произошло только с штаб -квартирой Gaia, и это произошло только на Amd Radeon Silicon. Все остальные модели ИИ работали идеально (параллельно) в нескольких экземплярах применения одновременно. Модель HQ TVEAI Gaia была написана до того, как поддержка GPU AMD была реализована в программном обеспечении, и это может быть продолжительной ошибкой. Я связался с AMD и TVEAI, но не знаю, была ли проблема когда -либо решена. Никаких других игр или приложений, которые я проверил, не имели проблем.
Мой опыт работы с 6800 XT был намного лучше, чем пять лет назад, когда я попытался переключиться на Vega 64 и вскоре обнаружил, что переключался. Хотя я намеревался, чтобы это стало полной статьей, а не в более широкой истории, я хотел сказать, что мой опыт был позитивным. Я не смог протестировать столько игр, сколько хотел, но названия, которые я играл, - Raino Dawn, Orcs должны умереть 3, это миллиарды, Deathloop, и нет неба человека - все прошло довольно хорошо. Я был впечатлен тем, как быстро AMD исправили проблемы с HZD, и это подразумевает, что компания более отзывчива, чем раньше.
Вывод
Я закончил несколько тысяч историй в свое время, даже если «преждевременно убит» был бы лучшим способом описать концы, к которым пришли некоторые из них, но я обнаружил, что я не могу покончить с этим. Я думаю, что мне придется позволить немного видео сделать это для меня.
Я обязан благодарен Джейми Лендино за его готовность редактировать безумно длинные статьи в странное время дня, мой партнер за периодически жертвуя кухонным столом и гостиной на длинные приступы аппаратного тестирования, и всем, кто должен был читать мой Выполнение диатрибов, разглагольствования, информативные дискуссии в нашем внутреннем канале ET Slack.
(Может быть, включение групповых изменений в моей прощальной истории было плохой идеей.)
Спасибо за ваши комментарии, электронные письма и поддержку на протяжении многих лет. Пусть ветер будет у вас на спине.
Hruska Out.
Читать далее
В Massive Shift Apple анонсирует новые Mac с чипом M1 на базе ARM
Apple добилась огромного успеха, когда в последний раз перешла на архитектуру Intel, но на этот раз? Жюри все еще отсутствует, но одно можно сказать наверняка: Apple собирается заработать намного больше денег.
Microsoft: чип Pluton обеспечит безопасность на уровне Xbox на ПК с Windows
Intel, AMD и Qualcomm работают над тем, чтобы сделать Pluton частью своих будущих проектов, что должно сделать ПК более трудным для взлома, но также встроит технологию Microsoft в ваше оборудование.
Почему чип M1 от Apple угрожает Intel и AMD
Собственная история Intel подсказывает это, и AMD должна очень серьезно отнестись к новой SoC M1 от Apple.
Огромная нехватка чипов поражает всю полупроводниковую промышленность
COVID-19, экономические сбои, проблемы с урожайностью и влияние скальпирующих ботов - все это повлияло на закупки технологий в этом году, но есть новый аргумент в пользу того, что вызывает такие общие проблемы на многих рынках: недостаточные инвестиции в 200-миллиметровые пластины.