NVIDIA подтверждает проблему G-Sync на высоких частотах
11-11-2015, 14:45 Новости, Information technology (IT) »
NVIDIA подтверждает проблему G-Sync на высоких частотах
Компания NVIDIA представила технологию адаптивной синхронизации G-Sync ещё в 2013 году. Для её работы необходим специальный модуль внутри монитора, который и позволяет изменять физическую частоту кадров дисплея, подгоняя её под входящий сигнал. Но, как оказалось, технология имеет проблемы, приводящие к резкому росту энергопотребления. При подключении видеокарты GeForce GTX к G-Sync дисплею с высокой частотой кадров, а проблема была выявлена на мониторе Asus с частотой кадров 165 Гц, энергопотребление карты вырастает катастрофически. Проблема появляется, когда монитор выходит на режим с частотой кадров более 120 Гц, что соответствует ранним G-Sync моделям мониторов. При этом частота GPU вырастает до 135 МГц, а энергопотребление видеокарты вырастает до 76 Вт. Далее частота подскакивает до 885 МГц, а энергопотребление — до 201 Вт. Это происходит при частоте экрана в 165 к/с, даже на рабочем столе Windows. Компания NVIDIA подтвердила данную проблему: «Эти новые мониторы выявили ошибку в способе управления частотой нашими GPU в G-Sync и появлении очень высоких частот развёртки», — пояснила компания NVIDIA. Также компания добавила: «Мы исправляем ошибку, что позволит понизить операционные затраты наших GPU на тот же уровень энергопотребления для прочих дисплеев. Мы исправим это в будущем драйвере».
Также читайте: