Con la llegada de los nuevos controladores gráficos Nvidia GeForce 361.43 se han incluidos dos importantes mejoras con respecto a los anteriores drivers en aspectos tan importantes como G-Sync y OpenGL.
Por un lado, se ha solucionado el problema del alto consumo eléctrico en tarjetas gráficas basadas en el silicio Maxwell haciendo uso de un monitor con la tecnología G-Sync en altas tasas de imágenes por segundo, problema del que ya hablábamos el pasado mes de octubre.
El otro aspecto importante es que se ha añadido soporte VR SLI a OpenGL, es decir, que esta última API podrá beneficiarse de la tecnología SLI para imágenes de realidad virtual. Para ello, se ha creado la extensión “GL_NVX_linked_gpu_multicast” que permite acelerar el renderizado HMD
y mejorar el rendimiento en hasta 1.7 veces.Esto es algo muy importante ya que para los sistemas de Realidad Virtual se permite utilizar una GPU para cada ojo, renderizando la sucesión de imágenes de cada uno por separado. Con los cambios, el sistema podrá mandar la escena a dos tarjetas gráficas distintas de forma simultánea sin un exceso de consumo de recursos.
Vía: Extremetech
Ya podemos confirmar las especificaciones de la Nintendo Switch 2 por parte de Digital Foundry.… Leer más
Llegan malas noticias para dos de los diseñadores de SoC más laureados del mundo. Y… Leer más
Ha sido la propia Intel, por medio de su cuenta oficial en X (Twitter), la… Leer más
Cuando sale una consola, sabemos que esta va a tener una vida útil determinada y… Leer más
Un día más estamos de nuevo con las licencias más demandadas de la mano de… Leer más
Los procesadores son una pieza fundamental en un PC, pues estos los usamos para realizar… Leer más
Esta web usa cookies.
Ver comentarios
esto significa que los gafas de realidad virtual rendirian mejor con sli que con una solo gpu mas potente?
En teoría sí.
Sin duda, lo ideal para la RV es tener 2 graficas
En mi humilde opinion lo mejor para la RV sera esperarse 2 años xD
+1 Esperar 2 años sera solo cosa de humildes desde luego xDDD
Oye quien espera se lleva la mejor parte del pastel, Y te lo dice uno que no suele esperar y que por ejemplo se pillo una 980 solo 3 semanas antes de la TI xDD Si incluso tengo una PSVita de salida con eso te lo digo todo jajajaja
Interesante esta analogía que hacen de "una gpu por cada ojo" En AMD también se encuentran desarrollando esta cuestión bajo el concepto "Liquid VR"
La incógnita es, entonces ¿Qué pasa si tengo 3 GPU pero sólo 2
ojos? !!
En el hipotético caso que en el futuro se lograse hacer funcionar como se idea en este concepto, la tercera gráfica no serviría de nada.
Nvidia estudiara lo que puedes hacer con la tercera...
En definitiva, para insertarla por el tercer ojo.
Depende el pepino de GPU q tengas xD
Las tres GPU son ideales para este señor
La 3ª GPU se asignará al tercer ojo (el ojo ciego trasero) porque ira como el culo. x'D
Ten mucho cuidado con esas afirmaciones, dado que lo que te muestran son intenciones de optimizaciones de perfiles SLI, actualmente no es posible manejar fotogramas por separado o partes del mismo por distintas gráficas.
Ya, pero es que actualmente no hay disponible ningún HMD.... salvo los DK1 y DK2, pero dudo que estas mejoras se vean reflejadas en los Kit de desarrollo, seguramente dejaran de darles soporte.
Así que habrá que esperar a la salida del CV1 y VIVE.
No, en realidad si tienen que decir esto es por que se dice que los SLI van a ir peor que en un juego normal, que no suelen librarse de algún fallo o mal escalado. Lo que están diciendo es que no va a ir tan mal como se prevee pero va a ir un poco peor de lo normal. En realidad las Oculus Rift no son 2 imágenes, es una misma imagen partida en 2, ambas gráficas tienen que renderizar las dos partes, con DirectX 12 se podría cambiar eso y que cada una renderice una parte, pero puede haber problemas de sincronización, haciendo que una gráfica tenga que esperar a la otra y al final bajaría un poco el rendimiento, etc. Lo mejor siempre es una sola gráfica.
@Iván Martínez En la 2ª linea de la noticia has confundido OpenGL con OpenCL , por un momento hasta pensaba que Nvidia habia mejorado el nefasto soporte que ofrece al OpenCL
Nunca ofreceran un soporte digno para OpenCL. Solo lo haran cuando la adopcion de este supere a CUDA, cosa que podria pasar gracias a HSA. Si intel apuesta por OpenCL Nvidia cago
Nvidia y Open no pueden estar en la misma frase si es para algo positivo... :sisisi:
Mientras que tenga la mayoría del mercado y sigan con su campaña a favor del CUDA, sera difícil que apoyen el OpenCL, al final es parecido al GameWork, que los estudios lo usan por los billetes que Nvidia pone encima de la mesa....
Ya se avisó que lo solucionarían. Les ha llevado un poco, supongo que porque esta correción no tenía una prioridad crítica respecto al número de usuarios y la importancia que ellos daban a este problema. Curioso que la competencia no presentaba este comportamiento con sus modelos topa de gama. Vendría bien un tercer competidor de la talla de Intel para animar el mercado y beneficiar a los consumidores.
Vaya pero de meter el gsync via software a portatiles anteriores a que lo anunciaran, completamente capazes creo recordar, no dicen nada.
Error, no es el mismo tipo de GSync el de escritorio que de las gamas portátiles, el concepto del GSync portátil es bastante más simple y más cercano, de paso, a FreeSync.
Os encanta repetir cosas que no son verdad veces y veces.
Tengo un portatil con una 970M desde principios de año, en esas fechas (mes arriba, mes abajo) ya se sabia que los portatiles con Maxwell podian tener Gsync, de hecho unos tios modificaron unos drivers o algo y se vio que era igual que el Freesync, no hacia falta un hadware especifico como en monitores.
El caso es que anunciaron Gsync, y para vender mas portatiles dijeron que los vendidos antes del anuncio no iban a tener Gsync, portatiles que son exactamente iguales a los que se venden ahora con Gsync.
Error de nuevo, se venden unos con el GSync básico, el que es parecido al Freesync, y no se anunció en principio como Gsync; y ahora se venden ambos, porque hay portátiles con gráficas de sobremesa y no serie M con Gsync real, y a pesar de eso por confundir al personal decidieron meterlos a todos en el mismo saco del GSync.
Hay que tener mucho ojo con lo que se compra, imagino que quien se gasta el dinero en un portátil decente leerá algo y sabrá qué tipo de GSync puede esperarse.
Si, pero lo que digo es que yo deberia poder tener gsync en mi portatil ya qur es igual qur modelos que se anunciaron al momento del anuncio de gsync para portatiles
Menos mal que han arreglado el problema de los consumos... Tenía el panel a 100hz para que no se disparata la temperatura!
Muy bueno el tema de la RV y ya era hora que solucionaran el problema del consumo, muy tarde para lo que suele acostumbrar NVIDIA.
Lo simpático es que hasta ahora mucha gente que hablaba de los consumos bajos de NVIDIA los han tenido similares a AMD si gastaban un monitor de 120-144Hz... Ahí lo dejo.
Similares o incluso superiores. Si son de los que dejan siempre la compu prendida esa "eficiencia" era nula
Contraofensiva de Samsung a NVIDIA por subirse demasiado el ego del monopolio con su demanda a Samsung y Adreno:
https://www.geektopia.es/es/technology/2015/12/23/noticias/nvidia-culpable-de-infringir-tres-patentes-de-samsung.html
Pues ya iba siendo hora de que arreglaran ese problema. Para un usuario verde de corazón, es inconcebible el desperdicio de energía.
cuando eliminen el mareo y dolor de cabeza me paso ala RV