Jump to content

Search the Community

Showing results for tags 'nvidia'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Novedades
    • Noticias CAHOS
    • Noticias Gaming
    • Sorteos y Concursos
  • Servidor
    • [Publico] Quejas, Sugerencias, Dudas
    • Servidores
  • Discusión General
    • Compra/Venta
    • Juntadas
    • Presentaciones y Despedidas
    • Quienes somos.
    • Sugerencias
    • Off-Topic
  • Tecnologia
    • Sistemas Operativos
    • Hardware y Software
    • Modificaciones
    • Soporte y Ayuda
  • Juegos
    • Archive
    • Battlefield
    • Diablo III RoS
    • Dota 2
    • Fortnite
    • League Of Legends
    • Life is Feudal
    • Overwatch
    • Playerunknown's Battlegrounds
    • Rainbow Six Siege
    • World of Warcraft

Blogs

There are no results to display.

Categories

  • Articles
    • Forum Integration
    • Frontpage
  • Pages
  • Miscellaneous
    • Databases
    • Templates
    • Media

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Website URL


Skype


Ubicacion


Origin ID


Steam ID


Uplay ID


Battletag


Juegos

Found 38 results

  1. Nvidia anuncio durante CES 2019 a través de su CEO (Jensen Huang) la compatibilidad de la tecnología G-Sync sera compatible con monitores que utilicen la tecnología de Freesync (desarrollado por AMD), esto se implementara a partir del 15 de enero cuando sean lanzados los primeros driver certificados de la compañia y que sera compatible con Nvidia GeForce serie GTX 10XX y serie RTX 20XX Lamentablemente solo sera compatible con una pequeña cantidad de monitores de momento, con estos nuevos driver se permitirá activar la tasa variable en cualquier panel FreeSync de forma manual. A continuación dejamos una lista de los modelos ya aprobados. ACER XFA240. ACER XZ321Q. ACER XG270HU. ACER XV253KASUS. Agon AG241QG4. AOC G2590FX. BenQ XL2740. ASUS MG278Q. ASUS XG248. ASUS VG258Q. ASUS XG258. ASUS VG278Q. ¿Que sucede con los monitores que todavía no han sido certificados? Según el medio PCWorld existen algunos problemas con los monitores que no han sido certificados y se demostró con unos monitores que coloco Nvidia en su stand para demostrar estos casos particulares. Entre los problemas que presentan es un insoportable parpadeo cada pocos segundos, entre otro problemas al trabajar con una placa de Nvidia utilizando G-Sync, sino que también sucede con cualquier Radeon. La empresa asegura que no estará influyendo de manera negativa en ciertos modelos de monitores para inclinar al mercado hacia los que si vienen certificados, sino que están trabajando para dar un soporte general completo a todos los que existen en el mercado y en el caso en que suceden ese tipo de problemas depende absolutamente del diseño y la construcción del panel del propio monitor.
  2. En el día de hoy se produjeron una gran cantidades de filtraciones de las tan esperadas nuevas GPUs de la serie nueva serie de Nvidia. Lo primero de lo que hablaremos sera del PCB de una unidad de pre-producción, en donde se puede observar la placa de silicio Turing modelo TU104-400-A1 utilizado para el modelo GeForce RTX 2080. Este PCB cuenta con 8 módulos de memoria GDDR6 cada uno de ellos sería de 1GB para sumar los 8GB GDDR6 a 14GHz que se encuentran incorporados la gráfica, cuenta con dos conectores PCI-Express de 8+8 pines, se deja de lado el tradicional conector Nvidia SLI para ser reemplazado por el nuevo Nvidia NVLink y por ultimo USB Type-C para utilizar el nuevo estándar VirtualLink. También gracias al medio Wccftech se filtro uno benchmark de una Nvidia GeForce GTX 2060 con 5GB de memoria GDDR6 y que gracias a 3DMark a sorprendido a los usuarios con su rendimiento equiparable a una GeForce GTX1080 (en pocas palabras una de las tarjetas de gama media de Turing rinde igual que una de alta gama de la generación pasada). Esto es algo que se rumoreaba de que la GTX 2060 seria un 27% mas potente que una GTX 1060, se desconoce si el modelo en el que se corrió este benchmark es un modelo de serie o un modelo con OC. Las filtraciones también tuvieron como protagonista a las posibles tope de gama de esta generación de GPUS, estamos hablando de las GeForce RTX 2080 Ti y GeForce RTX 2080, cuya presentación oficial serán presentadas en una conferencia el próximo 20 de agosto (posiblemente con la GeForce RTX 2070). Esta nueva serie utilizaran la tecnología Ray Tracing perteneciente a la tecnología Nvidia RTX (por la que toma el nombre de RTX) perteneciente a la tecnología Nvidia RTX (API Ray Tracing propietaria adaptada para sus gráficas). El primer modelo del que vamos hablar es la Nvidia GeForce RTX 2080 Ti con un total de 4353 CUDA Cores (un rendimiento casi similar al de Quadro RTX 6000) y con 11GB de memoria GDDR6 a 14GHz con una interfaz de memoria de 356bits (brindando un ancho de banda de 616GB/s). El segundo modelo y que seguramente va ser mas accesible para los usuarios sera la Nvidia GeForce RTX 2080 con un total de 2944 CUDA Cores y con 8GB de memoria GDDR6 a 14GHz y una interfaz de memoria de 256 bits que brinda un ancho de banda de 448GB/s. Y por ultimo las estrellas de las filtraciones, algunos modelos personalizados de algunos fabricantes (MSI, PALIT y GIGABYTE) que pues observar a continuación: MSI RTX 2080 y 2080Ti DUKE; MSI RTX 2080 y RTX 2080 Ti GAMING X TRIO: PALIT RTX 2080/2080 Ti GamingPro y GamingPro OC: GIGABYTE RTX 2080 y 2080 Ti: PNY GeForce RTX 2080 Ti Overclocked XLR8: Zotac GeForce RTX 2080 AMP y 2080 Ti AMP:
  3. Gracias a la unión de los lideres del mercado (Nvidia, Oculus, Valve, AMD y Microsoft) se ha creado un nuevo estándar abierto para la realidad virtual, este ha recibido de VirtualLink que permite que las gafas de VR de próxima generación se conecten con PCs y otros dispositivos usando un solo tipo de USB (Type-C), en vez de utilizar diferentes tipos de cables y conectores. Gracias a este nuevo modo alternativo de conexión se ha simplificado y acelerando significativamente la VR; evitando los obstáculos actuales para la adopción de esta tecnología, aportando nuevas experiencias inmersivas a dispositivos mas pequeños y con menos cantidad de puertos (portátiles delgados y livianos, smartphone, etc.) La próxima generación de gafas VR necesitaran ofrecer una mayor resolución de pantalla e incorporar cámaras con un gran ancho de banda para el rastreo y acceso a la realidad aumentada. Este nuevo estándar (VirtualLink) entregara cuatro carriles HBR3 DisplayPort de alta velocidad escalables para un futuro, un canal USB 3,1 para cámaras y sensores de alta resolución y hasta 27 vatios de potencia. A diferencia de las alternativas actuales, este estándar esta especialmente diseñado para la VR, optimizando las latencias y el ancho de banda que permitirá a los fabricantes ofrecer la próxima generación de VR.
  4. Según una reciente filtración producida por el benchmarking 3DMark Fire Strike (la primera fiable) y con una frecuencia de 2.50 GHz, con 16GB de memoria GDDR6 junto a una interfaz de memoria de 256 bits y con una puntuación de 29.752 puntos situándose como la mejor tarjeta gráfica gaming del mercado hasta el momento (o al menos hasta que salga una "GTX 1180"). Esta gráfica superaría a una GeForce GTX 1080 Ti (28.391 puntos) y enormemente a una Radeon RX Vega 64 (22.931 puntos), demostrando claramente un enorme salto de rendimiento con respecto a su antecesora GeForce GTX 1070 (18.016 puntos). En cuanto al redimiendo propiamente dicho (obviando los puntajes de este benchmark) la GeForce GTX 1170 es un 65% más rápida que la GeForce GTX 1070, un 38% más rápida que la GeForce GTX 1080 y un 5 por ciento más rápida que la GeForce GTX 1080 Ti. Se cree que con un mayor ancho de banda le permitirá ser aun mas potente en juegos de altas resoluciones y con un consumo menor de energía (se encuentra fabricado en 12nm) e incluso aun mayor si se le realiza un overcloking.
  5. Según un estudio realizado por una consultara independiente y con mas de 20 años de experiencia en la industriara del control y garantía de software (QA Consultants) y a la cual AMD solicito una auditoria para ver cuales son los driver mas estables del mercado. Esta auditoria llevo pruebas realizadas durante 12 días seguidos con Windows Hardware Lab Kit (HLK) de Microsoft (contienen numeras funciones gráficas con las API DirectX 9, 10 y 11 con cambios de resolución, color, rotación de pantallas, etc.) y AMD consiguió superar a Nvidia a la hora de ofrecer los controladores gráficos más estables de la industria. Para esta prueba se escogieron un equipos gaming con una Radeon Vega RX64, Radeon Vega RX 64, Radeon RX 580 8GB y Radeon RX 560 con los controladores gráficos Radeon Software Adrenalin 18.5.1; mientras que los equipos escogidos de Nvidia teniaj una GeForce GTX 1080 Ti, la GeForce GTX 1060 de 6 GB y una GeForce GTX 1050 con los comntroladores GeForce Game Ready Driver 397.64. Lo que tenian en comun todos estos equipos eran la utilización de Windows 10 con la actualización de Abril, un CPU Intel Core i5-8400, una motherboard MSI Z370-A Pro, 16GB de RAM ADATA XPG Z1, un SSD Samsung 860 EVO de 250GB y una fuente Corsair CX Series CX750W. En cuanto a las pruebas realizadas para el entorno profesional se mantuvo todo lo mencionado anteriormente que poseían todos los equipos mencionados anteriormente, pero se utilizaron obviamente gráficas profesionales de ambas compañías;.Por el lado de AMD se utilizo una Radeon Pro WX 9100, Radeon Pro WX 7100 y Radeon Pro WX 3100 con los driver Radeon Pro Software Enterprise 18.Q; mientras que por el lado de Nvidia se escogieron la Quadro P5000, Quadro P4000 y Quadro P600 con los driver Quadro Desktop 391.58. En total se utilizaron 12 GPUs diferentes (6 de AMD y 6 de Nvidia), con los mismos componentes de hardware y ejecutadas durante 24 horas (durante 12 días consecutivos). Los equipos con gráficas de AMD realizaron exitosamente las 93% (401 de 432 pruebas) y los equipos que utilizaron equipos de Nvidia completaron exitosamente 82% (356 de 432 pruebas) de las pruebas programadas (un total de 432 pruebas).
  6. Luego de la GDC (Game Developers Conference) y GTC (GPU Technology Conference); dejo una gran decepción de no tener nueva información la nueva generación de tarjetas (la supuesta serie GeForce GTX 20**) que supuestamente saldría a la venta en el mes de abril y sin mas rumores de los que ya habíamos estado hablando anteriormente. Recientemente el medio Gamer Nexus a confirmado que SK Hynix esta planeando aumentar la producción de chips de memoria GDDR6 para los próximos 3 meses. Estos chips de memoria son los que Nvidia utiliza en varios de sus productos (tarjetas gráficas, vehículos autónomos, etc). Esto indicaría que para el mes de Julio de este año (mas o menos) podría estar saliendo al mercado la serie GeForce GTX11**. También se informa que la memoria GDDR6 es un 20% mas cara para fabricar con respecto a las memorias GDDR5, lo que indicaría ese comunicado en el que Nvidia mencionaba que los precios de las tarjetas gráficas no bajarían (anuncia). SK Hynix no es la única compañía que fabrica chips de memoria GDDR6; Samsung y Micron también comenzarían a hacerlo. En el caso de Samsung, ya había anunciado que comenzó con la producción en masa de estos chips de memoria el pasado mes de enero y el accidente que sufrió hace poco en su fabrica por un corte de energía.
  7. En el día de ayer Nvidia informo que ya cuenta con stock de cada uno los modelos de su serie GeForce GTX10** y con eso confirman que realmente se encontraban trabajando en el problema del sobreprecio a causa de la escasez de las mismas. Gracias a este nuevo stock en el mercado podríamos conseguir cualquiera de los modelos de esta serie a precios rebajados en la pagina de Nvidia. Los modelos que podemos encontrar son todos modelos de referencia tales como la GTX 1080 Ti Founders Edition por u$d 699, GeForce GTX 1080 por u$d 549, GTX 1070 Ti por u$d 449, GeForce GTX 1070 por u$d 399 y GeForce GTX 1060 por u$d 299. En cuando a los modelos personalizados de sus ensambladores podemos encontrar los siguientes modelos y precios: GTX 1080: Zotac por u$d 549. EVGA por u$d 549. Zotac por u$d 549. GIGABYTE por u$d 549. ASUS por u$d 549. MSI por u$d 549. GTX 1070 Ti: Zotac por u$d 499. EVGA por u$d 499. Zotac por u$d 499. GIGABYTE por u$d 499. ASUS por u$d 499. MSI por u$d 499. GTX 1070: EVGA por u$d 449. EVGA por u$d 449. GIGABYTE por u$d 449. GTX 1060 6GB: Zotac por u$d 299. ASUS por u$d 299. EVGA por u$d 299. MSI por u$d 299. EVGA por u$d 299. GTX 1060 3GB: EVGA por u$d 299. . ASUS por u$d 229. EVGA por u$d 229.
  8. Raytracing. Qué es y por qué DXR es un gran paso para los videojuegos Comprobaremos de forma rápida que es el Raytracing y cómo funcionará en nuestros juegos favoritos. Hace unos días hablábamos de Microsoft y su nueva herramienta Direct X Raytracing (DXR) para su librería gráfica, que puso en boca de muchos dicho término. Sin embargo, el Raytracing es una técnica que nos lleva acompañando desde los años 70 y que vemos muy comúnmente en otros campos fuera de los videojuegos, tales como la fotografía digital o el cine. Aun así, muchos usuarios desconocen qué es el Raytracing, y ahora que vamos a ver una evolución en la forma de ejecutar el mismo en este mundillo que tanto apreciamos, hemos pensado que sería buena idea hablar de cómo funciona y porque esta DXR es tan emocionante de cara al futuro. ¿En qué consiste el Raytracing? El Raytracing, o trazado de rayos, es una técnica de renderizado de imágenes que imita el funcionamiento de la luz en el mundo real dentro de un entorno virtual. En el mundo natural las fuentes de luz emiten rayos lumínicos, estos circulan por el espacio físico hasta que se topan con un objeto, que absorbe, refleja o proyecta dicha luz. Eventualmente esos rayos chocan un receptor que percibe la imagen, en nuestro caso el ojo. El Raytracing imita este proceso. Genera imágenes al dibujar un rayo desde el ojo (La cámara en este caso) a través de un plano, dividido en píxeles. El rayo pasa por cada píxel y se topa con los diferentes modelos de la escena, con los que interactúa generando reflejos, refracciones y sombras hasta chocar con un objeto opaco o dar un determinado número de rebotes. Esta técnica proporciona imágenes con un fotorrealismo mucho más pronunciado que con el uso de otros métodos, pero su consumo de recursos era tan disparatado que no era eficiente para el mundo de los videojuegos, donde la velocidad a la que se representan las escenas e imágenes en nuestra pantalla y nuestra interacción con las mismas es crucial. Cómo renderizamos imágenes ahora Precisamente por la búsqueda de esta velocidad tradicionalmente en los videojuegos se ha usado una técnica llamada rasterización, que permite operar en un mundo en 3D mientras se representa la imagen en un plano, representado en píxeles. Esta técnica permite "recortar" los elementos que no aparecen en pantalla sin afectar a la imagen final, mientras se optimizan los recursos del hardware. Técnicas como el culling, el recorte de visionado, o el Z-buffer han ayudado a nuestros juegos a moverse mejor. Sin embargo, la rasterización ha encontrado en características como la iluminación global o el mapeado de sombras una importante traba a la optimización. Ahí es donde entra DXR y el Raytracing, que Microsoft propone como apoyo para aquellas características que la rasterización no puede afrontar de forma eficiente. Cómo podríamos hacerlo con DRX El plano funciona de un modo distinto con DXR. Primeramente, todo el entorno cuenta con una "estructura de aceleración" que no es más que un objeto que representa todo un entorno 3D de un modo óptimo para ser reconocido por el hardware. Esta estructura forma un mapa de elementos geométricos con características propias y una jerarquía. Una vez está montado este mapa, dentro del plano se aplican los rayos de luz a través de la posición de una fuente y determina qué tipo de interacciones hay entre estos elementos y su entorno en función de las intersecciones de dichos rayos de luz. Con esta información se le asigna un shader y una textura a cada objeto, obteniendo la imagen renderizada dentro del plano. El punto importante es que el Raytracing permite aplicar sombras, shaders y efectos sólo a los elementos que aparecen en el plano con una gran calidad y fidelidad, mientras que la rasterización es menos óptima para algunos de estos efectos. La idea detrás de esta herramienta es que se utilice como complemento a la rasterización, de modo que el desarrollador pueda usar dicha técnica para renderizar la imagen y deje al Raytracing aquellos puntos en los que la rasterización es menos eficiente. Como resultado se obtiene una buena optimización y un acabado fotorrealista. Volta y Nvidia Raytracing El pasado lunes Nvidia dejó ver su compromiso hacia DRX presentando Nvidia RTX, su propia tecnología de trazado de rayos, totalmente compatible con la nueva herramienta de Microsoft y preparada para hacer uso de la potencia de sus futuras gráficas Volta. Además, ha preparado un nuevo módulo para Nvidia GameWorks que hace uso de la misma. La compañía ha declarado que sus tensor cores desarrollados para IA y Deep Learningse han convertido en la pieza clave para llevar el Raytracing a tiempo real. Sin embargo, aseguran que los modelos anteriores serán totalmente compatibles con esta tecnología y que lo que incluirán las próximas gráficas Volta será un módulo optimizado para hacer uso de los núcleos ya nombrados y exprimir al máximo su potencia de cómputo. Para mostrar músculo, la compañía ha lanzado una serie de videos que hacen gala de estas nuevas herramientas y que nos invitan a imaginar cómo podrían verse nuestros títulos en el futuro próximo. ¿Está AMD preparando algo? Aunque la compañía no ha estado muy visible en la presentación, sí que sabemos que AMD ha colaborado también en el desarrollo de esta herramienta, y que sus gráficas serán compatibles con la misma. Aún a la espera de ver cómo será esta implementación, lo que sí sabemos hasta ahora es que las sucesoras de Vega, Navi, contarán con sus propios núcleos para IA y Deep Learning, que ahora podrían pasar también a dar uso a DRX y sus bondades. Aunque aún no hay nada confirmado. Microsoft ha sabido tirar de cartera de contactos y la industria parece recibir con ánimos el Raytracing, compañías como EA o Epic ya han declarado que están preparados para hacer uso de estas nuevas herramientas en sus motores gráficos. Todo esto nos invita a pensar que de aquí a unos años empezaremos a ver como el Raytracing se convierte en el estándar para representar los efectos de luz en nuestros videojuegos, un escenario que no podemos evitar esperar con mucho entusiasmo.
  9. El medio HardOCP ha publicado un articulo en donde desvela una serie de informaciones que podrían dañar la imagen de Nvidia. Esta información publicada revela que la empresa intenta crear un monopolio en el mercado de las tarjetas gráficas, obviamente para verse ampliamente beneficiada en sus ingresos financieros Según se revela en este informe, la empresa habría utilizado su GeForce Partner Program (GPP) con una serie de prácticas anticompetitivas y monopolísticas en el mercado, para así hacerse con el control directo y lograr una influencia directa en la libre elección de los consumidores a la hora de escoger entre diferentes compañías ensambladoras de tarjetas gráficas. Kyle Bennett (editor jefe HardOCP) explica que hace unas semanas AMD lo contactó, junto a otros periodistas, en relación a un nuevo programa de Nvidia estaba lanzando el ya mencionado GeForce Partner Program. Tras esto Bennett se dispuso a hablar con siete compañías que mantienen actualmente negocios a gran escala con Nvidia, entre las que se encontraban diversos ensambladores y también otras compañías del sector tecnológico como Dell, HP o Lenovo. Todas estas compañias llegaban un punto en común al realizar sus declaraciones respecto al GPP: primero que el GPP tiene algunas condiciones y requisitos ilegales; segundo, que este programa intenta influir en las decisiones de los consumidores; y por último, que el GeForce Partner Program provocará que todas estas empresas rompan sus negocios con los competidores de Nvidia (como por ejemplo AMD o Intel). ¿Como funciona este programa de incentivo para GeForce Partner Program? La GPU y el software de un PC Gaming marcan la diferencia en la experiencia de un jugador. Y junto con nuestros socios de tarjetas gráficas y sistemas, queremos dedicarnos a crear la mejor plataforma jamás lanzada pensando en los gamers de PC. Esta es la promesa de GeForce. El GeForce Partner Program está diseñado para garantizar que los usuarios tengan una transparencia total en lo que a la GPU y al software que están comprando se refiere, y pueden escoger con confianza cualquier producto que cumpla con la promesa de Nvidia GeForce. Esta transparencia sólo es posible cuando Nvidia y las marcas asociadas son consistentes. Por lo tanto, el nuevo programa significa que promocionaremos nuestras marcas asociadas al GPP en la web, en las redes sociales, en eventos y más. Además, los socios de GPP tendrán acceso temprano a nuestras últimas innovaciones, y trabajarán estrechamente con nuestro equipo de ingeniería para llevar las tecnologías más nuevas a los jugadores. Nuestros socios ya se están inscribiendo, y rápido. Ellos ven el beneficio de mantener las marcas y la comunicación de forma completamente consistente y transparente. El programa no es exclusivo. Los socios continúan teniendo la capacidad de vender y promocionar productos de cualquier otra firma. Los socios eligen inscribirse en el programa y pueden dejar de participar en cualquier momento. No hay compromiso de realizar pagos monetarios o descuentos de productos por ser parte del programa. El GPP garantiza que nuestros esfuerzos de ingeniería y comercialización apoyan a las marcas que los consumidores asocian con GeForce. Esa transparencia dará a los jugadores la confianza necesaria para realizar su compra, independientemente del producto que elijan.”
  10. Nvidia advierte que los precios de las gráficas seguirán subiendo hasta el tercer cuarto de 2018. Massdrop, conocida web de compras por pedidos ha filtrado esta declaración desde su fuente en Nvidia. Massdrop, para los que no la conozcan, es una web de compras online por pedidos en masa, cuando muchos usuarios solicitan un producto desde la web, la página negocia con los fabricantes y proveedores y así consiguen que ese producto sea más barato para los compradores (De ahí su nombre), por ello les conviene mantener una buena relación con las diferentes compañías y procuran tener contacto con ellas. Por lo que las filtraciones dadas por los contactos de la página deberían ser muy fiables. Así pues, la página lleva un tiempo intentando ofrecer una remesa de las gráficas de la compañía americana desde hace unos meses. Sin embargo, sus contactos en la compañía no han traído consigo buenas noticias. Según una de sus principales fuentes internas, Massdrop avisa que Nvidia no espera ver bajadas en el precio de las GPU hasta, al menos, verano de este año. Esto, como muchos ya sabéis, tiene su origen en dos sucesos: la escasez de memorias, que encarece y merma la producción, y la lucha entre mineros y jugadores por un mismo producto. El primero de los problemas podría ver una posible solución a lo largo de este año, cuando surtan efecto los acuerdos de colaboración e intervención de grandes compañías con el gobierno chino, mientras que la segunda aún no sabemos cómo va a desenvolverse. Pero desde 3djuegos no queremos ser pájaros de mal agüero, y el hecho de que Nvidia de un margen tan concreto para esperar a ver bajadas es porque desde la compañía así lo creen, ya sea por análisis del mercado o por posibles maniobras a tomar por la compañía, como podría ser algún anuncio o similar por parte del gigante de los gráficos. Una vez más, nos toca esperar pacientemente, algo que por suerte, los jugadores de PC hemos aprendido a hacer desde hace mucho, especialmente con un mercado del hardware tan revolucionado como el que hay actualmente. Fuente: https://www.3djuegos.com/noticias-ver/178852/nvidia-advierte-que-los-precios-de-las-graficas-seguiran/
  11. Recientemente el portal alemán 3DCenter (traducido por WCCFTech) ha indicado que la próxima arquitectura de placas de video de Nvidia será la ya rumoreada arquitectura Ampere para gamers y Volta quedaría de forma exclusiva para el segmento profesional. Según este rumor las primeras tarjetas gráficas basadas en la arquitectura Ampere llegarian para suceder a Pascal y el anuncio oficial seria el 12 de abril (los primeros rumores indicaban que seria para fines de mayo). El posible cambio de fecha para el anuncio podría estar ligado a que la producción del silicio GP102 (Pascal) habría sido alterado; este silicio es el utilizado en la GeForce GTX 1080 Ti y que eso podría significar que podamos encontrarnos con este modelo sin stock durante meses debido a que ya no se producen más silicios ligado a que el stock existente es limitado debido a los mineros de criptomonedas. La producción del silicio GA104 (Ampere) habría comenzado el pasado mes de enero pensando en tener una disponibilidad inicial en el mercado en abril (dos años después del lanzamiento del GP104), dejando a la arquitectura Pascal un ciclo de vida de nada menos que 2 años (no habitual por parte de Nvidia) y obviamente la falta de competencia por parte de AMD le ha permitido mantenerse en una zona de dominio en el mercado y amortizando al máximo la arquitectura Pascal. Las primeras gráficas Ampere que llegarían al mercado serían la gama alta (GA104 – GTX 2080 y GTX 2070), seguida por la gama media (GA106 – GTX 2060), la gama entusiasta (GA102 – GTX 2080 Ti) y unos chips de bajo coste GA107 y GA108 (GTX 2050 y GTX 2030). Se esperando que todas ellas estén fabricadas a un proceso de fabricación de 7nm y muy posiblemente con GDDR6 (en vez de HMB2).
  12. Nvidia ya lanzó sus nuevos drivers GeForce 390.77 WHQL. Estos nuevos drivers añaden a sus tarjetas gráficas optimizaciones de los últimos juegos que han salido al mercado y otros: Kingdom Come: Deliverance, War Thunder, Black Desert Online y Metal Gear Survive Además estos nuevos drivers trae un buen número de correcciones y el soporte para nuevos perfiles SLI y 3D. MODIFICACIONES CON LOS DRIVERS GEFORCE 390.77 WHQL Perfiles SLI añadidos o actualizados DIRT 4 Hot Lava Metal Gear Survive Ode Perfiles 3D Vision añadidos o actualizados FIFI – Bueno Kingdom Come: Deliverance – No recomendado Metal Gear Survive – Justo Perfiles 2DD Los siguientes juegos no son compatibles con el modo 3D Vision Surround y deberán ser utilizados bajo DirectX 10/11 para ver las mejoras. Total War: Warhammer II – Justo Versiones de módulos software nView – 148.92 HD Audio Driver – 1.3.36.6 NVIDIA PhysX System Software – 9.17.0524 GeForce Experience – 3.12.0.84 CUDA – 9.1 PROBLEMAS SOLUCIONADOS EN GEFORCE 390.77 WHQL Se produce parpadeo y errores en Dirt 4 con SLI activado Falta de gráficos en Neverwinter Nights GeForce Experience se lanza con la pantalla negra en portátiles Optimus Problemas de rendimiento al usar 3DMark Problemas en rendimiento con G-Sync en las GeForce GTX 1080 No se guardan los cambios en los ajustes de rando dinámico del panel de control de NVIDIA de las GeForce GTX 1070 Ti. Se desactivará G-Sync para aquellas aplicaciones que estén diseñadas para trabajar con un rango de frames fijo, evitando así posibles errores. PROBLEMAS SIN SOLUCIONAR EN GEFORCE 390.77 WHQL Como con cada una de las nuevas versiones en los controladores, la 390.77 mantiene ciertos problemas abiertos. A continuación listamos lo fallos que aun no se han solucionado o implementado en la nueva versión. NVIDIA advierte que puede que algunos de estos fallos una vez sean investigados se determine que no son culpa de sus controladores. Pantallazo negro en pantalla G-Sync cuando cambias entre diferentes frecuencias de overclock de memoria varias veces con la NVIDIA TITAN V No hay salida de vídeo cuando conectas el Display Port y dos monitores DVI con SLI en GeForce GTX 780 Ti. El sistema operativo falla después de instalar la GeForce TITAN en una placa base compatible con Threadripper. Pantallazo azul jugando a Gears of War 4 con una tarjeta gráfica Pascal. Doom falla debido a la reversión de drivers a OpenGL 1.1 cuando el HDR está activado, utilizando una GeForce GTX 1080 Ti. Los nuevos drivers están disponibles desde el programa "GeForce Experience" o desde la pagina web oficial de Nvidia Fuente: https://hardzone.es/2018/01/29/geforce-390-77-whql-nvidia/ - Escrito por Manuel Santos
  13. Hace unos días Nvidia anuncio oficialmente que a partir del set de controladores 390.xx (drivers GeForce) ya nos brindarán soporte para sistemas operativos de 32 bits. Con esta nueva política todas las mejoras y optimizaciones de drivers, como las características del sistema operativo en las versiones que se hagan disponible tras el lanzamiento del set 390.xx, no serán incorporados en versiones iniciales del paquete de drivers. Este cambio se verán en los siguientes sistemas operativos: Microsoft Windows 7. Microsoft Windows 8/8.1. Microsoft Windows 10. Linux. FreeBSD. La última versión de los drivers que soporta sistema de 32 es la 388, por lo tanto el driver 390 llegará más temprano de lo esperado. En las estadísticas de Steam, podrán ver que solo el 2% de los jugadores de la plataforma todavía tienen un SO de 32 bitS. Ademas ya hace un tiempo que varios desarrolladores sus juegos para plataformas de 64 bits.
  14. El fabricante de tarjetas gráficas Nvidia, ha presentado la primera de sus tarjetas gráficas para usuarios denominada TITAN V. Se veía venir desde hace un tiempo atrás que Nvidia no se iba a quedar de brazos cruzados con la tecnología Volta ya desarrollada para ser lanzada al mercado. Al fin y al acabó, este fabricante ha tenido tiempo de sobra para poder mejorar su diseño y su fabricación. Las nuevas TITAN V (V por Volta) son unas gráficas que son muy diferentes a todo lo que ha hecho Nvidia hasta el momento. Por principio emplean el concepto de chip multi núcleo (MCM) en su interior. No sólo eso, sino que además, va acompañada por 12 GB de memoria HBM2. Las nuevas TITÁN V no sólo serán potentes sino muy caras Las nuevas TITÁN V equipan el nuevo núcleo gráfico Volta GV100, que es el mismo núcleo gráfico que emplea el acelerador Tesla V100 HPC. Este nuevo núcleo gráfico emplea una configuración de tipo multi núcleo, con una die donde están los núcleos (similar a lo que hace AMD con su tecnología Ryzen) y tres pilas de memoria HBM2, para dar un total de 12 GB. La gráfica tiene en su interior un total de 5.120 núcleos CUDA, acompañados de 640 núcleos Tensor. Los núcleos CUDA se distribuyen en seis clusters de procesado gráfico. Mientras que la cantidad de TMUs es de 320 unidades. El núcleo gráfico tiene una frecuencia de 1200 MHz que llega hasta los 1.455 MHz con la frecuencia Boost. Mientras que la memoria HBM2 tiene una frecuencia de 850 MHz. Todo eso se traduce en un ancho de banda para la memoria de 652,8 GB/s, que es una auténtica salvajada. En cuanto al consumo, no tenemos datos en estos momentos. Sin embargo, si sabemos que la tarjeta empleará un conector PCIe de ocho pines más otro de seis pines. Hablando de las salidas de vídeo, la gráfica tendrá tres salidas DisplayPort y una HDMI. Y ahora vamos a la parte divertida. La gráfica segun la página oficial de NVIDIA costará €3,100 e inicialmente sólo estará disponible a través de la tienda exclusiva de la página web de Nvidia. Fuente: https://hardzone.es/2017/12/08/nvidia-nueva-grafica-titan-v/
  15. Parece ser que un ingeniero de AMD puso en su página de Linkedin que estaba involucrado en el desarrollo de una controladora para memoria GDDR6 en las tarjetas gráficas de la marca, algo en lo que supuestamente han indagado los chicos de WCCFTech y que han podido confirmar. De ser así, teóricamente la próxima generación de tarjetas gráficas de AMD podría contar ya con memoria gráfica GDDR6. AMD no va a abandonar la memoria HBM2, y el plan de la compañía sigue siendo que la próxima generación (conocida como Navi) cuente con ésta memoria. Ahora bien, existe la posibilidad de que lancen variantes con memoria GDDR6, pero todo dependerá de cómo se les de el desarrollo y la integración de la misma en sus tarjetas gráficas, claro. La memoria gráfica GDDR6 está en camino Esto es desde luego un hecho. Samsung, Micron y SK Hynix tienen la memoria GDDR6 en sus calendarios de lanzamiento, y de hecho en algunos casos hablan de finales de 2017 (ahora) y en otros principios de 2018, así que su disponibilidad debe ser más pronto que tarde. En cualquier caso es lógico pensar que los fabricantes de tarjetas gráficas como AMD tienen acceso privilegiado a esto dado que tendrán que hacer pruebas preliminares con los fabricantes de la memoria y desarrollar en conjunto controladoras, por lo que éste rumor que ha surgido ahora no es para nada descabellado, sino todo lo contrario. En el caso de los tres fabricantes de memoria que hemos mencionado antes, todos han afirmado que la memoria GDDR6 será la más rápida y eficiente hasta la fecha, contando con que HBM2 está en el mercado. Y con una velocidad de transferencia de 16 Gbps desde luego puede serlo, pues proporcionará 64 GB/s de ancho de banda por chip a tan solo 1.35V. Si lo comparamos con la actual generación GDDR5, se ha doblado la velocidad y se ha reducido el consumo considerablemente (de 1.5V a 1.35V). En fin, ya veremos qué sucede. Según los calendarios de los fabricantes de memoria, la GDDR6 debería estar ya al caer, y no es descabellado pensar que AMD (y NVIDIA) ya estén activamente trabajando para incorporarla a sus tarjetas gráficas. Ahora bien, si ésta llegará en la próxima generación o en la siguiente está todavía por ver. Fuente: https://hardzone.es/2017/12/07/amd-trabaja-incorporar-memoria-gddr6-proximas-gpus/
  16. KFA2 GTX 1080 Ti Hall of Fame, una tarjeta gráfica que ha sido completamente personalizada por este fabricantes de tarjetas gráficas, con ajustes específicos de fabrica, un disipador de triple ventilador y cuenta con iluminación LED RGB. Lo más destacado de esta tarjeta gráfica es una pantalla LCD que nos muestra diferentes parámetros de la tarjeta gráfica. Respecto al disipador, tenemos que destacar que este ocupa tres ranuras y no se activan los ventiladores del disipador hasta que la GPU se ponga a 60ºC. La PCB es complementarte blanca, ademas del embellecedor donde están los ventiladores y el backplate también es de color blanco. El disipador cuenta también con una corona típica de las HoF, con una iluminación LED RGB. Esta tarjeta gráfica cuenta con la GPU GP 102-350, la cual dispone de 3584 CUDA Cores, un total de 224 Texture Units, ademas, de disponer de 11GB de memoria GDDR5X. Esta tarjeta gráfica trabaja a una frecuencia de 1569MHz y tiene un modo Boost de 1683MHz, mientras que las memorias trabajan a 11.008MHz. La PCB ha sido modificada por KFA2, integrando una alimentación PCIe de 8+8+8 pines. El disipador integra un sistema de refrigeración de tres slots y tres ventiladores, para refrigerar la tarjeta gráfica Dicho disipador además incorpora una tecnología silenciosa que hace que la tarjeta gráfica no active los ventiladores hasta los 60ºC y desde este punto hasta los 67ºC, los ventiladores trabajan al mínimo de revoluciones, incluso los mantiene apagados si la carga de trabajo no es importante, como pueda ser en juegos. La KFA2 GTX 1080 Ti Hall of Fame cuenta con un disipador personalizado con una pantalla LCD que nos muestra la frecuencia a la que trabaja la tarjeta gráfica, el nivel de carga de la misma o la temperatura, entre otros parámetros Se ha incorporado la corona típica de las tarjetas gráficas Hall of Fame con LED RGB, los cuales cuentan con la tecnología LUMINHOLD, que ofrece una configuración LED agradable, con un alto nivel de personalización gracias al software Xtreme Turner, el software desarrollado por KFA2 para controlar este apartado y otros parámetros. Sin duda, la KFA2 GTX 1080 Ti Hall of Fame, una tarjeta gráfica de unas características y unas prestaciones brutales. Esta es la mejor tarjeta gráfica del mercado, incluso por encima de la GTX Titan Xp, entre otras cosas, porque gracias a su configuración de fases de alimentación mejoradas, llega a los 2100MHz, sin mayores problemas, es más, los ventiladores tardan en activarse en este punto, ya que esta tarjeta gráfica cuenta con tecnología de 0dB que no activa los ventiladores hasta que no llega a los 55ºC. Fuente: https://hardwaresfera.com/review-tarjeta-grafica-kfa2-gtx-1080-ti-hall-of-fame/9/
  17. Recientemente JPR (Jon Peddie Research) ha publicado un informe de mercado en el que indica el aumento de ventas de GPUs dedicadas para el mercado de PC. En dicho informe podemos ver como Nvidia ha experimentado un aumento en sus ventas de 30%, mientras que AMD ha vendido un 8% más e Intel un 5% en el mercado. Con respecto al mismo periodo del año pasado (2016), las ventas de GPUs han descendido un 3,3% y ha sido por un descenso de ventas de portátiles (notebook); pero las ventas de gráficas dedicadas han aumentado un 2%, pero las ventas de portátiles (con gráficas dedicadas) ha descendido un 6%. Lo mas destacable de estas cifras es el enorme crecimiento que ha tenido Nvidia, el cual incluso dobla la cifras de sus competidores (frente a 7,63% de AMD y los 5,01% de Intel). Otros datos recopilados es el crecimiento de gráficas dedicadas en PC de un 39,55% en comparación con gráficas integradas, lo que supone un 4,18% de incremento con respecto al trimestre del año pasado. Esto significa que cada vez más usuarios utilizan gráficas dedicadas en sus equipos o compran portátiles que cuentan con gráfica dedicada en lugar de la integrada. Concretamente en equipos de sobremesa el uso de gráficas dedicadas ha aumentado en un 29,05%, por lo que El mercado global de PC ha visto sus ventas incrementadas en un 10,31% con respecto al año trimestre pasado. Si bien es cierto que con respecto al mismo trimestre del año pasado son un 2,06% inferiores. También comentan que la venta de tablets ha crecido bastante.
  18. Con el estreno Inminente de Middle-earth: Shadow of War y The Evil Within 2 para mañana y el 13 de octubre, Nvidia nos trae nuevos drivers para brindar el mejor rendimiento en ambos títulos, como también para Forza Motorsport 7,ARKTIKA.1, Agents Of Mayhem y Killing Floor. Nuevas Características: Se agregó soporte para OpenGL 4.6 Se agregó soporte de NVIDIA GameStream para HDR bajo Windows 10 Se agregó soporte Fast Sync para SLI Fast Sync bajo las configuraciones SLI ‘bridged’: NVIDIA Maxwell GPUs: Cualquier resolución inferior a 4k NVIDIA Pascal y posteriores GPUs: Cualquier resolución Se agregó soporte para DirectX Intermediate Language (DXIL) Incluye soporte completo para DirectX 12 Shader Model 6.0, características como Wavemath, y el compilador de DirectX Shader. Solo soporta GPUs NVIDIA Kepler o posteriores. Game Ready – Brinda experiencia optima para Agents of Mayhem Game Ready VR – Brinda experiencia optima para Killing Floor: Incursion
  19. El sitio chino Baidu Tieba había filtrado el posible lanzamiento de GTX 1070 Ti STRIX de ASUS pero era un solo un rumor. Esto complicaría la justificación de Nvidia de lanzar una placa intermedia entre GTX 1070 y GTX 1080 (20% mas rapida que la primera y 20% menos que la segunda), y mas con un AMD que sigue luchando por conseguir un lugar en el tope dominado por la GTX 1080Ti y Titan Xp. Son muchos los motivos que hacen dudar de la existencia de esta nueva GPU de Nvidia, la cual estaría destinada a competir con la RX Vega 56 de AMD (con un costo que rondaría los u$d 400). Según informa el sitio MyDrivers, la GTX 1070 Ti es real y tendrá 2432 núcleos CUDA (128 menos que la GTX 1080), con memoria GDDR5 (al igual que la GTX 1070). La frecuencia de reloj sería de 1607/1683MHZ (igual a los clocks que la GTX 1080) y tendría un TDP de 180w. Se espera que la GTX 1070 Ti se lance a fines de octubre o principios de noviembre por precio estimado de u$d 429.
  20. Posibles rumores indicarían que Nvidia ha cambiado de opinión y la serie Nvidia Volta (GTX 20) llegaría este mismo año (posiblemente durante el tercer trimestre). Esta información viene de una fuente fiable como el portal chino MyDrivers, A pesar a que la serie Pascal (GeForce 10) se encuentra dominando el mercado desde su lanzamiento y con el poca competencia de AMD con sus Radeon RX 500. Nvidia lanzará la serie GeForce 20 antes de lo esperado, las cuales harán uso de la nueva arquitectura gráfica Volta de la que se indica que aún seguirán estando fabricadas a un proceso de 16nm FinFET por medio de TSMC esperando mejorar la eficiencia energética junto a la llegada de la popular memoria HBM2. Se especula que las gráficas Volta tomarían la forma de una GeForce GTX 2070 con 11GB de memoria GDDR5X @ 12 Gbps, la GeForce GTX 2080 con 11GB de memoria GDDR5X @ 14 Gbps y una TITAN Xv con 16GB de memoria HBM2. Nvidia comenzaria usar el proceso de fabricacion de 12nm, lo que le supondria más rendimiento para sus posible seria GTX 30 para el próximo año. Si tenemos en cuenta la actualización Pascal y su GTX 20; no debemos esperar demasiadas novedades, aparte de 10-15% de rendimiento adicional, temperaturas potencialmente más bajas y más espacio para overclocking. Para 2018 deberiamos ver tres posibles GPU Volta (GV104, GV102 y GV110). Estas se podria utilizar el GV104 en su segmento de los U$D 400 aproximadamente (GeForce GTX 3070 y GTX 3080 alimentadas por un núcleo GV104, con hasta 16GB de RAM GDDR6 en un bus de memoria de 256 bits). En cuanto al producto GV102 de gama alta, podríamos esperar hasta 32GB de memoria GDDR6 o HBM2 en estas tarjetas con un ancho de banda de 16Gbps completo proporcionando 512GB / seg de ancho de banda de memoria.
  21. Finalmente y tras muchos idas y vueltas, Nvidia acaba de presentar su nuevo GPU denominada como Nvidia GeForce GTX 1080 Ti. Esta presentacion se realizado durante la GDC 2017 en San Francisco y tal como se mostro en la conferencia, empleará el silicio GP102 bajo la arquitectura Pascal conformado por 3584 CUDA Cores junto a 224 TMUs y 88 ROPs. Por suerte tiene los mismos CUDA que la GeForce GTX Titan X y llega a una frecuencia más rápida de 1.60GHz (vs 1531MHz) prometiendo alcanzar hasta 2.00GHz mediante overclock. El silicio queda unido a 11GB de memoria GDDR5X, unida a una interfaz de memoria de 352bits (vs 12GB GDDR5X / 384 bits) y requiere de dos conectores PCI-Express de 8+6 pines para su alimentación. Según la propia compañía este es la mejor GeForce GTX x80 Ti lanzada, pues respecto a la GeForce GTX 1080, la GeForce GTX 1080 Ti es un 35% más rápida, frente al 25% que supuso el salto de rendimiento de la GTX 980 vs GTX 980 Ti y el 18% de la GTX 780 vs GTX 780 Ti. Esta mejora sustancial se debe a una nueva tecnología de compresión para mejorar el ancho de banda. La gráfica mostrada fue una Nvidia GeForce GTX 1080 Ti Founders Edition, la cual emplea el sistema de refrigeración de referencia de la compañía el cual tendrá que lidiar con un VRM de 7 fases de alimentación que entregará 250A a la GPU. Según la compañía tendría un disipador levemente mejorado, y pese a mantener un TDP de 220W; gracias a un nuevo diseño de la cámara de vapor será 5ºC más fresca que la GTX 1080 Founders y siendo 2.5 dBA más silenciosa. Aunque lo que realmente les va interesar a los usuarios serán los modelos custom de fabricantes como ASUS , MSI, Gigabyte, EVGA, entre otras marcas (para sacarle todo el verdadero potencial). Gracias al overclock de la memoria GDDR5X hasta los 11GHz (vs 10GHz referenciales de la GTX 1080), la compañía promete que su gráfica dará la talla a resoluciones 5K en juegos como Deus Ex o el Watch Dogs 2 quizás en un intento por minimizar daños colaterales de unas Radeon RX VEGA que emplearán la memoria HBM2 que les beneficiará a tales resoluciones. En lo que respecta al precio, será de U$D 699 y estará a la venta a partir de la próxima semana. Además, anunciaron que habrán versiones overclockeadas de la GeForce GTX 1060 y GTX 1080, que contarán con una velocidad de memoria de 9ghz y 11ghz respectivamente (mientras que sus predecesor son de 8ghz y 10ghz respectivamente).
  22. Hoy se a dado a conocer que los últimos controladores lanzados hace poco de Nvidia GeForce no solo llegaron para corregir fallos, una mayor compatibilidad y optimizaciones con ciertos juegos, sino que nos trae un pequeño secreto, ahora será capaz de recolectar la información de nuestro equipo mediante telemetría para enviarla a Nvidia de forma anónima. A ello se le suma que de serie también tenemos varios servicios inútiles corriendo en nuestro equipo que pueden afectar a su rendimiento si ya vamos muy limitados en potencia o memoria como es el controlador inalámbrico de Nvidia o la aplicación para la captura de vídeo ShadowPlay. Para evitar que la aplicación Nvidia GeForce Experience recopile información de nuestro equipo, debemos descargar el Microsoft Autoruns, aplicación portable que no requiere de su instalación y que nos permitirá desactivar la telemetría y los servicios del controlador inalámbrico Nvidia (si es que no tenemos dicho mando) o el servicio ShadowPlay (si no capturamos nuestras partidas en vídeo). En el caso que quieras desactivar las aplicaciones y servicios inútiles, debes ejecutar el Autoruns.exe o Autoruns64.exe (si tenemos SO de 64 bits) con clic derecho y “ejecutar como administrador“. Una vez dentro, vamos a la barra de búsqueda, añadimos “Nvidia” y desactivamos los tres servicios de telemetría marcados en la imagen. Los otros dos servicios, por orden, el primero es el mando inalámbrico y el segundo el ShadowPlay, en caso de no tener el mando de Nvidia, ni realizar “gameplays”, puedes desactivar ambos servicios.
  23. Los rumores no son nada nuevo y es algo que era inevitable para el remplazo de la GTX950 y GTX960; en el día de ayer la web china Benchlife filtro unas supuestas especificaciones de la GTX 1050 y GTX 1050 Ti. Y era mas que obvio el importante hueco (en términos de rendimiento) que separaba a la GeForce GTX 1050 y la GeForce GTX 1060 con 3GB de memoria,y a esto tenemos las que serían las especificaciones finales de la GeForce GTX 1050 Ti (llegando para hacer aún más completa la familia de gráficas GeForce GTX 10). La nueva GeForce GTX 1050 Ti hará uso del silicio GP107-400 conformado por 768 CUDA Cores, 48 TMUs y 32 ROPs a una frecuencia Base/Turbo de 1290/1382MHz mientras que sus 4GB de memoria llegan a 7008MHz unida a una interfaz de memoria de 128 bits dando un TDP de 75W, por lo que los modelos de referencia no requerirán de un conector PCI-Express para su alimentación, algo que si harán los modelos personalizados pensando en sacar más jugo mediante el overclocking. Con respecto a su lanzamiento la GeForce GTX 1050 Ti llegaría a mediados del próximo mes de octubre (a un precio U$D139 en EE.UU.) y la GeForce GTX 1050 lo hará a finales del mismo mes (a un precio U$D119 en EE.UU.).
  24. Nvidia ha anunciado en su página oficial que ya está disponible para descargar la versión GeForce Experience 3.0 del programa que permite simplificar la instalación de drivers para las tarjetas de esta compañía o incluso ayudarnos a optimizar la configuración de nuestros juegos para una experiencia más óptima. Esta nueva versión llega con una interfaz renovada e importantes cambios, tanto a nivel de optimización como de características. Tal y como han explicado desde Nvidia , la optimización es una de las claves de esta nueva versión, y es que es capaz de trabajar el triple de rápido que la anterior, utilizando tan solo la mitad de memoria, lo cual supone todo un logro. Por otro lado, la función ShadowPlay para capturar nuestros gameplays se ha mejorado para permitirnos hacerlo hasta una resolución de 4K y 60fps. Otra importante mejora reside en que ahora, cuando hagamos capturas de pantalla, tendremos la posibilidad de subir las imágenes directamente a imgur sin necesidad de salir del juego. A continuación puedes ver el vídeo que la compañía ha distribuido para explicar más a fondo todas estas novedades. Si tenéis una tarjeta gráfica compatible y queréis descargar el programa, podéis hacerlo aquí mismo.
  25. Nvidia presento el pasado 15 de agosto las GPU NVIDIA GeForce GTX 1080, 1070 y 1060 para computadoras portátiles. Ya están disponibles en todo el mundo para brindarle a los gamers mas entusiastas un salto cualitativo en lo que se refiere a rendimiento y eficiencia energética en la plataforma de juegos de más rápido crecimiento. Basado en la arquitectura NVIDIA Pascal™ de GPU, las GPUs serie GTX-10 están fabricadas mediante el proceso FinFET de 16nm de última generación y diseñadas para brindar rendimiento general y optimizar el rendimiento por watt. La galardonada arquitectura Pascal hace que las GPUs serie GTX 10 sean la piedra angular ideal para el diseño de plataformas de computadoras portátiles que permitan disfrutar de la realidad virtual en movimiento. Los fabricantes de computadoras portátiles utilizan las GPUs en potentes dispositivos portátiles para juegos tan delgados como 18mm y tan livianos como cuatro libras, equipados con tecnologías de última generación que brindan rendimiento sorprendente a 120Hz y juegos en 4K. Rendimiento sorprendente en un diseño exquisito: Las GPUs basadas en Pascal de Nvidia representan el salto generacional más grande en cuanto a rendimiento en la historia de las computadoras portátiles para juegos. Los diseños incluyen desde formatos delgados y livianos hasta reemplazos de computadoras de escritorio. El rendimiento para VR y juegos de PC alcanza niveles nunca antes vistos en una plataforma móvil. En comparación con la generación anterior de GPUs basadas en la arquitectura Maxwell, las nuevas GPUs serie GTX 10 para computadoras portátiles ofrecen hasta 75% más de rendimiento desde el inicio y con la fuente de poder dual-FET y los controladores de energía de múltiples fases, ofrecen más del triple del potencial de modificación de la frecuencia y un rendimiento incluso superior. Nueva tecnología BATTERY BOOST y pantallas G-SYNC: Las GPUs serie GTX 10 para computadoras portátiles también incluyen soporte para la más reciente tecnología BATTERY BOOST™ de NVIDIA, que ofrece hasta el doble de duración de la batería al jugar juegos garantizando una experiencia “gamer” mucho más fluida al no estar conectada a una toma de alimentación. Y gracias a la tecnología G-SYNC™ de NVIDIA, las mejores pantallas para juegos son incluso mejores: es la primera vez que una pantalla de 2500x1400 de resolución y 120Hz está disponible para una computadora portátil. Incorporación de VRWorks y Ansel en las computadoras portátiles Al igual que todas las GPUs basadas en Pascal, las nuevas GPUs serie GTX 10 para computadoras portátiles también admiten las tecnologías NVIDIA VRWorks™. Esto incluye la tecnología de proyección múltiple simultánea de Nvidia, que puede brindar una mejora en el rendimiento de gráficos hasta 3 veces superior, en comparación con las GPUs de la generación anterior. Este avance le permite a los “gamers” que utilizan computadoras portátiles jugar juegos de VR con niveles más elevados de detalles y disfrutar así de una experiencia mucho más realista e inmersiva. Asimismo, la tecnología de proyección múltiple simultánea también se integra en los motores de juego más importantes del mundo como Unreal Engine y Unity. Actualmente, se están desarrollando más de 30 juegos, incluidos Unreal Tournament, Poolnation VR, Everest VR, Obduction, Adr1ft y Raw Data. También soporta la tecnología Ansel de NVIDIA, la cual es una potente herramienta de captura de juegos que le permite a los “gamers” explorar y compartir el arte de los juegos de una forma hasta ahora impensada. Con Ansel, los usuarios pueden armar la composición de las tomas como lo deseen, apuntando sus cámaras en cualquier dirección y desde cualquier punto dentro del juego. Además, pueden tener fotografías en estéreo de 360 grados para ver en el casco de realidad virtual o con Google Cardboard. Mirror’s Edge: Catalyst, Witcher 3: Wild Hunt y The Witness son los primeros juegos en enviarse con soporte de Ansel. Próximamente, se sumarán más juegos. Disponibilidad: Las computadoras portátiles para juegos equipadas con GTX 1080, GTX 1070 y GTX 1060 ya se encuentran disponibles a través de los principales ensambladores de equipos y OEM de computadoras portátiles, como Acer, Alienware, ASUS, Clevo, EVGA, Gigabyte, HP, Lenovo, MSI, Origin, Razer, Sager y XMG. Las características, los precios y la disponibilidad pueden variar según la ensambladora (y/o distribuidores locales).
×
×
  • Create New...