BandaAncha

  • 🔍 en 📰 artículos ⏎
  • 🔍 en 💬 foros ⏎
  • 🔍 en 👇 este 💬 foro ⏎
  • 🔍 en 👇 este 💬 tema ⏎
Regístrate Regístrate Identifícate Identifícate
Portátil

Monitor externo conectado a Lenovo IdeaPad usa la gráfica integrada en vez de la RTX3050Ti

ablackberry

Me he pillado este portátil Lenovo IdeaPad Gaming 3 15IAH7 RTX3050Ti y un monitor externo BenQ Mobiuz EX2710R. El portátil tiene Windows 11. Tengo el siguiente problema, a ver si me podéis echar una mano.

  • Conecto el portátil y el monitor, ambos por HDMI: Miro el adaptador que usa el monitor e indica que la RTX3050Ti
  • Conecto el portátil (USB-C) al monitor (DisplayPort): El adaptador que usa el monitor es la IrisXe integrada

Ya he mirado la configuración en el panel de Control de NVIDIA, poniendo tanto en:

  • Configuración 3D → Controlar la configuración 3D → Configuración global → Procesador de gráficos preferidos: Procesador NVIDIA de alto rendimiento
  • Establecer configuración PhysX → procesador physX: NVIDIA GeForce RTX 3050Ti

Pero estos cambios no me han valido para que el adaptador que use el monitor sea la RTX.

He actualizado controladores y demás.

¿Qué puede estar pasando? ¿Es que el USB-C del portátil es sólo válido para la señal de la IrisXE y el HDMI si pilla la RTX?

Las imágenes son de cuando está conectado usando USB-c/DisplayPort

paso-1-configuracion-3d.webppaso-2-physx.webppaso-3-adatador-uso.webp
devalarían

Perdona, he borrado la respuesta, porque después de contestar, he visto que estaba incorrecta la repuesta. Siento las molestias.

vukits

el puerto USB-C suele ser un puerto bastante enraízado en la placa base, es conexión directa a PCI, creo… No es una simple salida de video.

más info:

dell.com/community/Alienware/nVidia-dGPU…td-p/6230178

En todo caso, si te funciona el monitor por HDMI, ¿qué más da?

PD: ojo, para videojuegos, quedas avisado: obtienes mejor rendmiento si sólo tienes encendida una pantalla (aceleración 3D a pantalla única)

🗨️ 4
lhacc
1

En ese enlace se explica bien, es un asunto técnico de la tecnología Optimus. No me apetece hartarme de escribir, pero en resumidas cuentas no hay de lo que preocuparse, vas a tener el mismo rendimiento por ambas salidas de vídeo.

🗨️ 2
vukits

es un asunto técnico de la tecnología Optimus

está todo inventado: (leches, jamás tuve dinero para comprar una de estas).

imagen.webp
🗨️ 1
lhacc
2

Qué va, es un tema mucho más avanzado. En resumidas cuentas la imagen que ves en la pantalla la hace la tarjeta intel, pero si hace falta "acelerar" alguna aplicación concreta (y hablamos de aplicaciones concretas, aunque sean en una ventana pequeñita) la tarjeta de nvidia envía directamente los frames renderizados por ella misma a la tarjeta intel, la cual es capaz de mezclar todo (las ventanas sin aceleración gráfica y las ventanas aceleradas con nvidia) y enviarlo al monitor.

Weikis

Me pasa igual con mi portátil pero no es una iris XE sino una Vega8 del ryzen 7 4800h.

Ojo con esto. Fíjate bien que la aplicación que uses tire de la grafica dedicada. Por que puede pasarte que abras un juego y te use la integrada

mateodd

El USB c no está físicamente conectado a la RTX como el HDMI, igualmente puedes usar un monitor conectado por display port a través de USB c estableciendo que gráfica quieres usar en cada juego, la integrada solo hará de puente para pasar la imagen.

En mi zephyrus pasa algo similar.

🗨️ 1
Oihalitz
1

Mi portatil tiene 2 USB C, uno de ellos saca la señal por la Intel XE y el otro por la RTX.

El HDMI de mi portatil también es por la RTX, por lo cual puedo conectar 2 monitores a la RTX y uno a la integrada.

Jugar a un juego competitivo y que el juego lo renderice en la grafica dedicada y lo pases a una pantalla por la integrada crea input lag

ablackberry

Entonces, lo que entiendo por vuestros comentarios,

es que la RTX solo entra en funcionamiento cuando es necesario y enviaría los datos a la Iris Xe y ésta, a su vez, los manda al monitor. Y por defecto la que se usa es la Iris Xe.

En cuanto a lo de no usar el HDMI, era por hacer uso de los 165hz del monitor, porque por HDMI solo es hasta 144hz.

Lo único que me rallava es no ver que el adaptador que usa el monitor es la RTX. Pero si me decís que al final los datos son procesados por la rtx y mandados a la irisXe, me quedo más tranquila.

Muchas gracias a todos.

Saludos

🗨️ 2
vukits

Pero si me decís que al final los datos son procesados por la rtx y mandados a la irisXe, me quedo más tranquila.

suponemos que ocurre así.

Si quieres estar seguro al 100% de que usas la tarjeta gráfica Nvidia, tienes que conectar a HDMI y configurar como indica la documentación oficial

lhacc

Pero es súper fácil. Compara el rendimiento de un juego moderno por HDMI y por USB-c. Si saca los mismos fps puedes tener tranquilidad