Guía Midjourney V7: Dominando Omni-Reference
La era del --cref ha terminado. Midjourney V7 reescribe las reglas de la consistencia visual con Omni-Reference (--oref), una herramienta que abandona la detección biométrica por una comprensión semántica profunda. En esta guía técnica, desglosamos cómo dominar la "fusión de identidad" y por qué tu viejo flujo de trabajo ya no sirve.
El Nuevo Paradigma: De la Cara al Concepto
Durante la vigencia de la versión 6, la consistencia de personajes dependía de un algoritmo que buscaba patrones geométricos faciales (ojos, nariz, boca). Esto funcionaba bien para humanos, pero fallaba estrepitosamente con cualquier otra cosa. Midjourney V7 introduce Omni-Reference (--oref), un sistema "omnisciente" que no busca caras, sino entidades semánticas dominantes.[1, 2]
Para los usuarios de IA Flow, este cambio es crítico. Ya no estamos "pegando caras"; estamos transfiriendo la esencia de un objeto o persona a una nueva escena. Sin embargo, esto tiene un precio: V7 es mucho más sensible a la contaminación de estilos y requiere una gestión de pesos mucho más precisa.
Diferencias Críticas: V6 vs V7
| Característica | Midjourney V6 (--cref) | Midjourney V7 (--oref) |
|---|---|---|
| Motor de Detección | Biométrico (Rasgos físicos). | Semántico (Concepto/Sujeto). |
| Referencias Múltiples | Soportaba múltiples URLs para mezclar rasgos. | Solo una URL por parámetro (requiere collage externo).[3] |
| Costo GPU | Estándar. | x2 Costo por generación.[3] |
La Física de los Pesos: Dominando --ow
El parámetro Omni-Weight (--ow) es el volante de este nuevo motor. A diferencia de la versión anterior, donde el peso era a menudo binario (se parece o no se parece), en V7 operamos en una escala de 0 a 1000 que define cuánto "respeto" tiene la IA por los píxeles originales.[3, 2]
- Zona de Sugerencia (0 - 99): Útil para transferir una "vibra" o una composición general sin forzar la identidad. Ideal si quieres que tu personaje se parezca a la referencia, pero con un estilo artístico radicalmente opuesto (ej. foto a dibujo animado).
- Zona de Identidad Flexible (100 - 350): El punto dulce para la narrativa. Aquí, la estructura ósea se mantiene, pero la IA tiene permiso para cambiar la iluminación, la textura de la piel (para envejecer) y la ropa. Es el rango necesario para que un personaje actúe e interactúe.[4]
- Zona de Bloqueo Rígido (400 - 1000): A partir de 400, la referencia se convierte en una restricción severa. Úsalo para logotipos corporativos o productos que no pueden variar, pero ten cuidado: causará rigidez en las poses y rechazará cambios de ángulo de cámara.[2]
El Conflicto Algorítmico: --oref vs --sref
Uno de los retos más técnicos en V7 es el "sangrado de estilo". Si usas una foto como referencia de personaje (--oref) y pides un estilo de acuarela (--sref), V7 a menudo luchará por decidir qué hacer, resultando en una cara fotorrealista pegada en un cuerpo pintado.[5, 6]
El Truco Pro: Si el estilo es la prioridad, debes bajar el peso del personaje y subir el del estilo. Una combinación efectiva es
--sw 800 --ow 50. Esto le dice al modelo: "Copia la estructura de la cara vagamente, pero asegúrate de que TODO parezca pintado".[7]
Prompt de la Semana: Metamorfosis Temporal
Para ilustrar el poder de la Zona de Identidad Flexible, hemos diseñado un desafío: envejecer a un personaje joven sin perder su identidad, utilizando una "fricción" controlada entre el texto y la imagen.
cinematic shot, extreme close-up of's eye reflecting a burning city, aged 80 years old, deep weathering wrinkles, hyper-detailed iris texture, distraught expression, ash falling, volumetric smoke lighting, Arri Alexa 65, anamorphic lens flares, high contrast, teal and orange color grading --oref --ow 250 --sw 100 --v 7 --ar 2.39:1
Desglose del Prompt
aged 80 years old, deep weathering wrinkles: Instrucción textual agresiva que entra en conflicto con la foto de referencia joven.--ow 250: El secreto. Un peso estándar de 100 dejaría al personaje demasiado joven. Un peso de 400 ignoraría las arrugas. 250 mantiene la estructura ósea (identidad) pero permite reescribir la textura de la piel (edad).[8]reflecting a burning city: Prueba la capacidad semántica de V7 para renderizar detalles narrativos dentro de la anatomía del personaje.
Flujos de Trabajo Avanzados
1. El Collage Semántico para Múltiples Personajes
Dado que V7 solo acepta una imagen en --oref, la única forma fiable de tener dos personajes específicos interactuando es crear un collage previo. Coloca a tus personajes juntos en Photoshop en las posiciones aproximadas que deseas. Al usar este collage como --oref, V7 es capaz de "leer" quién está a la izquierda y quién a la derecha, asignando las descripciones del prompt a la figura correcta gracias a su atención espacial mejorada.[9, 10]
2. Edición de Precisión en la Web
El editor web (alpha.midjourney.com) desbloquea el verdadero potencial de V7. Ahora puedes seleccionar una región específica (como una mano vacía) y usar una referencia --oref solo para esa selección. Esto permite insertar objetos específicos (un producto, un arma, un accesorio) con una coherencia de iluminación perfecta, algo imposible de hacer solo con texto.[3, 11]
Conclusión
La transición a Omni-Reference marca el fin de la "lotería del prompt" y el comienzo de la dirección creativa asistida. Aunque la curva de aprendizaje del parámetro --ow es pronunciada, dominarla es obligatorio para cualquier profesional que busque consistencia narrativa en 2025.