Las herramientas de tecnología profunda y sin código ayudarán a los futuros artistas a crear un mejor contenido visual

Este artículo fue una contribución de Abigail Hunter-Syed, socia de LDV Capital.

A pesar del bombo publicitario, la “economía creadora” no es nueva. Ha existido durante generaciones, principalmente en productos físicos (cerámica, joyas, pinturas, libros, fotos, videos, etc.). Durante las últimas dos décadas, se ha vuelto predominantemente digital. La digitalización de la creación ha provocado un cambio masivo en la creación de contenido donde todos y su madre ahora están creando, compartiendo y participando en línea.

La gran mayoría del contenido que se crea y consume en Internet es contenido visual. En nuestro Informe reciente de Insights en LDV Capital, descubrimos que para 2027 habrá al menos 100 veces más contenido visual en el mundo. La futura economía de los creadores estará impulsada por herramientas de tecnología visual que automatizarán varios aspectos de la creación de contenido y eliminarán la habilidad técnica de la creación digital. Este artículo analiza los resultados de nuestro reciente informe de conocimientos.

Grupo de superhéroes sobre un fondo oscuro

Arriba: © LDV CAPITAL INSIGHTS 2021

Crédito de la imagen: © LDV CAPITAL INSIGHTS 2021

Ahora vivimos tanto en línea como en persona y, como tal, participamos y generamos más contenido que nunca. Ya sea texto, fotos, videos, historias, películas, transmisiones en vivo, videojuegos o cualquier otra cosa que se vea en nuestras pantallas, es contenido visual.

Actualmente, se necesita tiempo, a menudo años, de capacitación previa para producir una sola pieza de contenido visual de calidad y relevante para el contexto. Por lo general, también ha requerido una gran experiencia técnica para producir contenido a la velocidad y las cantidades requeridas en la actualidad. Pero las nuevas plataformas y herramientas impulsadas por tecnologías visuales están cambiando el paradigma.

Computadora La visión ayudará a la transmisión en vivo.

Livestreaming es un video que se graba y transmite en tiempo real a través de Internet y es uno de los segmentos de video en línea de más rápido crecimiento, y se prevé que sea una industria de $ 150 mil millones para 2027. Más del 60% de las personas de 18 a 34 años miran Transmisión en vivo de contenido a diario, lo que la convierte en una de las formas más populares de contenido en línea.

Los juegos son el contenido de transmisión en vivo más destacado en la actualidad, pero las compras, la cocina y los eventos están creciendo rápidamente y continuarán en esa trayectoria.

Los streamers más exitosos en la actualidad dedican de 50 a 60 horas a la semana transmitiendo en vivo y muchas más horas en producción. Las herramientas de tecnología visual que aprovechan la visión por computadora, el análisis de sentimientos, la tecnología de superposición y más ayudarán a la automatización de la transmisión en vivo. Permitirán que los feeds de los streamers se analicen en tiempo real para agregar elementos de producción que mejoran la calidad y reducen el tiempo y las habilidades técnicas requeridas para los streamers en la actualidad.

El contenido visual sintético será omnipresente

Gran parte del contenido visual que vemos hoy en día ya son gráficos generados por computadora (CGI), efectos especiales (VFX) o alterados por software (por ejemplo, Photoshop). Ya sea el ejército de los muertos en Game of Thrones o una imagen redimensionada de Kim Kardashian en una revista, vemos contenido en todas partes que ha sido diseñado y alterado digitalmente por artistas humanos. Ahora, las computadoras y la inteligencia artificial pueden generar imágenes y videos de personas, cosas y lugares que nunca existieron físicamente.

Para 2027, veremos más imágenes y videos sintéticos fotorrealistas que los que documentan a una persona o un lugar real. Algunos expertos en nuestro informe incluso proyectan que el contenido visual sintético será casi el 95% del contenido que vemos. Los medios sintéticos utilizan redes generativas de confrontación (GAN) para escribir texto, hacer fotos, crear escenarios de juegos y más utilizando indicaciones simples de humanos como “escríbeme 100 palabras sobre un pingüino en la cima de un volcán”. Las GAN son el próximo Photoshop.

L: dibujo de reparación creado, R: imagen horizontal creada por GauGAN de NVIDIA a partir del dibujo

Arriba: L: dibujo de reparación creado, R: imagen horizontal creada por GauGAN de NVIDIA a partir del dibujo

Crédito de la imagen: © LDV CAPITAL INSIGHTS 2021

En algunas circunstancias, será más rápido, más barato y más inclusivo sintetizar objetos y personas que contratar modelos, buscar ubicaciones y hacer una sesión de fotos o videos completos. Además, permitirá que el video sea programable, tan simple como hacer una plataforma de diapositivas.

Los medios sintéticos que aprovechan las GAN también pueden personalizar el contenido casi instantáneamente y, por lo tanto, permiten que cualquier video hable directamente al espectador usando su nombre o escriba un videojuego en tiempo real mientras una persona juega. Las industrias de juegos, marketing y publicidad ya están experimentando con las primeras aplicaciones comerciales de GAN y medios sintéticos.

La inteligencia artificial cumplirá movimiento captura a las masas

Los videos animados requieren experiencia, así como incluso más tiempo y presupuesto que el contenido protagonizado por personas físicas. El video animado generalmente se refiere a dibujos animados en 2D y 3D, gráficos en movimiento, imágenes generadas por computadora (CGI) y efectos visuales (VFX). Serán una parte cada vez más esencial de la estrategia de contenido para las marcas y las empresas desplegadas en canales de imagen, video y transmisión en vivo como un mecanismo para diversificar el contenido.

Gráfico que muestra el paisaje de captura de movimiento

Arriba: © LDV CAPITAL INSIGHTS 2021

Crédito de la imagen: © LDV CAPITAL INSIGHTS 2021

El mayor obstáculo para generar contenido animado hoy en día es la habilidad, y el tiempo y el presupuesto resultantes, necesarios para crearlo. Un animador tradicional suele crear 4 segundos de contenido por día laboral. La captura de movimiento (MoCap) es una herramienta que los animadores profesionales suelen utilizar en el cine, la televisión y los juegos para grabar un patrón físico de los movimientos de un individuo de forma digital con el fin de animarlos. Un ejemplo sería algo como grabar el tiro en suspensión de Steph Curry para NBA2K

Los avances en fotogrametría, aprendizaje profundo e inteligencia artificial (IA) están habilitando MoCap basado en cámara, con poco o ningún traje, sensor o hardware. La captura de movimiento facial ya ha recorrido un largo camino, como lo demuestran algunos de los increíbles filtros de fotos y videos que existen. A medida que las capacidades avancen a la captura de cuerpo completo, MoCap será más fácil, más rápido, económico y más accesible para la creación de contenido visual animado para producción de video, transmisión en vivo de personajes virtuales, juegos y más.

Casi todo el contenido estará gamificado

Los juegos son una industria masiva que alcanzará casi $ 236 mil millones a nivel mundial para 2027. Eso se expandirá y crecerá a medida que más y más contenido introduzca la gamificación para fomentar la interactividad con el contenido. La gamificación consiste en aplicar elementos típicos del juego, como la puntuación, la interactividad y la competencia para fomentar el compromiso.

Los juegos con objetivos no similares a los de un juego y con historias más diversas permiten que los juegos atraigan a un público más amplio. Con un crecimiento en la cantidad de jugadores, la diversidad y las horas dedicadas a jugar juegos en línea generarán una gran demanda de contenido único.

Las capacidades de inteligencia artificial y de infraestructura en la nube desempeñan un papel importante a la hora de ayudar a los desarrolladores de juegos a crear toneladas de contenido nuevo. Las GAN ludificarán y personalizarán el contenido, lo que atraerá a más jugadores y ampliará las interacciones y la comunidad. Los juegos como servicio (GaaS) se convertirán en un modelo comercial importante para los juegos. Las plataformas de juegos están liderando el crecimiento de espacios interactivos inmersivos en línea.

La gente interactuará con muchos seres digitales.

Tendremos identidades digitales para producir, consumir e interactuar con contenidos. En nuestra vida física, las personas tienen muchos aspectos de su personalidad y se representan a sí mismos de manera diferente en diferentes circunstancias: la sala de juntas frente al bar, en grupos frente a solos, etc. En línea, los nombres de pantalla de AOL de la vieja escuela ya se han convertido en fotos de perfil, memojis, avatares, gamertags y más. Durante los próximos cinco años, la persona promedio tendrá al menos 3 versiones digitales de sí misma tanto fotorrealistas como fantásticas para participar en línea.

Cinco ejemplos de identidades digitales

Arriba: © LDV CAPITAL INSIGHTS 2021

Crédito de la imagen: © LDV CAPITAL INSIGHTS 2021

Las identidades digitales (o avatares) requieren tecnología visual. Algunos permitirán el anonimato público del individuo, algunos serán seudónimos y otros estarán directamente vinculados a la identidad física. Un número creciente de ellos será impulsado por IA.

Estos seres virtuales autónomos tendrán personalidades, sentimientos, capacidades para resolver problemas y más. Algunos de ellos estarán programados para verse, sonar, actuar y moverse como una persona física real. Serán nuestros asistentes, compañeros de trabajo, médicos, citas y mucho más.

La interacción con avatares impulsados ​​por personas y seres virtuales autónomos en mundos virtuales y con contenido gamificado prepara el escenario para el surgimiento del Metaverso. El Metaverso no podría existir sin tecnología visual y contenido visual y lo explicaré en un artículo futuro.

El aprendizaje automático curará, autenticará y moderará el contenido

Para que los creadores produzcan continuamente los volúmenes de contenido necesarios para competir en el mundo digital, se desarrollará una variedad de herramientas para automatizar el reempaquetado de contenido de formato largo a formato corto, desde videos a blogs, o viceversa, publicaciones sociales. , y más. Estos sistemas seleccionarán automáticamente el contenido y el formato en función del rendimiento de publicaciones anteriores utilizando análisis automatizados de visión por computadora, reconocimiento de imágenes, análisis de sentimientos y aprendizaje automático. También informarán a la próxima generación de contenido que se creará.

Para luego filtrar la enorme cantidad de contenido de manera más efectiva, los bots de curación autónomos impulsados ​​por algoritmos inteligentes examinarán y nos presentarán contenido personalizado según nuestros intereses y aspiraciones. Con el tiempo, veremos contenido de video sintético personalizado que reemplazará los boletines, los medios y los correos electrónicos con mucho texto.

Además, la gran cantidad de contenido nuevo, incluido el contenido visual, requerirá formas de autenticarlo y atribuirlo al creador tanto para la gestión de derechos como para la gestión de falsificaciones profundas, noticias falsas y más. Para 2027, la mayoría de los teléfonos de consumo podrán autenticar contenido a través de aplicaciones.

También es muy importante detectar contenido perturbador y peligroso, y es cada vez más difícil de hacer dada la gran cantidad de contenido publicado. Los algoritmos de inteligencia artificial y visión por computadora son necesarios para automatizar este proceso al detectar el discurso de odio, la pornografía gráfica y los ataques violentos porque es demasiado difícil de hacer manualmente en tiempo real y no es rentable. Se requerirá moderación multimodal que incluya reconocimiento de imágenes, así como reconocimiento de voz, texto y más.

Las herramientas de contenido visual son la mayor oportunidad en la economía de los creadores

Los próximos cinco años verán creadores individuales que aprovechan las herramientas de tecnología visual para crear contenido visual que rivaliza con los equipos de producción profesional en la calidad y cantidad del contenido que producen. Las mayores oportunidades comerciales hoy en día en la Economía de los Creadores son las plataformas y herramientas de tecnología visual que permitirán a esos creadores centrarse en el contenido y no en la creación técnica.

Abigail Hunter-Syed es socio de LDV Capital que invierte en personas que desarrollan negocios con tecnología visual. Ella prospera colaborando con equipos técnicos profundos que aprovechan la visión por computadora, el aprendizaje automático y la inteligencia artificial para analizar datos visuales. Tiene una trayectoria de más de diez años de liderazgo en estrategia, operaciones e inversiones en empresas de cuatro continentes y rara vez dice no a los helados suaves.

DataDecisionMakers

¡Bienvenido a la comunidad VentureBeat!

DataDecisionMakers es donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir conocimientos e innovación relacionados con los datos.

Si desea leer sobre ideas de vanguardia e información actualizada, las mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.

¡Incluso podría considerar contribuir con un artículo propio!

Leer más de DataDecisionMakers


Source: VentureBeat by venturebeat.com.

*The article has been translated based on the content of VentureBeat by venturebeat.com. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!