IDEAS DE NEGOCIO

Halla el vídeo que buscas

Vilynx, que ha captado 5,7 millones entre aportación de fondos y conversión de préstamos en capital, quiere elevar este año las imágenes indexadas de su base de datos de los 25 millones actuales a 1.000 millones

EQUIPO. De izquierda a derecha, Elisenda Bou, Joan Espadaler, Asier Adúriz, Connor Golden, David Varas, Jordi Ferreira, Dèlia Fernandez y Jorge Rance.

EQUIPO. De izquierda a derecha, Elisenda Bou, Joan Espadaler, Asier Adúriz, Connor Golden, David Varas, Jordi Ferreira, Dèlia Fernandez y Jorge Rance.

AGUSTÍ
SALA

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

El reto de Vilynx parece titánico: pasar de los 25 millones de vídeos que tienen indexados y etiquetados en la actualidad a unos 1.000 millones a finales de este año. Pese a las cifras astronómicas, la fórmula de esta compañía catalana parece que funciona, ya que acaba de recibir 5,7 millones de euros. Una parte, 3,29 millones, se ha estructurado mediante una aportación de capital liderada por Kibo Ventures y los otros 2,43 millones, con préstamos participativos que se convierten en capital.

La empresa, ubicada en el Parc K2M de la Universitat Politècnica de Catalunya (UPC) y con otra sede en San Francisco (EEUU), cuenta también con la participación del fondo de capital riesgo Ridgewood Capital, el business angel Joe Golden, o inversores españoles como Caixa Capital Risc o Ramon Bernat, de la familia fundadora de Chupa Chups.

En esencia, el sistema de la Vilynx para poner orden al desordenado mundo de internet consiste en la automatización de los sistemas de obtención de información de los vídeos. El secreto está en en «enseñar a las máquinas qué es lo que hay en los vídeos, es decir, se le entrena para que aprenda sola», o lo que es lo mismo: machine learning, explica Elisenda Bou, cofundadora de la firma y doctora por la UPC con la doble titulación de ingeniería de telecomunicaciones y electrónica por la UPC y el Massachusetts Institute of Technology (MIT).

Este proceso de transformación de las imágenes en texto para luego indexar y etiquetar los vídeos es algo más habitual con audio, pero más innovador en vídeo. Google lo hace con unos 3.000 conceptos, el equivalente al lenguaje que domina un niño de cinco años, dice Bou. Un adulto domina unos 30.000 y, los más avanzados, llegan a unos 40.000.

Por su parte, la máquina de Vilynx reconoce más de cuatro millones de palabras de todos los idiomas. A través de una capacidad de computación que les proporciona Intel, compañía con la que mantienen un acuerdo, se monitoriza toda la web las 24 horas del día los 365 días del año y se combinan estos con los comentarios sobre los vídeos. Se procesan unos 10.000 al día. Con todo ello, la máquina autoaprende. Cuanto mayor es la base de datos, más interpreta lo que ve y lo etiqueta.

El reto parece monumental. Se estima que cada minuto se suben a internet unas 1.000 horas de vídeo. Las imágenes proceden de los medios de comunicación, creadores de contenidos, cámaras de seguridad, las que llevan los coches.... El objetivo es tenerlo todo indexado y etiquetado, explica Juan Carlos Riveiro, confundador y que mantiene la conversación a través de internet, ya que vive en San Francisco (EEUU). Riveiro fue fundador también de Gigle Networks, vendida en el 2006 a la multinacional Broadcom.

En realidad, apenas hace seis meses que lanzaron al mercado dos productos, pese a que nacieron en el 2013: una herramienta para hacer resúmenes automatizados de 5 segundos con los momentos más relevantes de un vídeo, y otra para etiquetar, de forma automática, qué aparece en un vídeo. Es una fórmula que eleva entre el 40% y el 60% los clics y, por tanto, con potencial de elevar los ingresos de quien lo utiliza, explican.

El método de Vilynx permite generar un gráfico de conocimiento para crear resúmenes y recomendaciones personalizadas para los usuarios. El autoaprendizaje del sistema permite, por ejemplo, encontrar la cobra que David Bisbal le hizo a Chenoa cuando cantaron juntos. El sistema no sabía inicialmente qué era «hacer la cobra». Tras procesar vídeos y comentarios lo aprendió.

Y lo mismo las imágenes de cuando el judoca egipcio Islam El Shehaby recibió fuertes abucheos en los Juegos Olímpicos de Río después de negarse a estrechar la mano de su rival israelí Or Sasson. De entrada, las máquinas no sabían lo que significaba «no dar la mano», sino lo contrario. A las 24 horas ya lo «entendieron» y pudieron identificar todos los vídeos en los que se producía una acción similar para encontrarlos y compartirlos en redes sociales.

Con todo ello prevén que en el plazo de dos años equilibrarán gastos e ingresos y obtendrán un cash-flow positivo. Sus clientes en la actualidad son empresas de contenidos y medios digitales, en su gran mayoría en EEUU. La compañía cuenta en la actualidad con un total de 19 socios trabajadores.