Eva Toledo, directora de Estrategia y Protección

Padima crea una herramienta para detectar y eliminar información falsa

"Hemos desarrollado Smart Brand Protection porque detectamos muchos vacíos en cuanto a gestión de marca en la red"

Presentación de Smart Brand Protection ayer en Las Naves. | E3

Con el Siglo XXI ya avanzado, el terreno laboral por excelencia es la red. La absoluta mayoría de empresas marcas están obligadas a servirse de ella para lograr el éxito. Pero la red vive un crecimiento exponencial permanente que la ha convertido en una ciberjungla sin límites, en la que la información falsa campa sin control, y puede enriquecer o arruinar a cualquiera utilizando métodos fraudulentos. Para protegerse de esta amenaza, la consultoría de Propiedad Industrial Padima ha lanzado al mercado Smart Brand Protection, que limpia la red de ofertas, perfiles o webs ilícitas que afectan el posicionamiento en internet aunque su información carezca de base real.

Eva Toledo, directora de Estrategia y Protección de Padima, nos habla de cómo funciona esta innovadora solución que se presentó ayer en Las Naves.

-¿Puedes describir, en líneas generales, en qué consiste Smart Brand Protection?

-Es una herramienta que hemos desarrollado conjuntamente Padima y Smart Protection, porque detectamos hace tiempo que había muchos vacíos en cuanto a la gestión de  marca en la red. Como todos sabemos, la red es mundial, no hay fronteras, no existe tampoco una legislación directa, y en ella tienen lugar cuestiones como los ataques reputacionales, manifestaciones en el límite entre la libertad de expresión,  e incluso ya se ha automatizado la posibilidad de verter contenidos para agredir la marca de un competidor. Por otro lado, también se encontraba muchísima oferta de mercancía falsificada en la red, que afecta a las ventas de una empresa y al funcionamiento de una marca. Para poder controlar todo esto, se requerían ingentes cantidades de personas buscando información todo el día en redes, plataformas…

…Y eso es imposible.

-Imposible. Esta herramienta permite, de manera automática, 365 días al año y las 24 horas del día, disponer de motores de búsqueda en marketplaces, redes sociales, Google, etc, y detectar resultados que califica dependiendo de la gravedad como muy peligrosos, peligrosos o residuales, a través de colores. Posteriormente, se requiere un tratamiento manual para distinguir que todo lo que creamos que pueda ser una infracción o un comportamiento desleal, lo llevemos al cajón donde se clasifican las posibles denuncias. La herramienta automáticamente realiza la desindexación de páginas para eliminar contenidos, de manera que agiliza un trabajo que de otra manera costaría mucho.

Padima

| E3

-La herramienta puede dar la primera impresión de ser difícil de manejar. ¿Se puede utilizar desde el salón de casa, o se necesita la ayuda de más gente?

-Va dirigida a empresas o grandes marcas que tengan esta necesidad. Tiene un panel de control visual muy intuitivo, porque está clasificado por colores, y con pasos a seguir muy claros. En el momento de verificar los resultados que el ordenador clasifica como muy peligrosos o peligrosos, se requerirá de la actuación de una persona especializada para indicar si esa amenaza se ajusta o no a la ley. Nosotros también ofrecemos ese servicio de estudio, análisis y recomendación, pero puede haber una empresa que tenga su propia área legal con personal cualificado para hacer ese análisis. El ordenador preclasifica la información, pero no se puede asumir directamente que todo eso sea un contenido no autorizado o negativo.

-Hablamos exclusivamente de derechos empresariales, no personales.

-Claro. Marca, diseños de imagen de producto y también ataque reputacional. Respecto a personas, también se pueden repasar las opiniones que se viertan sobre una persona con vida pública, porque el programa ve su nombre como si fuera una marca y vigila todo lo que ocurra alrededor de esa marca personal.

-Por lo que dices, el ámbito de actuación de Smart Brand Protection roza el terreno de las fake news.

-Correcto. También va dirigido a detectarlas. Podemos descubrir un contenido que habla de nosotros y analizar si se basa en algo cierto, por lo que tendremos que respetar la libertad de expresión o, por el contrario, esa noticia parte de un hecho manifiestamente incierto y podemos actuar contra la plataforma, la revista o la persona que haya divulgado esa información. Por eso digo que siempre hay una fase de análisis de aquellos resultados que son más sensibles. Pero, sin duda, es una gran ayuda.

Suscríbete a nuestra newsletter