* El API gratuito le ayudará a los encargados de monitorizar Internet a quitar material ilegal de forma más rápida, según Google.

MVS

CALIFORNIA. Google lanzó el lunes una herramienta gratuita de inteligencia artificial para ayudar a las empresas y organizaciones a identificar imágenes de abuso sexual infantil en Internet.

Content Safety API de Google es un kit de herramientas para desarrolladores que utiliza las redes neuronales para procesar imágenes de tal forma que menos personas sean expuestas a ellas. La técnica puede ayudar a los encargados de monitorizar Internet a identificar 700 por ciento más contenido de abuso infantil, dijo Google.

“La rápida identificación de nuevas imágenes significa que los niños que sufren de abuso sexual puedan ser identificados y protegidos de más abuso”, dijeron en un blog el lunes Nikola Todorovic, jefe de ingeniería, y Abhi Chaudhuri, director de producto. “La herramienta está disponible de forma gratuita a organizaciones sin fines de lucro y socios de la industria a través de Content Safety API, un kit de herramientas para ayudar a incrementar la capacidad de revisar contenido de tal forma que menos personas sean expuestas a estas imágenes”.

El uso de la inteligencia artificial se está expandiendo rápidamente en la industria de la tecnología para el reconocimiento de voz y el filtro de spam. Este término se usa comúnmente para referirse a tecnologías como el aprendizaje de máquinas o las redes neuronales que están generalmente diseñadas siguiendo el modelo del cerebro humano. Una vez que hayas entrenado a una red neuronal con datos del mundo real, este puede, por ejemplo, aprender a identificar email spam, transcribir palabras habladas en un mensaje de texto o reconocer a un gato.

No hay comentarios

Dejar respuesta

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.