Inteligencia Artificial que detecta publicaciones de terroristas. Una versión de ti mismo en realidad virtual que parece y se mueve como un humano. Traducciones instantáneas de miles de lenguas.

En el segundo día de la conferencia de desarrolladores F8 en San José, California Facebook intercambió las disculpas por el escándalo de datos y las nuevas funciones, como su servicio de citas, para enfriar los proyectos experimentales y… la ética.

Los ejecutivos de Facebook resumieron este miércoles los últimos avances de la compañía en inteligencia artificial, conectividad y realidad virtual. La investigación está moldeando la nueva generación de Facebook. Por ejemplo, cree que las personas un día estarán juntas en versiones de realidad virtual de sus cocinas.

En medio del tumultuoso 2017 de escándalos para Facebook, que incluyen interferencia electoral, noticias falsas y el uso de datos personales de Cambridge Analytica, la compañía se está centrando en el lado positivo de la innovación en todos sus productos.

Otro ejemplo es cómo Facebook está usando la Inteligencia Artificial para escanear y eliminar contenido, antes incluso de que sea visible para los usuarios, según Mike Schroepfer, director de tecnología de la red social.

En el primer trimestre de 2018, los sistemas automatizados de Facebook marcaron 2 millones de publicaciones de “propaganda terrorista” en el sitio, el 99% de las cuales fueron detectadas antes de ser vistas.

Utilizando tecnología como el procesamiento del lenguaje natural, las herramientas pueden señalar intimidación, incitación al odio y amenazas de autolesión, según Schroepfer.

La moderación del contenido es una preocupación que presiona a la compañía de tecnología. YouTube ha sufrido con contenido ofensivo, incluyendo teorías de la conspiración y videos perturbadores para niños. Facebook alternativamente ha sido acusado de no hacer lo suficiente por eliminar esas publicaciones que incluyen discursos de odio y eliminar demasiado contenido, como el de las mujeres que nombran a sus agresores sexuales.

Mientras ambas compañías han dicho que están sumando más personas para que escaneen el volumen masivo de publicaciones, es casi imposible gestionarlo de forma manual.

Aproximadamente a la mitad de la presentación, la compañía tomó un desvío para hablar a profundidad sobre los problemas de ética con inteligencia artificial.

“Los procesos de verificación solos no son suficiente. Necesitamos asegurarnos de que nuestras acciones y consecuencias están alineadas con un marco ético”, dijo la científica de datos de Facebook, Isabel Kloumann.

Kloumann dijo que Facebook tiene pautas para detectar y corregir los sesgos que aparecen en sus algoritmos. La compañía continúa ampliando sus sistemas de control de sesgo para “evaluar las implicaciones personales y sociales de cada producto que construimos”.

Los usuarios de Instagram (propiedad de Facebook) podrían sorprenderse al saber que sus fotos de fiestas de cumpleaños y perros están siendo usadas para entrenar a estas herramientas de inteligencia artificial. Facebook ha escaneado 3,500 publicaciones públicas para enseñar a su sistema los matices entre una cupcake y un muffin.

Facebook también mostró el trabajo que está haciendo en avatares increíblemente realistas para la realidad virtual que mueven sus labios junto con las palabras que estás diciendo en tiempo real.