Cómo pueden y no pueden utilizarse las cadenas de bloques para autenticar vídeos y contrarrestar las falsificaciones

Hace unos años se hizo evidente queel photoshop-ing del vídeo, de forma que no se distinga de un vídeo auténtico, se aproxima rápidamente. Cuando lo haga, tendrá un grave impacto en las pruebas visuales y, en concreto, en nuestra capacidad de confiar en ellas para conocer los hechos y emitir juicios. Un mundo en el que un vídeo es engañoso deslegitimará incluso las pruebas visuales auténticas y la sociedad recurrirá a los aspectos negativos del tribalismo para ayudar a decidir cuál es su versión de la “verdad”.

Las cadenas de bloques*, la tecnología basada en la criptografía que registra las transacciones de forma verificable y permanente, son muy prometedoras y tendrán un impacto positivo en Internet en los próximos años. Pero no sonla solución a este problema: escribir datos de vídeo manipulados en una cadena de bloques no los convierte en legítimos. (De hecho, puede validar el vídeo falso al escribirlo en una cadena de bloques porque la percepción naciente de la tecnología es que una cadena de bloques es una “fuente de la verdad” y, por extensión, los datos en ella son “la verdad”. No, la única percepción debería ser que los datos no han sido alteradosdesde que se escriben en una blockchain).

Pero las cadenas de bloques pueden ser parte de la solución.

Hay entornos de múltiples partes interesadas en los que las pruebas auditivas y visuales son registros críticos de lo que ocurrió en el caso de una situación. Pueden absolver e implicar y ayudar a las partes neutrales a desentrañar seriamente lo ocurrido, sopesando todas las pruebas, de las que el vídeo es una parte importante.

How Blockchains can and can’t be used in Authenticating Video and Countering Deepfakes Manipular el vídeo con seguridad

Tomemos, por ejemplo, los departamentos de policía (donde los agentes llevan cámaras corporales) y las numerosas partes interesadas que existen cuando se produce un tiroteo. Entre ellos se encuentran el agente implicado, los investigadores, la persona que recibió el disparo y su equipo legal, los fiscales, el juez-jurado, los grupos de vigilancia, los medios de comunicación y el público en general. Muchos de estos grupos son una parte importante de nuestro sistema de controles y equilibrios: ¿cómo puede cada una de estas partes interesadas confiar en la veracidad del vídeo?

Más concretamente, ¿cómo puede cada una de estas partes interesadas confiar en la veracidad del vídeo en un mundo en el que existe el vídeo explotado?

La tecnología de inteligencia artificial conocida como deepfakes permite a los malos actores crear un vídeo maliciosamente alterado cada vez más creíble con cantidades cada vez menores de conocimientos técnicos necesarios para ejecutarlo. Sustituir las cabezas de los políticos en los vídeos de pornografía es un truco común en estos días. Cuando la manipulación de un vídeo, para que parezca realista que alguien ha dicho o hecho algo que no ha hecho , se convierte en algo tan sencillo como aplicar un filtro de Instagram, todos deberíamos ser muy escépticos con los medios de comunicación no ficticios que consumimos. No deberíamos confiar automáticamente en que un vídeo es auténtico y no ha sido alterado, a menos que exista una solución tecnológica probada.

Una solución que incorpore una cadena de custodia inmutable.

Aplicación iOS de autentificación de vídeo de Amber

Una solución a este escenario de las fuerzas del orden es que los vídeos tengan huellas dactilares en la grabadora de origen, las cámaras corporales de la policía. Estas huellas dactilares, o hashes, se escriben en un libro de contabilidad inmutable o blockchain desde la propia grabadora, ya que la mayoría de las cámaras corporales modernas de la policía tienen una conexión inalámbrica. A medida que el vídeo se descarga del dispositivo, se sube a la nube, se recorta y se comparte, cada evento se escribe en un contrato inteligente (un acuerdo transparente que forma parte de muchas cadenas de bloques). Esto crea un rastro de auditoría del archivo y del refrito a lo largo del proceso para asegurarse de que la integridad del archivo permea.

Cuando el archivo es compartido y reproducido por un interesado, el proceso de fingerprinting se vuelve a ejecutar o rehacer, y las huellas digitales se comparan con las del contrato inteligente. O coinciden o no coinciden: es binario. El vídeo es auténtico o el vídeo ha sido alterado.

¿De qué te fiarías más?

a) un archivo que se encuentra en el servidor de la nube de una organización con intereses creados en el resultado de un caso, y dentro de un sistema en el que numerosas personas tienen privilegios de acceso y cuyas prácticas de seguridad son opacas;o

b) un archivo almacenado en un sistema descentralizado, cuyos permisos son transparentes, y cuyas huellas digitales -que usted mismo puede confirmar de forma independiente- e historial de auditoría son fácilmente accesibles?

Como las partes interesadas deberían tener más confianza en la inmutabilidad de una blockchain que en las políticas y prácticas de seguridad de una parte sesgada, la duda en la legitimidad del vídeo retrocederá. Una premisa clave del diseño de la cadena de bloques es la minimización de la confianza. Pretende crear un entorno seguro entre las personas y las cosas (como los dispositivos con acceso a Internet) y permite a terceros realizar transacciones con confianza.

Incluso para las organizaciones y departamentos que registran las pruebas: no quieren verse empañados por falsas acusaciones y mentiras. No quieren estar en el extremo receptor de un vídeo falsificado que pretende que sus agentes cometieron una infracción que en realidad no ocurrió y que era antitética a su misión. Y los árbitros, así como la sociedad en su conjunto, tendrán que ser escépticos con los vídeos de cámaras corporales y de transeúntes que se compartan y que no tengan una cadena de custodia válida.

Hace unos años quedó claro que la fotografía del vídeo, de forma que no se distinga de un vídeo auténtico, se aproxima rápidamente. Cuando lo haga, tendrá un grave impacto en las pruebas visuales y, en concreto, en nuestra capacidad de confiar en ellas para conocer los hechos y emitir juicios. Un mundo en el que un vídeo es engañoso deslegitimará incluso las pruebas visuales auténticas y la sociedad recurrirá a los aspectos negativos del tribalismo para ayudar a decidir cuál es su versión de la “verdad”.

Las cadenas de bloques*, la tecnología basada en la criptografía que registra las transacciones de forma verificable y permanente, son muy prometedoras y tendrán un impacto positivo en Internet en los próximos años. Pero no son la solución a este problema: escribir datos de vídeo manipulados en una cadena de bloques no los convierte en legítimos. (De hecho, puede validar el vídeo falso al escribirlo en una cadena de bloques porque la percepción naciente de la tecnología es que una cadena de bloques es una “fuente de verdad” y, por extensión, los datos en ella son “verdad”. No, la única percepción debería ser que los datos están inalterados desde que se escriben en una blockchain).

Pero las cadenas de bloques pueden ser parte de la solución.

Hay entornos de múltiples partes interesadas en los que las pruebas auditivas y visuales son registros críticos de lo que ocurrió en el caso de una situación.Pueden absolver e implicar y ayudar a las partes neutrales a desentrañar seriamente lo ocurrido, sopesando todas las pruebas, de las que el vídeo es una parte importante.

How Blockchains can and can’t be used in Authenticating Video and Countering Deepfakes Manipular el vídeo con facilidad

Tomemos, por ejemplo, los departamentos de policía (donde los agentes llevan cámaras corporales) y las numerosas partes interesadas que existen cuando se produce un tiroteo. Entre ellos se encuentran el agente implicado, los investigadores, la persona que recibió el disparo y su equipo legal, los fiscales, el juez-jurado, los grupos de vigilancia, los medios de comunicación y el público en general. Muchos de estos grupos son una parte importante de nuestro sistema de controles y equilibrios: ¿cómo puede cada una de estas partes interesadas confiar en la veracidad del vídeo?

Más concretamente, ¿cómo puede cada una de estas partes interesadas confiar en la veracidad del vídeo en un mundo en el que existe el vídeo explotado?

La tecnología de inteligencia artificial conocida como deepfakes permite a los malos actores crear un vídeo maliciosamente alterado cada vez más creíble con cantidades cada vez menores de conocimientos técnicos necesarios para ejecutarlo. Sustituir las cabezas de los políticos en los vídeos de pornografía es un truco común en estos días. Cuando la manipulación de un vídeo, para que parezca realista que alguien ha dicho o hecho algo que no ha hecho , se convierte en algo tan sencillo como aplicar un filtro de Instagram, todos deberíamos ser muy escépticos con los medios de comunicación no ficticios que consumimos. No deberíamos confiar automáticamente en que un vídeo es auténtico y no ha sido alterado, a menos que exista una solución tecnológica probada.

Una solución que incorpore una cadena de custodia inmutable.

How Blockchains can and can’t be used in Authenticating Video and Countering Deepfakes La aplicación iOS de autenticación de vídeo de Amber

Una solución a la situación anterior de las fuerzas del orden es que se tomen huellas dactilares de los vídeos en la grabadora de origen, las cámaras corporales de la policía. Estas huellas dactilares, o hashes, se escriben en un libro de contabilidad inmutable o blockchain desde la propia grabadora, ya que la mayoría de las cámaras corporales modernas de la policía tienen una conexión inalámbrica. A medida que el vídeo se descarga del dispositivo, se sube a la nube, se recorta y se comparte, cada evento se escribe en un contrato inteligente (un acuerdo transparente que forma parte de muchas cadenas de bloques). Esto crea un rastro de auditoría del archivo y del refrito a lo largo del proceso para asegurarse de que la integridad del archivo permea.

Cuando el archivo es compartido y reproducido por un interesado, el proceso de fingerprinting se vuelve a ejecutar o rehacer, y las huellas digitales se comparan con las del contrato inteligente. O coinciden o no coinciden: es binario. El vídeo es auténtico o el vídeo ha sido alterado.

Incluso para las organizaciones y departamentos que graban las pruebas: no quieren verse empañados por falsas acusaciones y mentiras. No quieren estar en el extremo receptor de un vídeo falsificado que pretende que sus agentes cometieron una infracción que en realidad no ocurrió y que era antitética a su misión. Y los árbitros, así como la sociedad en su conjunto, tendrán que ser escépticos con los vídeos de cámaras corporales y de transeúntes que se compartan y que no tengan una cadena de custodia válida.

Una defensa frecuente en futuros juicios, si no hemos implementado una solución para entonces, será que “la manipulación del vídeo es algo habitual y el sistema judicial no puede confiar en la policía o en la fiscalía, ya que son partes parciales que grabaron y guardaron las pruebas en sus propios sistemas inseguros. Por lo tanto, las pruebas deben ser desechadas”. Puede que los abogados defensores ni siquiera necesiten demostrar quién ha alterado supuestamente un vídeo: el mero hecho de que existan vídeos falsos deslegitimará los vídeos auténticos. Junto con auténticas dudas sobre la integridad de los datos en los sistemas centralizados, podría ser suficiente para desestimar las pruebas de vídeo. Y sin esas pruebas de vídeo, el caso podría ser desestimado.

Habrá malos actores en ambos lados de un tema controvertido, cada uno de ellos con la intención de sesgar el sentimiento público a su favor. Los malos actores distribuirán vídeos falsos a través de las cámaras de eco de las redes sociales, con la esperanza de que se difundan, creen controversia, generen indignación y catalicen la agitación.

No debemos permitir que esto ocurra. Necesitamos las tecnologías, los diseños de sistemas y los incentivos adecuados para evitarlo. Las conclusiones basadas en la evidencia han sido fundamentales para el avance de las sociedades. Recurrir a los aspectos negativos del tribalismo para emitir juicios mermará las instituciones democráticas.

No podemos evitar que la tecnología avance rápidamente y que las personas que la utilizan con malicia creen falsificaciones, pero sí podemos evitar su impacto.

Al tomar las huellas dactilares del vídeo de forma segura en el momento de la grabación y rastrear esos hashtags hasta su distribución, se eliminará una de las principales fuentes de duda entre las partes interesadas, cuando el vídeo falso es frecuente. Cuando los malos actores manipulan los vídeos y los distribuyen en línea para sembrar el caos, las personas razonables, guiadas por la búsqueda de los hechos, podrán confirmar la legitimidad de un vídeo y centrarse en lo que realmente ocurrió en una escena grabada.

Y la tecnología blockchain es una tecnología importante en este proceso para crear una minimización de la confianza (frente a la confianza en sistemas vulnerables), combatir la manipulación del vídeo y preservar el debido proceso.

Fuente original:https:/hackernoon.com

Descargo de responsabilidad: Este artículo no debe utilizarse como un consejo de inversión o de comercio financiero y refleja las opiniones personales del autor. Por favor, lleve a cabo la debida diligencia antes de invertir en cualquier activo digital. Los puntos de vista, las opiniones y las posiciones expresadas en los artículos de los invitados son los del autor y no representan los de Tokens24. No se garantiza la exactitud, integridad y validez de las declaraciones realizadas en este artículo. Tokens 24 no acepta ninguna responsabilidad por cualquier error, omisión o representación. Los derechos de autor de este contenido pertenecen al autor y cualquier responsabilidad con respecto a la infracción de los derechos de propiedad intelectual permanece con ellos.

Sobre el autorShamir Allibhai

Shamir crea productos de IA de vídeo y es el fundador de AmberVideo.co y SimonSays.ai

Deja un comentario