La imagen como forma de (des)conocimiento en la era del deepfake

Autores/as

DOI:

https://doi.org/10.4995/aniav.2022.17309

Palabras clave:

Imagen, representación, conocimiento, deepfake, verdad, inteligencia artificial

Resumen

Las máquinas que producen deepfakes no necesitan del mundo real para producir representaciones verosímiles. Esto debería producir la crisis del viejo contrato de veridicción que mantenemos con las imágenes. La irrupción del deepfake convierte la totalidad de las imágenes en materiales para una agencia artística. Sin embargo, instituciones como la justicia mantienen la confianza en la imagen como dispositivo de conocimiento. En un contexto social de profunda sospecha sobre cualquier tipo de representación, la imagen aún se utiliza para determinar lo verdadero y lo falso. Desde la aparición del deepfake se suceden medidas y contramedidas, cada vez más dependientes de la inteligencia artificial, destinadas a seguir manteniendo a las imágenes como parte del aparato epistemológico que empleamos para conocer el mundo.
En este artículo, a través de diferentes estudios de caso, bibliografía y documentos relevantes sobre el tema, se traza una línea sobre el esfuerzo por comprobar la autenticidad de las imágenes como representaciones fieles de la realidad. Esta línea une las viejas fake pictures, con el nuevo fenómeno del deepfake. Concluimos cuestionándonos si las imágenes no son ya sólo un simple reflejo de nuestros deseos de ver, al tiempo que hemos abandonado y entregado totalmente a las máquinas nuestro aparato crítico de determinación de la verdad. En este contexto, lo que es real se dirime en una conversación en entre máquinas (GAN) por su apariencia verosímil, pero no por su contenido.

Descargas

Los datos de descargas todavía no están disponibles.

Citas

Adjer, Henry, Giorgio Patrini, Francesco Cavalli, y Laurence Cullen. 2019. «The state of deepfakes. Landscape, threats, and impact». https://regmedia.co.uk/2019/10/08/deepfake_report.pdf

Aldama, Juan Alonso. 2020. «Regímenes de veridicción y simulacros de la política». deSignis, n.o 33: 47‐55. https://doi.org/10.35659/designis.i33p47‐55

«Análisis forense de imágenes». s. f. Text. https://peritos.online. Accedido 9 de abril de 2021. https://peritos.online/peritos‐judiciales/analisis‐forense‐de‐imagenes.html

BBC News Mundo. s. f. «Especial BBC: las "escalofriantes" grabaciones secretas del asesinato del periodista Jamal Khashoggi». Accedido 14 de abril de 2021. https://www.bbc.com/mundo/noticias‐internacional‐49892850

Bregler, Christoph, Michele Covell, y Malcolm Slaney. 1997. «Video Rewrite: Driving Visual Speech with Audio», 8. https://doi.org/10.1145/258734.258880

Cruz, Albano. 2019. «Seminario Deepfakes: ficción, política y algoritmos». En Madrid: Media‐Lab Prado. https://www.youtube.com/watch?v=BF27cuQ3MO0

F. Casal, Ángela. s. f. «Vídeos y audios "deepfake": un paso más hacia el engaño en las redes sociales». UOC (Universitat Oberta de Catalunya). Accedido 28 de marzo de 2021. https://www.uoc.edu/portal/es/news/actualitat/2020/419‐videos‐audiosdeepfake.html

Fontcuberta, Joan. 1997. El beso de Judas: fotografía y verdad. G. Gili.

Gandasegui, Vicente Díaz. 2012. «Espectadores de Falsos Documentales: Los falsos documentales en la Sociedad de la Información». Athenea Digital: revista de pensamiento e investigación social 12 (3): 153‐62. https://doi.org/10.5565/rev/athenead/v12n3.993

García Martínez, Alberto Nahum. 2007. «La traición de las imágenes: mecanismos y estrategias retóricas de la falsificación audiovisual». Zer (Bilbao, Spain), n.o 22.

Ges, Marcel. 2001. «Imágenes para la confusión». En Imágenes para la sospecha: falsos documentales y otras piruetas de la no‐ficción. Barcelona: Glénat.

Gloe, Thomas, Matthias Kirchner, Antje Winkler, y Rainer Böhme. 2007. «Can we trust digital image forensics?» En Proceedings of the 15th ACM international conference on Multimedia, 78‐86. MM '07. New York, NY, USA: Association for Computing Machinery. https://doi.org/10.1145/1291233.1291252

González‐García, Ricardo. 2019. «Entre Fakes y Factoids: La Condición de Lo Falso En La Difusa Esfera Del Arte Contemporáneo Tras La Era de La Posverdad». Artnodes, n.o 24: 101‐10. https://doi.org/10.7238/a.v0i24.3287

Lewis, Mark. 2019. A los gatos, ni tocarlos: Un asesino en internet. Documental. Netflix. https://www.filmaffinity.com/es/film700281.html

Ley 1/2000, de 7 de enero, de Enjuiciamiento Civil. s. f. Accedido 9 de abril de 2021. https://www.boe.es/buscar/act.php?id=BOE‐A‐2000‐323

Ley Orgánica 10/1995, de 23 de noviembre, del Código Penal. s. f. Accedido 9 de abril de 2021. https://www.boe.es/buscar/act.php?id=BOE‐A‐1995‐25444

López Cantos, Francisco. 2010. «La imagen científica: tecnología y artefacto», agosto. https://doi.org/10.14198/MEDCOM2010.1.1.09

López‐Cantos, Francisco, y Alejandro Maestre Gasteazi. 2019. «FAKE PICTURES. FALSIFICACIÓN DE IMÁGENES CIENTÍFICAS Y AVANCES ACTUALES EN EL ANÁLISIS FORENSE. ANÁLISIS DE CASOS». Perspectivas de la comunicación 12 (1): 209‐26. https://doi.org/10.4067/S0718‐48672019000100209

Martínez, Víctor Cerdán, y Graciela Padilla Castillo. 2019. «Historia del "fake" audiovisual: "deepfake" y la mujer en un imaginario falsificado y perverso». Historia y Comunicación Social 24 (2): 505‐20. https://doi.org/10.5209/hics.66293

Marzo, Jorge Luis (coord ). 2019. «La gestión matemática de la sinceridad. Algoritmos y veridicción». Artnodes, n.o 24: 1‐12. https://doi.org/10.7238/a.v0i24.3306

Mendoza, Miguel Ángel. 2016. «Técnicas de análisis forense en imágenes digitales».

WeLiveSecurity. 9 de diciembre de 2016. https://www.welivesecurity.com/laes/2016/12/09/analisis‐forense‐imagenes‐digitales/.

Merino, Marcos. 2019. «Así es posible saber si un vídeo es un deepfake con sólo un abrir y cerrar de ojos, literalmente». Xataka. 3 de febrero de 2019.

https://www.xataka.com/inteligencia‐artificial/posible‐saber‐video‐deepfake‐soloabrir‐cerrar‐ojos‐literalmente‐quizas‐eso‐no‐sea‐suficiente.

Navarro, Jordi Sánchez, y Andrés Hispano. 2001. Imágenes para la sospecha: falsos documentales y otras piruetas de la no‐ficción. Glénat.

«New Steps to Combat Disinformation». 2020. Microsoft On the Issues. 1 de septiembre de 2020. https://blogs.microsoft.com/on‐the‐issues/2020/09/01/disinformationdeepfakes‐newsguard‐video‐authenticator/.

Nichols, Bill. 1997. La representación de la realidad: cuestiones y conceptos sobre el documental. Grupo Planeta (GBS).

O'Neil, Cathy. 2018a. Armas de destrucción matemática: Cómo el Big Data aumenta la desigualdad y amenaza la democracia. Capitán Swing Libros.

---. 2018b. «Víctimas civiles: la justicia en la era del big data». En Armas de destrucción matemática: Cómo el Big Data aumenta la desigualdad y amenaza la democracia. Capitán Swing Libros.

Redi, Judith A., Judith A. Redi, Wiem Taktak, Wiem Taktak, Jean‐Luc Dugelay, y Jean‐Luc Dugelay. 2011. «Digital Image Forensics: A Booklet for Beginners». Multimedia Tools and Applications 51 (1): 133‐62. https://doi.org/10.1007/s11042-010-0620-1

Tagg, John. 2005. «Un medio de vigilancia: la fotografía como prueba jurídica.» En El peso de la representación: ensayos sobre fotografías e historias. Gustavo Gili. «Talk to Transformer - InferKit». s. f. Accedido 18 de abril de 2021. https://app.inferkit.com/demo

Veiligheid, Ministerie van Justitie en. 2013. «Finding the Link between Camera and Image Camera Individualisation with PRNU Compare Professional from the Netherlands Forensic Institute». Brochure. Ministerie van Justitie en Veiligheid. https://www.forensicinstitute.nl/documents/publications/2017/03/06/brochureprnucompare‐professional.

Viúdez, Juana. 2015. «Causas "ágiles" y sin "preculpables"». El País, 13 de marzo de 2015, sec. Politica. https://elpais.com/politica/2015/03/13/actualidad/1426257058_210835.html

Descargas

Publicado

30-09-2022

Cómo citar

León-Mendoza, R. (2022). La imagen como forma de (des)conocimiento en la era del deepfake. ANIAV - Revista De Investigación En Artes Visuales, (11), 53–70. https://doi.org/10.4995/aniav.2022.17309

Número

Sección

Artículos científicos