Table of contents

1.

Introducción ctualmente vivimos en una sociedad ultraconectada. Como consecuencia de la pandemia por COVID-19 debimos mantenernos aislados, lo que llevo a que rápidamente se volcaran al ámbito digital muchas de las cosas que antes hacíamos de manera presencial. Desde trabajar hasta hacer las compras del supermercado o realizar algún curso o entrenamiento, cualquier ámbito de nuestra vida cotidiana paso a estar mediado por alguna plataforma digital.

Ahora bien, más allá de esta digitalización en diversos aspectos de nuestra vida, lo que debemos poner en cuestión son dos aspectos contradictorios. Primero, siguiendo una postura tecnofílica, tomar a las tecnologías, máquinas, estructuras y sistemas actuales con relación a sus contribuciones a la eficacia, productividad y socialización. Por otro lado, sostener desde una postura tecnofóbica cómo esto contribuye al modo en que estas mismas tecnologías pueden encarnar diferentes formas de poder, autoridad y vigilancia. Siguiendo este orden de ideas, y para no caer en un determinismo tecnológico ingenuo, es necesario aclarar que si bien los sistemas técnicos han alterado de forma esencial el ejercicio del poder, los entes políticos son las personas y no las cosas. Por lo tanto, para poder analizar qué hay detrás de estas tecnologías, para descubrir las circunstancias sociales de su desarrollo, empleo y uso, lo que importa no es la tecnología en sí misma, sino el sistema social o económico en el cual se encarnen.

Actually, we are living in an ultra-connected society. Because of the COVID-19 pandemic, we had to remain isolated, which led to many of the things that we previously did face to face quickly turn to the digital realm. From working to doing grocery shopping or taking a course or training, any area of our daily life became mediated by a digital platform.

2. A

Author: Carrera de Sociología, Universidad de Buenos Aires, Argentina. e-mail: [email protected] Palabras Clave: tecnofilia, tecnofobia, control, digitalización, datos. Keywords: technophilia, technophobia, control, digitalization, data.

Beyond this digitization in many aspects of our lives, we must question two contradictory aspects. In one hand, following a technophilic stance, take current technologies, machines, structures, and systems in relation to their contributions to efficiency, productivity, and socialization. On the other hand, to argue from a technophobic stance how this contributes to the way in which these same technologies can embody different ways of power, authority and surveillance. In order with this idea, and trying not falling into a naive technological determinism, it's necessary to clarify that although technical systems have essentially altered the exercise of power, political entities are people and not things. Therefore, in order to analyze what is behind these technologies, to discover the social circumstances of their development and different kind of uses, what matters is not the technology itself, but the social or economic system in which they are embodied.

3. II.

4. Objetivo

El objetivo del presente trabajo es abordar desde una perspectiva teórica las consecuencias sociales de los procesos y tecnologías de vigilancia en las actuales sociedades de control (Deleuze, 1995). Como datos empíricos se tendrán en cuenta la relación del estado y los ciudadanos en el caso de plataformas occidentales como Google (gmail, googlemaps) o Facebook, y, por otro lado, la misma relación para el caso del Estado chino teniendo en cuenta lo expresado por Han (2020). El análisis estará atravesado teniendo en cuenta la cuestión por la política de los artefactos o las tecnologías, como también por concepciones tecnofilicas y tecnofóbicas (Winner, 1999).

5. III. Sociedades de Control y Capitalismo Informacional

A partir de los 70' en el campo económico podemos encontrar que la hegemonía del capital productivo comenzó a ser reemplazada por la del capital financiero y luego por el informacional o cognitivo (Hardt & Negri, 1999;Srnicek, 2018). Actualmente, en la economía digital, las plataformas basadas en internet además de representar un nuevo modelo de negocios y rentabilidad sirven también para delinear tendencias y subjetividades. Las plataformas son infraestructuras digitales que permiten que dos o más personas o grupos interactúen posicionándose como intermediarias entre diferentes usuarios que producen y dependen de efectos de red, por lo que deben asegurarse que cada vez se sumen más usuarios a la vez que tienen una arquitectura establecida que controla las posibilidades de interacción (Castells, 1996). Puede entenderse entonces, que la proliferación y cuasi monopolización de las plataformas digitales en nuestra actualidad se debe a dos procesos. Primero, que la plataforma es la herramienta por excelencia para extraer, analizar, usar y vender datos, insumo primordial del actual capitalismo informacional. Segundo, que genera efectos de red, esto es, que dinámica de funcionamiento consiste en la incorporación constante de nuevos usuarios, con lo cual tienden al monopolio. A modo de ejemplo, la red social Facebook, actualmente posee WhatsApp e Instagram (las más utilizadas a escala global) o como QQ o TikTok en China.

Paralelamente, Deleuze (1995) establece una secuencia temporal en la mutación de la relación del Estado con sus súbditos. Describe así una etapa de soberanía durante el siglo XVIII, una disciplinaria en el siglo XIX y sociedades de control a partir de mediados del siglo XX. De esta forma podemos encontrar dos procesos que fueron desarrollándose en conjunto, por un lado el establecimiento de la soberanía estatal del orden burgués a partir del siglo XVIII acompañado de desarrollos tecnológicos, pasando por sucesivas etapas, primero apuntando al disciplinamiento social de la población para adaptarse a los rotundos cambios surgidos en la nueva lógica de trabajo y de ejercicio del poder, generalmente mediante instituciones de encierro (escuela, fabrica, hospital, prisión) para luego, una vez logrado, pasar a una etapa de control poblacional mediante métodos que, ayudados por el avance tecnológico, resultan cada vez más efectivos. Lo que Deleuze (1995) denomina "control" corresponde a un lenguaje numérico hecho de cifras, que marcan el acceso o el rechazo a la información. Con relación a esto, sostiene que ya no nos encontramos ante el par masa/individuo, sino que los individuos se han convertido en "dividuos", y las masas, en muestras o datos. También definió la cibernética como una ciencia del gobierno que, además, puso en marcha el complejo tecnológico centrado en la información que será luego la base material en las sociedades de control, mediante la operación de máquinas informáticas y ordenadores. Rodríguez (2018) explica que la aspiración cibernética de una sociedad informatizada suponía la inclusión de un dispositivo que en realidad debía procesar la vida social convirtiéndose en un protagonista más junto a los seres humanos y este es, en esencia, el papel que cumplen en la actualidad las tecnologías de recolección y procesamiento de datos como los dispositivos móviles, las plataformas y los algoritmos. Mediante estas arquitecturas entendidas como instancias políticas que configuran el espacio y regulan las conductas, se llega al "individuo algorítmicamente asistido" gracias a la arquitectura que sostiene la comunicación entre actores-humanos, computadoras, o directamente, redes de actuantes-no-humanas (Vercelli, 2004). Como consecuencia, es que hoy en día, gran parte de las decisiones de nuestra vida cotidiana son delegadas a sistemas informáticos. Decisiones que, relacionadas con la cantidad de datos disponibles y a la capacidad de procesamiento de las máquinas, son consideradas mucho más eficientes que las que tomarían los seres humanos sin asistencia digital. Este individuo asistido se refleja en la construcción de un perfil, que es la serie de datos asignados o autoasignados a un sujeto en la vida social digital.

Si partes cada vez más crecientes de la vida cotidiana transcurre en las redes, no sólo los perfiles se transforman en espacios privilegiados para la constitución misma de las identidades, sino que también constituyen la base de ejercicio de una vigilancia "distribuida e inmanente". Distribuida porque ya no es preciso situar al individuo en un lugar fijo, sino que este lleva consigo aquello que lo vigila y a través de lo cual puede vigilar, e inmanente, porque al transformarse cualquier interacción comunicacional en dato, los sistemas de vigilancia ya no necesitan situarse en un punto específico, sino que cualquier aspecto de la vida social queda registrado sin esfuerzo alguno por "espiarla" (Rodríguez, 2018). Siguiendo este orden de ideas, Botta (2014) explica que el cambio de época supuso cierto corrimiento desde una preocupación de tipo individualizante, centrada en el cuerpo y sus fuerzas físicas, hacia una masificante, atenta a los conocimientos, los afectos y las maneras de sentir.

6. IV. Sociedad, Metadatos, Algoritmos y Subjetivación

Rodríguez (2018) sostiene que actualmente se puede hablar de una "algoritmización" de la sociedad. Nos encontramos constantemente conectados a través de tecnologías que se nutren de nuestros datos o registros de las diferentes actividades que desarrollamos. Desde esta perspectiva, la búsqueda de un dato cualquiera en internet genera una "personalización", una asignación de datos a un individuo, definiendo así su perfil. Estas conexiones son elaboradas siempre a partir de esta "perfilización" constante que se alimenta del hecho de que los individuos están constantemente "perfilándose" en diferentes aplicaciones o plataformas (Rodríguez, 2018). Si entendemos esto como puntos centrales en las relaciones entre saber, poder y subjetivación, las sociedades "de control", podrían también convertirse en sociedades de "metadatos". En este sentido, cada cosa Volume XXII Issue I Version I 18 ( ) que vemos, cada "Me gusta" (like), cada lugar que visitamos se convierte en un dato que alimenta una gubernamentalidad algorítmica (Rouvroy & Berns, 2015).

Rodríguez (2018) explica también que la arquitectura informacional generada por la digitalización y su consecuente aumento exponencial de datos está diseñada para personalizar a los usuarios de manera estadística, atendiendo así a otra dimensión central de las sociedades de control: las formas de subjetivación. En este sentido, explica que es válido decir que en los algoritmos y los metadatos exista cierta esperanza en la modificación de las conductas y los pensamientos. Estas nuevas formas de vigilancia se desarrollan mediante complejos mecanismos de subjetivación, lo que permite decir que no sólo estamos más vigilados, sino que, hasta cierto punto, queremos serlo. Confiamos en la extracción de metadatos para que mediante algoritmos podamos saber algo más sobre nosotros mismos. Esta gubernamentalidad es realizada a través de los dispositivos digitales, y se expresa en una situación de procesamiento social generalizado. En este sentido, la gubernamentalidad algorítmica es un cierto tipo de racionalidad (a)normativa o (a)política que reposa sobre la recolección, la agrupación y análisis automatizado de datos en cantidad masiva de modo de modelar, anticipar y afectar por adelantado los comportamientos posibles (Rodríguez, 2018).

Relacionando lo antes expuesto con la subjetivación, podemos afirmar que los algoritmos pueden acumular nuestra información individual para extraer metadatos, o sea, para "producir información desde la información" y, de esta forma, los metadatos resultantes de este proceso algorítmico generan un efecto de "personalización", un perfil. Si bien pareciera que se sugiere algo a alguien de modo personalizado, en realidad se lo hace en función de una regularidad estadística de la que esa persona forma parte y que de hecho, contribuye a formar. El carácter íntimo de la estadística para procesar lo social, son importantes mecanismos de subjetivación de los que se espera no sólo una definición de nosotros mismos, sino también una suerte de evolución conjunta o de sistema de transformaciones que permiten alimentar y ser alimentados por la Big Data. Por lo tanto, se vuelve recurrente que estas plataformas nos "pregunten" que pensamos, o si conocemos a determinadas personas, grupos, empresas, productos, etc. Pareciera de todas formas, que demostramos aceptación a que estas preguntas se hagan desde un medio digital, de hecho, muchos debemos responderlas sin pensar en las consecuencias que eso pueda llegar a ocasionar. Haciendo un paralelismo con este ejemplo, ¿qué pasaría si de repente un desconocido nos pregunta cómo nos llamamos, que estamos pensando o si conocemos a determinada persona?, supongo que nos resultaría incómodo, incluso sospechoso, es muy probable que nos genere rechazo hacia ese interlocutor que nos solicite ese tipo de información. Sin embargo, basta con aplicar esas mismas preguntas, en una plataforma virtual para que millones de personas vuelquen ahí toda su intimidad, como si no existiesen humanos desconocidos detrás de esas plataformas digitales trabajando con toda esta información que brindamos. Estas nuevas subjetividades pueden ser definidas como individualidades moleculares, dividuales y móviles, que tienden al goce, a la instantaneidad que se conforman mediante imágenes y se encuentran basadas en el consumo, que son a la vez exhibidas volviéndose susceptibles de ser modulables y controlables (Botta, 2014). Son subjetividades que disfrutan de dejarse ver, de ser vistas y que al mismo tiempo miran. Estas subjetividades consumidoras se encuentran articuladas en un sinfín de gustos, necesidades y preferencias, a la vez que son minuciosamente diferenciadas e identificadas, para finalmente ser investigados y atendidos por algoritmos o dispositivos, como la estadística, la publicidad y el marketing.

Si bien tengo entendido que es posible pedir "nuestros datos" a compañías como Facebook o Google, no es solamente eso lo que importa, porque no son solo nuestros datos sino nuestros datos en relación a los datos de todos los demás usuarios los que sirven de insumo. Facebook puede tener mi red de amigos o de música preferida, pero solo con eso no puede lograr mucho, pero al recolectar los perfiles no solo de mis vínculos amistosos, sino también de la zona geográfica donde me encuentro, de los likes que hago, de las páginas que visito, la música que escucho, o de los artículos que compro puede generar nuevos datos en base a gustos comunes, pudiendo así venderlos a alguna otra compañía interesada en gustos musicales de alguna zona particular de Buenos Aires, por citar un ejemplo. Si bien este ejemplo menciona un fin comercial, que es el uso más habitual en occidente, en otras partes del mundo, estas mismas relaciones pueden servir para mantener a la población bajo un control y una vigilancia constante de tipo Orwelliana como sucede en China. El filósofo Han (2020) explica que en China existe un control social completo. No solo mediante algoritmos y análisis de Big data sino también con otras tecnologías avanzadas como el reconocimiento facial y el posicionamiento GPS.

V.

7. Los Datos Como Herramienta

Que actualmente exista una interacción digital muy difundida, se traduce en que cada vez hay más datos (personales) circulando y el uso o manejo de esos datos puede convertirse en una herramienta que puede ser utilizada para diferentes fines comerciales como también, para tener mayor control sobre nosotros. Para desarrollar la siguiente idea partiré de la premisa de que la información personal de cada usuario de red social o cualquier plataforma que exista en el mundo está disponible en igual manera, pero que, dependiendo la lógica con la que se los procese pueden servir para fines diferentes. Esto quiero decir que es la información digital de cada uno de nosotros la que circula por la red, pero esa misma información puede utilizarse para los más diversos fines.

En occidente, la lógica del procesamiento de datos apunta a que nos mantengamos consumiendo constantemente. Solo hace falta buscar una palabra en Google, para que luego nos inunden con publicidades o información acerca de aquello que buscamos, por ejemplo, si yo en mi buscador busco la palabra "bicicleta", instantáneamente comienzan a inundar mi casilla de mail o las páginas que visito con promociones para comprar bicicletas, sobre seguro de bicicletas, o accesorios, etc. Otro ejemplo interesante es de las nuevas aplicaciones de mensajería o delivery como Rappi, Uber Eats o Pedidos ya, y en cómo las mismas se encuentran asociadas en cierta forma a plataformas de ocio como Netflix. Creo que a cualquiera que utilicemos alguna de estas aplicaciones o todas, nos llegó alguna notificación para comer algo determinado a la vez que se promociona alguna serie o contenido nuevo para ver, particularmente durante el periodo de aislamiento. Este ejemplo, generalmente está relacionado con una posición tecnofílica hacia las nuevas plataformas digitales. Aquí, el uso y manejo de datos de distintas plataformas queda soslayado por la oferta de un servicio a tal punto que ni siquiera nos detenemos a pensar en eso.

En oriente, particularmente en China, el gobierno utiliza la información que circula por la red para crear sistema de crédito social, basada en perfiles detallados de los usuarios/ciudadanos clasificándolos mediante un sistema de puntos basado en el comportamiento de la persona, en su red de contactos y en el contenido que publica. No hay ningún momento de la vida cotidiana que no esté sometido a vigilancia, observación y control. Se controla cada clic, cada compra, cada contacto, cada actividad en las redes sociales, a quien tiene trato con críticos del gobierno o a quien pone comentarios críticos en las redes sociales le quitan puntos. Por el contrario, a quien compra por Internet alimentos sanos o lee periódicos afines a las políticas gubernamentales suma puntos. Esta clasificación sirve para detentar determinado prestigio social dentro del país, aquel que tiene determinada cantidad de puntos puede tener un visado de viaje o créditos baratos. Por el contrario, quien cae por debajo de un determinado número de puntos podría perder su trabajo. Visto de esta forma, podríamos adoptar una postura tecnofóbica al saber que los datos pueden ser utilizados con estos fines.

Este control y vigilancia de tipo Orwelliano, donde nuestra privacidad es prácticamente nula y en donde además somos premiados o castigados en relación con nuestras acciones o formas de pensar o expresarnos puede ser considerado como la máxima expresión de la tecnofobia o de la tecnología puesta al servicio de una autoridad gubernamental o estatal para privarnos de nuestra libertad (física y de expresión) y controlarnos.

Paradójicamente, si nos remitimos al contexto de pandemia por COVID.-19, puede que los mencionados usos de la tecnología no sean tan tecnofilicos y tecnofóbicos como aparentan a primera vista.

El filósofo coreano Byung-Chul Han (2020) sostiene que Asia tuvo mejor controlada la pandemia que Europa. Una de las características a las que lo atribuye, es a la mentalidad autoritaria existente en los estados asiáticos, herencia de su tradición cultural. Explica que las personas son menos renuentes y más obedientes que en Europa, a la vez que confían más en el Estado. Agrega también, que la vida cotidiana está organizada de forma mucho más estricta que en Europa. En relación con esto, sostiene que, para enfrentarse al virus, los asiáticos apuestan fuertemente por la "vigilancia digital" en el sentido de que en la Big Data podría encerrarse un potencial enorme para defenderse de la pandemia. Sostiene que en Asia las epidemias no las combaten sólo los virólogos y epidemiólogos, sino sobre todo también los informáticos y los especialistas en macrodatos. Han (2020) explica también cómo en China toda la infraestructura para la vigilancia digital mencionada anteriormente ha resultado ser sumamente eficaz para contener la epidemia. Cita como ejemplo, que cuando una persona sale de la estación de Pekín es captado automáticamente por una cámara que mide su temperatura corporal. Si tiene alta temperatura se le notifica a las demás personas que iban en el mismo vagón mediante una notificación en sus teléfonos móviles. También explica que si uno rompe la cuarentena un dron se dirige volando hacia la persona y le ordena regresar a su vivienda.

Esta es una forma interesante de mostrar cómo el manejo de datos por parte de los Estados puede desde un punto de vista ser visto desde una postura tecnofóbica en el sentido de que sería usado para la vigilancia y el control, pero, por otra parte, también puede que ese mismo manejo de datos nos proteja en caso de pandemia para no ir en detrimento de nuestras libertades físicas y nuestros derechos, como sucedió en occidente durante los primeros meses de pandemia. De ser así, en relación con esta biopolítica digital los apologetas de la vigilancia digital proclamarían que el big data salva vidas humanas (Han, 2020) más allá de vigilarlas y controlarlas.

Ahora bien, ¿qué pasa si el Estado controla de forma Orwelliana nuestras vidas?, ¿nuestro individualismo occidental nos llevaría a rechazar la idea Volume XXII Issue I Version I 20 ( ) de un estado tan presente, aunque sea para "protegernos" ?, ¿se prefiere en cierta forma o se confía más en empresas privadas para el manejo de nuestros datos que en el propio estado para esa función? Lo que resulta paradójico en este sentido o esta lógica de la video vigilancia y del control social, es que, si nos remitimos al caso chino, podemos encontrar que muchas personas, podrían categorizarse de autoritario o como alguna violación a derechos esenciales, pero lo cierto es que más allá de eso, muchos ven con buenos ojos cuando estos sistemas policiales se conectan con actividades delictivas. Botta (2014) explica que existe una relación inseparable entre la "sensación de inseguridad" y el discurso y la demanda de prácticas "Tolerancia cero" al delito, mediante lo cual muchas personas se muestran dispuestas a perder intimidad a cambio de seguridad.

8. VI.

9. Conclusión

Para concluir podemos tener en cuenta un último ejemplo: Podríamos afirmar que Google tiene una amplia red de vigilancia con GoogleMaps, en el sentido de que sus automóviles están conduciendo por todo el mundo, tomando fotografías de ciudades y barrios enteros creando un mapa interactivo que puede ser utilizado como guía y, a la vez, puede funcionar también como una amplia y profunda red de vigilancia. Paralelamente, este tipo de vigilancia no es tan distinto en el caso chino. La diferencia radica en el propósito con el cual se hace. En China se supone que esa vigilancia es usada para el bien común. Más allá en que estemos o no de acuerdo con esa visión paternalista que tienen de lo que es considerado "bien común", pareciera ser que son explícitos en lo que hacen y la forma en la que manejan los datos de los ciudadanos. Por el contrario, Google tiene como objetivo el fin comercial o enriquecer su patrimonio o solo a algunas personas y a la vez, se resguarda de mostrar todos los usos que da a los datos que manipula. Visto de esta forma, la vigilancia de China podría ser menos nociva que la de Google, aunque ambas podrían expresarse bajo una idea tecnofóbica, el caso de Google también puede adquirir una visión tecnofílica en el sentido de que brinda un servicio útil a muchos usuarios de la aplicación.

De lo expuesto hasta ahora podemos afirmar que no existen tecnologías inherentemente políticas, sino que, tanto las tecnologías como los sistemas son ideados por humanos para hacerlos compatibles con ciertos tipos de relaciones sociales. Muchas de las invenciones y de los sistemas técnicos importantes en nuestra vida cotidiana son susceptibles de ordenar la actividad humana de diversas maneras.

De esta forma, ya sea consciente o inadvertidamente, las sociedades y sus integrantes adoptamos tecnologías que influyen sobre cómo nos relacionamos, trabajamos, comunicamos, viajamos, consumimos, etc. Por lo cual, la adopción de un determinado sistema tecnológico implica de forma inevitable una serie de condiciones referentes a las relaciones humanas con un tono político característico que puede ser igualitario o no, comercial o social, represivo o liberalizador o adquirir cualquier otra forma que se nos ocurra. Si nuestro propósito es comercializar algún tipo de contenido podemos darle ese propósito, como también si queremos controlar, vigilar o someter a algunas o grandes partes de la población. Lo que invito a reflexionar es que, al elegir o adoptar determinada tecnología a la vez, estamos eligiendo o adoptando una determinada forma de vida social y política, de que no se trata solo de los datos o de la tecnología en sí misma, sino del uso que hacemos de ella y en como reproducimos nuestra vida a medida que vamos relacionándonos con nuestros pares.

Figure 1.
Volume XXII Issue I Version I
Note: 22( )
1
2
3

Appendix A

  1. , A Rouvroy , T Berns . 2015.
  2. La conquista silenciosa del ciberespacio. Tesis de Maestría en Ciencia Política y Sociología (FLACSO, Argentina), A Vercelli . https://arielvercelli.org/libros/ 2004. (Disponible en)
  3. La emergencia viral y el mundo de mañana. En AAVV. Sopa de Wuhan. Pensamiento contemporáneo en tiempos de pandemia, B-C Han . 2020. p. .
  4. Algunos apuntes sobre la videovigilancia gubernamental en espacios públicos. Hipertextos: capitalismo, técnica y sociedad en debate, F Botta . 2014. 2.
  5. Post Scriptum sobre las sociedades de control, G Deleuze
    En Conversaciones .
    1995. 1972-1990. Valencia: Pretextos.
  6. Governamentalidade algorítmica e perspectivas de emancipação: o díspar como condição de individuação pela relação?. en revista ECOPOS Nº2. 18 p. . (Tecnopolíticas e Vigilancia. versión online)
  7. Oxford: Blackwell Publishers, capítulo V. Traducción de la cátedra (hiperosociología). También edición por Madrid, Alianza, 1997, bajo el título La era de la información, M Castells . 1996. (The Rise of the Network Society)
  8. Posmodernización o informatización de la producción. En Imperio, M Hardt , A Negri . 1999. Buenos Aires: Paidós.
  9. Capitalismo de plataformas. N Srnicek . Caja Negra. Capítulo 2018. 2.
  10. Gubernamentalidad algorítmica. Sobre las formas de subjetivación en la sociedad de los metadatos. P Rodríguez . Revista Barda 2018. 4 (6) p. .
Notes
1
© 2022 Global Journals H
2
© 2022 Global Journals Volume XXII Issue I Version I 19 ( )
3
Year 2022 H Technophilia and Technophobia, Two Sides of the Same Coin
Date: 2022-02-07