Category: show on landing page

ALEX pilot media literacy training on personalisation algorithms

Algorithms Exposed partnered with Medialab SETUP and KOisNieuwgierig to develop a media literacy training module devoted to educating high school pupels in personalisation algorithms and its politics. It draws on practical excersizes, engaging questions and insights from academic research. It will be piloted soon and is disseminated and embedded by the Dutch Informatica Actief foundation.

About the training module
This is a learning module on the subject of online content manipulation. It is the closing chapter in a larger series on the social implications of new technologies, aimed at (upper) secondary education (age 15-18, also referred to as ‘bovenbouw’ in the Dutch educational system). The module helps students understand that suggested content online – and how this content is represented – is different for everybody. In addition to a more classical approach of media literacy, which typically focuses on risks of online behaviour, this module enables them to grasp the mechanics behind personalisation phenomena in practice. Pupils learn about personalization algorithms (‘recommended for you’) and how to recognize its practices on a variety of social platforms. The module also provides an introduction to the ALEX research project and its preliminary findings. Emphasis is placed on stimulating critical thinking and providing the arguments to partake in the debate on new technologies, social implications and ethics (i.e. in terms of echo chambers). Following the path of Netflix’s personalized thumbnails, the second part of this module focuses on the future of personalized clickbait. Students are challenged to envision a world in which algorithms not only suggest specific content, but also create new content (i.e. in terms of screenwriting).

[BigDataSur] El Sur Global podría nacionalizar sus datos

Por Ulises Alí Mejías

(An English version of this article appeared in Al Jazeera on December 2019)

Introducción 

Las grandes empresas de tecnología están extrayendo datos de sus usuarios en todo el mundo, sin pagarles por éstos. Es hora de cambiar esta situación.

Abstract

Big tech corporations are extracting data from users across the world without paying for it. This process can be called “data colonialism”: a new resource-grab whereby human life itself has become a direct input into economic production. Instead of solutions that seek to solve the problem by paying individuals for their data, it makes much more sense for countries to take advantage of their scale and take the bold step to declare data a national resource, nationalise it, and demand that companies like Facebook and Google pay for using this resource so its exploitation primarily benefits the citizens of that country.

Nacionalización de datos 

El reciente golpe de estado en Bolivia nos recuerda que los países pobres, pero que son ricos en recursos naturales, continúan siendo plagados por el legado del colonialismo. Cualquier iniciativa que pretenda obstruir la capacidad de las compañías extranjeras para extraer recursos de manera barata se arriesga a ser prontamente eliminada.

Hoy, aparte de los minerales y el petróleo que abunda en algunos rincones del continente, las empresas están persiguiendo otro tipo de recurso, uno que quizás es más valioso: los datos personales. Al igual que los recursos naturales, los datos personales se han convertido en el blanco de ejercicios extractivos llevados a cabo por el sector dedicado a la tecnología.

Como el sociólogo Nick Couldry y yo hemos argumentado en nuestro libro, Los costos de la conexión (The Cost of Connection: How data is Colonizing Human Life and Appropriating It for Capitalism – Stanford University Press), hay un nuevo tipo de colonialismo emergiendo en el mundo de hoy: el colonialismo de los datos. Con este término queremos sugerir que estamos observando una nueva ola de apropiación de recursos en la cual la vida human en sí misma, expresada en los datos extraídos desde los mismos usuarios, se convierte en una aportación directa a la producción económica.

Reconocemos que este concepto puede resultar controversial dada la extrema violencia física y las estructuras aún presentes del racismo colonial histórico. Pero no queremos decir que el colonialismo de datos es igual al colonialismo histórico. Más bien, que la función esencial del colonialismo es justamente la misma. Esa función fue -y sigue siendo- la extracción, la explotación, y la apropiación de nuestros recursos.

Como el colonialismo clásico, el colonialismo de datos va transformando violentamente las relaciones sociales en elementos de producción económica. Elementos como la tierra, el agua, y otros recursos naturales fueron valuados por los primeros pueblos en la era precolonial, pero no de la misma manera que los colonizadores -y más tarde los capitalistas- llegaron a valorarlos, es decir, como una propiedad privada. De la misma manera, estamos viviendo en una situación en la que cosas que antes estaban fuera de la esfera económica -tales como las interacciones privadas con nuestros amigos y familiares, o nuestros archivos médicos- ahora han sido privatizadas y convertidas en parte del ciclo económico de la extracción de datos. Un ciclo que claramente beneficia principalmente a unas cuantas grandes empresas.

¿Pero qué pueden hacer los países de este “Sur Global” para evitar la explotación del colonialismo de datos?

Soluciones para el Sur Global

Una clara opción para este conjunto de países sería la de promulgar propuestas como las del escritor Jaron Lanier y el candidato presidencial estadounidense Andrew Yang, quienes han sugerido que cada uno de nosotros debería ser remunerado por los datos que producimos, a través de algún mecanismo de compensación. Pero estas propuestas neoliberales que buscan resolver el problema a nivel individual pueden al mismo tiempo diluir el valor de los recursos agregados. Si enfrentamos el problema así, los pagos a los usuarios serán difíciles de calcular, y tal vez muy pequeños.

En vez de esto, es mucho más lógico que los países del Sur Global aprovechen su tamaño y posición en el escenario internacional y tomen el paso audaz de declarar los datos generados por sus ciudadanos como un recursos nacional, demandando que compañías como Facebook o Google paguen por utilizar este recurso. Así, los principales beneficiarios del uso de datos personales serían justamente los ciudadanos que los producen.

Hagamos unos cálculos utilizando a México como un ejemplo: Facebook cuenta con 54.6 millones de usuarios en este país. En promedio, cada usuario global produce para Facebook $25 dólares al año en ganancias, lo que representa alrededor de $1.4 billones de dólares que la compañía se termina embolsando gracias a los mexicanos. Supongamos entonces que México nacionalizara sus datos y por lo tanto demandara quedarse con una parte substancial de esta suma. Y supongamos, ya que estamos haciendo este ejercicio, que arreglos similares se aplicaran al mismo tiempo con compañías como Google, Amazon, TikTok, etc.

Con billones de dólares recuperados a través de la nacionalización de los datos, el gobierno mexicano podría invertir en el desarrollo de campos como la salud, la educación, o la crisis migratoria por la cual atraviesa el país actualmente.

Sin embargo, una cosa es segura: cualquier intento de nacionalizar los datos por los países que conforman el Sur Global se enfrentaría con una intensa oposición. México nacionalizó su petróleo en 1938, gracias a una acción realizada por el presidente Lázaro Cárdenas, hoy considerado un héroe nacional, que enfureció a las compañías extranjeras. Lo anterior resultó en el boicoteo inmediato por parte de Estados Unidos, el Reino Unido, Holanda, y otros países. México solo podría librarse de esta situación por el eventual estallido de la Segunda Guerra Mundial.

También está el ejemplo de Chile. Salvador Allende amenazó en la década de 1970 con nacionalizar el sector telefónico, (que en ese minuto era controlado por la compañía norteamericana International Telephone & Telegraph), así como otras industrias. Antes de que se pudiera llevar a cabo, la CIA organizó un golpe de estado en 1973 que terminó con la muerte de Allende y una dictadura que duraría hasta 1990.

Y a Evo Morales, que experimentó con formas blandas de nacionalización que beneficiaron a los sectores más pobres de Bolivia mientras que mantenían a los inversionistas extranjeros moderadamente satisfechos, ahora lo han sacado por la fuerza de su país. No ayudó a su causa el hecho de que Morales, en un acto controversial, enmendó la constitución para poder volver postular a la presidencia luego de servir los dos periodos que ya eran permitidos por la ley boliviana.

Cualquiera sea el caso, la derecha en Bolivia y en Estados Unidos hoy están celebrando lo que algunos ven como un desarrollo interesante en la lucha por el control de minerales como el litio o el indio, los cuales son esenciales para la producción de dispositivos electrónicos.

Aún si los países que decidieran nacionalizar sus datos sobrevivieran a la represalia esperada, la nacionalización de datos no pondría fin a la raíz del problema; la normalización y legitimación de las extracción de información que ya se encuentra en proceso.

El futuro de la nacionalización de datos 

La nacionalización de datos no detendrá necesariamente la colonización que vive la región. Por eso, es una medida que debe ser pensada y entendida como una respuesta limitada a un problema mayor. Este es la razón por la cual la nacionalización de datos debe tener como objetivo final la separación de la economía del Sur Global de esta nueva especie de colonialismo.

La riqueza recuperada podría utilizarse también para desarrollar infraestructuras públicas que brinden versiones menos invasivas o explotadoras de los servicios ofrecidos por las grandes compañías tecnológicas de China y Estados Unidos. Parece difícil imaginar hoy algunas de estas alternativas, pero ya existen modelos que el Sur Global podría adoptar para desarrollar servicios que respeten la privacidad del individuo y no abusen del deseo humano de socializar.

Para evitar la corrupción y la mala administración, la sociedad civil deberá estar directamente involucrada en la toma de decisiones sobre el futuro de esta riqueza, incluyendo la capacidad de bloquear aplicaciones y usos abusivos de parte de compañías extranjeras sobre los datos generados por ciudadanos. Son, después de todos, sus datos, y es el público el que deberá tener un asiento en la mesa cuando se decida de qué manera se pueden ocupar esos recursos.

La propuesta de nacionalización de datos, aunque parezca inalcanzable y poco práctica, nos obliga por los menos a cuestionar la extracción de datos que continúa de manera indiscutible, a veces bajo el pretexto de que es un tipo de progreso que nos beneficia a todos.

 

[BigDataSur] Inteligencia artificial y soberanía digital

Por Lucía Benítez Eyzaguirre

Resumen

La autonomía que van logrando los algoritmos, y en especial la inteligencia artificial, nos obliga a repensar los riesgos de la falta de calidad de los datos, de que en general no estén desagregados y los sesgos y aspectos ocultos de los algoritmos. Las cuestiones de seguridad y éticas están en el centro de las decisiones a adoptar en Europa relacionadas con estos temas. Todo un reto, cuando todavía no hemos logrado ni la soberanía digital.

Abstract

The autonomy that the algorithms are achieving and, especially, artificial intelligence forces us to rethink the risks of lack of quality in data, the fact that in general they are not disaggregated, and the biases and hidden aspects of the algorithms. Security and ethical issues are at the center of the decisions to be taken in Europe related to these issues. It looks like a big challenge, considering that we have not yet achieved even digital sovereignty.

IA y soberanía digital

Los algoritmos organizan y formatean nuestra vida. Como si fueran un software social y cultural, éstos se van adaptando a los comportamientos humanos, y avanzan en su existencia autónoma. Sin embargo, vivimos de forma ajena a su capacidad de control sobre la desigualdad, sobre la vigilancia de nuestras vidas o al margen del desarrollo inminente del internet de las cosas o de la inteligencia artificial (IA): como si pudiéramos darnos el lujo de ignorar cómo se van independizando cada vez más de las decisiones humanas. Ahora, por ejemplo, por primera vez se ha planteado si habrá que modificar los criterios de patentes después de la intención de registrar como propiedad intelectual los inventos y diseños hechos por una inteligencia artificial. De momento, ni la Unión Europea (UE) ni el Reino Unido se han mostrado dispuestos a aceptar una iniciativa de este tipo sin un debate sobre el papel de la IA y del escenario de incertidumbre que esta situación abre.

Es en este contexto que comienza a oírse una pluralidad de voces que piden una regulación de las tecnologías asociadas a la IA; un freno al futuro de un desarrollo autónomo e inseguro. Algunas de las corporaciones de los GAFAM -el grupo que concentra las cinco empresas más grandes en tecnología en el mundo-, como Microsoft o Google ya han pedido esta regulación. Es más, incluso pareciera que estos gigantes tecnológicos comienzan a avanzar hacia la autorregulación en cuestiones éticas o de responsabilidad social, a la vista del impacto que no hacerlo puede tener sobre su reputación. La cuestión para la UE supone valorar y reconocer los riesgos del devenir incontrolable de la IA, sobre todo en asuntos como la salud o la vigilancia. De ahí que parece que el reconocimiento facial en lugares públicos se frenará en los próximos años en algunos países de Occidente, para así prevenir los riesgos detectados en China.

Para combatir los riesgos de la IA hay que comenzar por asegurar la calidad de los datos y los algoritmos, investigar sobre los sesgos que producen y la responsabilidad sobre los errores y criterios. La IA se entrena en muchos casos con datasets no desagregados y a menudo ya sesgados, por lo que conducirá a algoritmos deformados y poco representativos de la población y a desarrollos parciales, de baja calidad y dudosos resultados. Frente al cada vez más numeroso trabajo que se realiza con datos masivos, apenas hay estudios técnicos sobre su impacto humano y social. Por lo mismo, trabajos como los del profesor Matthew Fuller son un clásico recurso para tomar conciencia de la importancia de la transparencia sobre el funcionamiento de los algoritmos. Fuller plantea la aplicación de sistemas que garanticen la condición verdadera de los resultados, la mejora del modelo a partir de un mayor número de conexiones, un funcionamiento que muestre las conexiones sociales o que ponga en evidencia que a menudo se supera la capacidad de los propios sistemas que se analizan con algoritmos.

Si queremos atender a los riesgos de la IA hay que comenzar por el logro de la “gobernabilidad algorítmica”. Este concepto supone la prevención del abuso y del control con el que los algoritmos regulan nuestra vida o con el que la programación rige nuestro quehacer, nuestras rutinas. Esta gobernanza es una garantía de la transparencia, con la supervisión colectiva de usuarios y empresas de los resultados, y la responsabilidad ante el uso de la información. Los algoritmos deben garantizar la transparencia y calidad de los datos (concepto conocido como open data en inglés), ofrecer su propio código de fuente abierto, que sea auditable por sus usuarios y que pueda responder a las reclamaciones fruto de los controles ciudadanos. Pero también es imprescindible que el algoritmo sea leal y justo, es decir, que evite la discriminación que sufren las mujeres, las minorías, o cualquier otro colectivo desfavorecido. Y si se trata de un algoritmo en línea, hay que tener también en cuenta las API (Application Public Programming Interface) públicas porque condicionan tanto la recolecta de datos como la forma en que se aplican técnicas comerciales, que oculta cómo se apropian de la información.

Este espíritu también se recoge en la Declaración de Zaragoza de 2019 a partir del debate de profesionales y académicos sobre los efectos adversos, y los riesgos potenciales. Sin embargo, esta declaración también señala las recomendaciones de uso de la IA, da a conocer sus impactos y su evolución en la sociedad. Esto lo hace a través de cinco puntos sobre las dimensiones humana y social, el enfoque transdisciplinar con el que abordar la AI, la responsabilidad y el respeto a los derechos, a partir de un código deontológico propio.

La Declaración pone el acento en la necesidad de desarrollos para las políticas de interés público y la sostenibilidad, pero siempre a partir de sistemas trazables y auditables, con un compromiso con los usuarios para evaluar el cumplimiento de sus objetivos y separar los defectos o desviaciones. En cuestiones éticas, la Declaración propone la formación de los programadores no sólo técnica sino ética, social y humanista, ya que los desarrollos de software también deben contemplar estas dimensiones, así como diferentes fuentes de conocimiento y experiencia.

La Declaración de Zaragoza también incluye un “derecho a la explicación” sobre las decisiones algorítmicas, siempre y cuando éstas entren en juego con los derechos fundamentales de las personas. A pesar del que el Reglamento General de Protección de Datos de la Unión Europea ha avanzado en derechos digitales, todavía estamos muy lejos de una soberanía tecnológica al estilo de la francesa. Desde 2016, Francia se rige por la “Ley de la república digital” que impulsa los algoritmos auditables, la neutralidad de la red, la apertura de datos, la protección de la privacidad y lealtad de las plataformas con la información de sus consumidores, el derecho a la fibra y a la conexión a Internet, el derecho al olvido, la herencia digital, la obligación de informar de las brechas de seguridad detectadas, las multas en materia de protección de datos.

 

Stefania at 2.Dh5 Festival, Utrecht

On 1-2 February, Stefania will attend the 2.Dh5 Festival in Utrecht, the Netherlands. She will give a presentation on “Surveillance capiralism and the future of data activism” , with a Q&A section (date and time will be announced on the 2.Dh5 Festival website).

About the presentation:

Surveillance capitalism is grounded on the transformation of human actions, interactions and emotions into data points which can be quantified, analysed and monetised. It accelerates the crisis of liberal democracies, and changes the role of information and technology in the constitution of our societies. People may react by fighting the aggressive intermediation of the industry, including social media platforms, and the snooping of the state, for example through “smart city” projects. Others may leverage the possibilities for transformative collective action harboured by big data. This talk explores how citizens, social change activists, and variably skilled users engage with datafication looking at emerging practices of “data activism”. It takes stock of the main tendencies we observe on the field, and surveys emerging areas such as algorithmic activism and device activism.

Download the presentation.

Magma guide release announcement

January 29, 2020

By Vasilis Ververis, DATACTIVE

We are very pleased to announce you that the magma guide has been released.

What is the magma guide?

An open-licensed, collaborative repository that provides the first publicly available research framework for people working to measure information controls and online censorship activities. In it, users can find the resources they need to perform their research more effectively and efficiently.

It is available under the following website: https://magma.lavafeld.org

The content of the guide represents industry best practices, developed in consultation with networking researchers, activists, and technologists. And it’s evergreen, too–constantly updated with new content, resources, and tutorials. The host website is regularly updated and synced to a version control repository (Git) that can be used by members of the network measurements community to review, translate, and revise content of the guide.

If you or someone you know is able to provide such information, please get in touch with us or read on how you can directly contribute to the guide.

All content of the magma guide (unless otherwise mentioned) is licensed under a Creative Commons Attribution-ShareAlike 4.0 International License (CC BY-SA 4.0).

Many thanks to everyone who helped make the magma guide a reality.

You may use any of the communication channels (listed in contact page) to get in touch with us.

 

Vasilis Ververis is a research associate with DATACTIVE and a practitioner of the principles ~ undo / rebuild ~ the current centralization model of the internet. Their research deals with internet censorship and investigation of collateral damage via information controls and surveillance. Some recent affiliations: Humboldt-Universität zu Berlin, Germany; Universidade Estadual do Piaui, Brazil; University Institute of Lisbon, Portugal.

Davide in Lugano with paper on algorithms as online discourse (January 30)

Davide Beraldo will be in Lugano, Switzerland, to present a paper on ‘Algorithms as Online Discourse. Exploring topic modeling and network analysis to study algorithmic imaginaries’, co-authored with Massimo Airoldi (Lifestyle Research Center, (EMLYON Business School). The paper is a contribution to the ‘Rethinking Digital Myths. Mediation, narratives and mythopoiesis in the digital age’ workshop hosted at the Università della Svizzera Italiana.

Stefania at Workshop organized by OffTopic Lab, Milan

On 25 January 2020, Stefania will attend the workshop “Contesto urbano. Strumenti e pratiche per deostruire il Modello Milano” organised by OffTopic Lab in Milan, Italy. She will participate in the rountable “La città ambigua: presente e futuro della metropoli tra decoro, sorveglianza, greenwashing (The ambiguous city: present and future of the metropolis between decoration, surveillance, greenwashing)” from 15.00 to 18.00.

[BigDataSur] How Chilean activists used citizen-generated data to fight disinformation

by Tomás Dodds

Introduction
For over 80 days now, and with no end in sight, Chile has been in the grip of waves of social protests and cultural manifestations with tens of thousands of demonstrators taking to the streets across the country. For many, the upsurge of this social outburst has its roots in a civil society rebelling against an uncaring economic and political elite that has ruled the country since its return to democracy in 1990. Mass protests were soon followed by a muddle of misinformation, both online and in the traditional press. In this blog post, I provide insights into how Chilean activists, including journalists, filmmakers, and demonstrators themselves, have started using citizen-generated data to fight media disinformation and the government’s attempts to conceal cases of human rights violations from the public.

Background
The evening of October 18th 2019 saw how Chileans started to demand the end of a neoliberal-based economic system, perceived among citizens as the main cause for the social inequalities and political injustices that occurred in the country over the last decades. However, demonstrations were met with brutal police repression and several corroborated cases of human rights violations, including sexual torture. To this day, information gathered by national and international non-governmental organizations show at least that 26 people have died and more than 2.200 have been injured during the rallies.

Although I was raised in Chile, today I am living in Amsterdam. Therefore, I could only follow the news as any other Chilean abroad; online. I placed a screen in my room streaming in a loop the YouTube channels of the prime-time late-night news of major media outlets. During the day, I constantly checked different social media platforms like Facebook or Twitter, and from time to time I would get news and tips from friends and fellow journalists in the field over WhatsApp or Signal. Information started flooding every digital space available: a video posted on social media in the morning would have several different interpretations by that evening, and dissimilar explanations would be offered by experts across the entire media spectrum by night.

And this was only the start. Amidst the growing body of online videos and pictures showing evidence of excessive military force against demonstrators, Chilean President Sebastián Piñera sat in on a televised interview for CNN’s Oppenheimer Presenta where he claimed that many recordings circulating on social platforms like Facebook, Instagram, and Twitter have been either “misrepresenting events, or filmed outside of Chile.” The President effectively argued that many of these videos were clearly “fake news” disseminated by foreign governments seeking to destabilize the country, like those of Venezuela and Cuba. Although Piñera later backed down from his claims, substantial doubts were already planted in Chileans’ minds. How could the public be sure that the videos they were watching on their social networks were indeed real, contemporary, and locally filmed? How could someone prove that the images of soldiers shooting rubber bullets at unarmed civilians were not the result of a Castro-Chavista conspiracy, orchestrated by Venezuelan President Nicolás Maduro, as some tweets and posts seem to claim with a bewildering lack of doubt? How could these stories be corroborated when most of them were absent from the traditional media outlets’ agendas?

As a recent study suggests, unlike their parents or grandparents, the generation that was born in Chile after 1990 is less likely to self-censor their political opinions and show a higher willingness to participate in public discussion. After all, they were born in democracy and do not have the grim memories of the dictatorship in their minds. This is also the generation of activists who, using digital methods, have taking it up to themselves to mount the digital infrastructure that makes relevant information visible and, at the same time, accessible to an eager audience that cannot find on traditional media the horror tales and stories that reflect the ones told by their friends and neighbors. Thus, different digital projects have started to gather and report data collected by a network of independent journalists, non-governmental organizations, and the protestors themselves in order to engage politically with the reality of the events occurring on the streets. Of these new digital projects, here I present only two that stand out in particular, and which I argue help to alleviate, or at least they did for me, the uncertainty of news consumption in times of social unrest.

DSC06091-Editar

(Image courtesy of Osvaldo Pereira) 

From singular stories to collective data
Only four days after the beginning of the protests, journalists Miguel Paz and Nicolás Ríos started ChileRegistra.info (or Chile-Records in English), a depository of audio-visual material and information regarding the ongoing protests. Chile-Registra stores and distributes videos that have been previously shared by volunteers and social networks users who have attended the rallies. According to these journalists, traditional media could not show videos of human rights violations shared on social networks because they were unable to verify them, and therefore would only broadcast images of riots and barricades, which would later produce higher levels of mistrust between the demonstrators and the press.

As a response to this problem, the project has two main purposes; First, to create a “super data base” with photos and videos of the protests, and military and police abuses. Second, to identify the creators of videos and photos already posted and shared on social networks, in order to make these users available as news source or witness for both traditional media and the prosecutors. National newspaper La Tercera and Publimetro, among other national and international media outlets, did already use this platform to published or broadcast data collected within the depository. By using this project, users were able to easily discredit Piñera’s claims that many of these videos were being recorded abroad.

The second project I would like to draw attention to is Proyecto AMA (The Audio-visual Memory Archive Project in English). AMA is a collective of journalists, photographers, and filmmakers who have been interviewing victims of human rights violations during the protests. Using the Knight Lab’s StoryMap tools, AMA’s users can also track where and when these violations have taken place, and read the personal stories behind the videos that they most probably saw before online. According to their website, members of this project “feel the urgent need to generate a memory file with the images shared on social networks, and give voice and face to the stories of victims of police, military and civil violence in Chile.”

These two projects have certainly different approaches for how they generate content. While ChileRegistra relies on collecting data from social media and citizen journalists uploading audio-visual material, Proyecto AMA’s members interview and collect testimonies from victims of repression and brutality. Although the physical and technological boundaries of each media platform are still present, these projects complement each other in a cross-media effort that precisely plays with the strengths of each of the platforms used to inform the work activists do.

New sources for informed-activism
These projects are at the intersection between technology and social justice, between the ideation and application of a new digital-oriented, computer assisted reporting. Moreover, the creation and continuous updating of these “bottom-up” data sets detailing serious human rights violations have not only been used to further the social movements, but they also indicate the necessity that digital activist have to gather, organize, classify, and perhaps more importantly, corroborate information in times of social unrest.

As long as Chileans keep taking to the streets, this civil revolution presents the opportunity to observe new ways of activism, including the use of independently-gathered data by non-traditional media and the collection of evidence and testimonies from victims of police and military brutality in the streets, hospitals, and prisons.

What can we, only relying on our remote gaze, learn from looking at the situation going on today in Chile? This movement has shown us how the public engagement of a fear-free generation and the development of a strong digital infrastructure are helping to shape collaborative data-based projects with deep democratic roots.

Lastly, let’s hope that these projects, among others, also shed some light on how social movements can be empowered and engaged by new ways of activism actively creating their own data infrastructure in order to challenge existing power relations, seemingly resistant to fade into history.

 

Stefania at the CPDP Computer, Privacy and Data Protection Conference, Brussels

On Thursday 23 Janurary 2020, Stefania will attend the 13th International Conference of CPDP in Brussels, Belgium. She will speak in the panel ‘Online privacy, algorithmic bias, targeted political advertising — an interdisciplinary conversation’ organized by Mozilla. She will join on stage with other speakers: Fanny Hidvegi (Access Now); Matt Rogerson (The Guardian); and Sarah Bird (Mozilla).

 

Panel Desciption:

With an increasing degree of automation in the systems responsible for content delivery, advertisement platforms and content recommender systems alike are filtering, weighting, and ranking a continuous feed of potential items to provide a tailored experience to each individual based on their personal preferences and past behaviour. The complexity of such systems introduces a sophisticated (and almost totally opaque) new layer to peoples’ ability to access information. Automated decisions drastically impact our access to information and relationship with content serving and journalistic platforms. In many cases, the definition of success for such systems is not based on individual or societal well-being, but rather on some variation of engagement or revenue. A common belief motivating the design and optimization of these algorithms is that more (private) information about an individual equates to a better experience and more valuable advertisement via increasingly specific programmatic micro-targeting. This panel will present a multidisciplinary investigation of the interaction between data collection, the algorithmic nature of content recommendation systems, the commercial forces at play for such platforms and the individual and societal consequences of their prevalence.