Don’t be overconfident about algorithms

Javier Castillo Coronas

Llegeix aquest contingut en català aquí
Translated by Álvaro Rodríguez Huguet

Mathematical models take millions of decisions reproducing sexist and racist biases without the citizens to notice it

If you are fired, denied of a loan or detained even, these are decisions that, nowadays, can be in hands of algorithms. The problem is that mathematics, unlike many people think, are not neutrals. There are sexist, racist or xenophobic algorithms that take thousands of decisions on the life of millions of people every day. We don’t see them. They work quietly. But the problem is not algorithms. It’s human beings. Mathematical models only imitate the prejudices of the society.

In 2014, Amazon started using an algorithm to save time when contracting staff. The tool of the Seattle’s company, that promised to be more objective and faster, gave each applicant a punctuation from one to five stars. But the artificial intelligence had been trained with the application of use data of the last ten years. In this term, the most part of contracted programmers had been men.

The algorithm learned, thus, that the best candidates had to be men and started to discriminate women. When a CV of a woman was detected, was penalised straightaway and had less punctuation. Amazon took a year to notice that was using a tool that reproduced a bias against women.
However, algorithms are not sexist, they learn to be. “An algorithm is a sequence of steps that are carried out to solve a certain task. For instance, a cuisine receipt can be considered an algorithm as well,” explains David Solans, member of the Science Web and Social Computation Research Group of the Pompeu Fabra University (UPF).

The key is the data
The algorithms that, like the Amazon’s, take decisions in an automatised way learn to identify and reproduce patterns as of the data given by the computer technicians. It is from here when discriminations appear. “A significant volume of the reproduced biases by the algorithms is acquired in consequence of the biases that showed on the data,” points out Solans. That is to say, they discriminate because they are taught it to be with data that is already biased.

Leaving the decision in hands of the artificial intelligences seems to assure a more objective process, but it does not have to be this way. The racism, sexism and xenophobia that persist in the society is reflected in the databases in which the algorithms learn from. “Facing a growing use of these systems in our daily life can raise the problem of the algorithmic discrimination as well in the years ahead,” warns Solans. In fact, as Ricardo Baeza-Yates explains, this discrimination “can affect matters such as selection of staff, bank loans or the legal system.”

Baeza-Yates, teacher of the Northeastern University in the campus of Silicon Valley, states that these stereotypes are also affecting the public administration. “The algorithm biased generates a social cost. Recently, in the Netherlands, a court ruled that the government couldn’t continue using a detection system of social fraud because it discriminated poor people,” he clarifies.

Mathematical models not only reproduce social prejudices; they are perpetuating them. “We can think how our life would look like if, for the simple reason of belonging to a minority, it was denied to us systematically a bank loan or the facial recognition of an airport didn’t allow us in a country due to it’s unable to recognise our faces,” points out Solans.

These are not examples out of reality, these are cases that have already happened.

Joy Buolamwini, an African-American researcher of the Massachusetts Institute of Technology (MIT), discovered that the facial recognition systems did not manage to identify his face, but they did recognise her white colleagues. These artificial intelligences learn through the images showed during its development. As the most part of pictures that they used to train these systems they were from white men, it’s difficult for them to detect black women faces. Buolamwini had to wear a white mask for the system to recognise her. As a result, the researcher of the MIT decided to found the Algorithmic Justice League for, according to her, “creating a world where technology work for all of us, not only for some of us.” “The algorithmic justice is about identifying, isolating and mitigating the biases in the automatised decision systems,” explains Solans, that defends the need of implementing anti-discrimination techniques.

“If we know of which bias is about, we can eradicate it processing the data to take it down. However, the problem is that many times there are some of them that we don’t know and they are not easy to find,” points out Baeza-Yates. The director of the Web Science and Social Computing Research Group of the UPF, Carlos Castillo, affirms that solving this issue “is difficult because, sometimes, the most important question is if it would use an algorithm or not.” “Sometimes, the answer is a no,” he concludes.

And the institutions?
Some administrations are giving answers to the algorithmic discrimination. For instance, the article 22 of the General Data Protection Regulation of the European Union forbid an artificial intelligence to be able to take decisions of its own. It’s always necessary that a human being intervenes. Moreover, this article states the right of a person to receive explanations about any decision in which they are involved and the participation of an automatised system.

But that a person participates in this decision is not guaranteed to be fair. “Even when there is a person in charge of taking the final decision, this person can be work overwhelmed or can be encouraged to accept blindly the algorithm’s indication. If you obey the algorithm and you are wrong, you blame the algorithm. If you go against it and make a mistake, the responsibility is yours.

Lack of transparency
“The algorithmic model itself is a black box; its content, a well-kept corporative secret,” writes Cathy O’Neil in her book Armes de destrucció matemàtica (Weapons of mathematical destruction). That’s because, if the companies are focused on designing mathematical models were not kept in secret, they would run out of their product. Another reason that explains this lack of transparency is that, if people knew how works the system that evaluates them, they would know how to mislead it. Besides, the companies are aware that, hiding the details of their programmes, people can’t question their results easily.

Under the appearance of neutrality, mathematics are taking control of our lives little by little. As it is not a visible phenomenon, it’s difficult to notice about its magnitude. However, according to Cathy O’Neil, “we have to call for responsibilities to algorithms’ creators; the era of the blind faith in massive data has to end.”

“The systems of automatised decisions are not the solution to the human stereotypes, it’s the people who has to solve this problem,” says Baeza-Yates. Nevertheless, he also recognises that “they can help us not only to take decisions less biased, but also noticing our own biases.” David Solans thinks about another topic: “A racist judge can be detrimental to a few tens of people in a day; the problem of algorithms with racist biases is that they can evaluate thousands of people in seconds.”

FAIR, the algorithm of the UPF that fights against discrimination

An algorithm that is able to detect discriminatory biases in other algorithms and correct them. This is the project that has developed the Science Web and Social Computing Research Group together with the Technical University of Berlin and the Technological Centre of Catalunya. FAIR initiative has studied databases of job offers, relapses of convicts and rankings of admissions in the university to detecting discrimination patterns in databases that benefit or are prejudicial to certain social collectives.

FA*IR algorithm detects discrimination patterns on account of genre, physical appearance or skin colour, and corrects them through mechanisms of positive action to guarantee equality.

Read more

No et refiïs dels algorismes

Javier Castillo Coronas.

Read this content in English here

Els models matemàtics prenen milions de decisions reproduint biaixos masclistes o racistes sense que la ciutadania se n’adoni.

Que et facin fora de la feina, que et neguin un préstec i fins i tot que et detinguin són decisions que, avui dia, poden estar en mans dels algorismes. El problema és que les matemàtiques, a diferència del que molta gent pensa, no són neutrals. Hi ha algorismes masclistes, racistes o xenòfobs que cada dia prenen milers de decisions sobre la vida de milions de persones. No els veiem. Treballen en silenci. Però el problema no el tenen els algorismes. El tenen els éssers humans. Els models matemàtics simplement imiten els prejudicis de la societat.

El 2014, Amazon va començar a usar un algorisme per estalviar temps a l’hora de contractar personal. L’eina de la companyia de Seattle, que prometia ser més objectiva alhora que més ràpida,donava a cada candidat una puntuació d’una a cinc estrelles. Però la intel·ligència artificial havia
estat entrenada amb les dades sobre les sol·licituds d’ús dels últims deu anys. En aquest període, la majoria dels programadors contrac-tats havien estat homes.

L’algorisme va aprendre, per tant, que els millors candidats havien de ser homes i va començar a discriminar les dones. Quan detectava que un currículum pertanyia a una dona, directament el penalitzava i li posava menys nota. Amazon va trigar un any a adonar-se que estava emprant
una eina que reproduïa un biaix contra les dones.

Però els algorismes no són masclistes, aprenen a ser-ho. “Un algorisme és una seqüència de passos que es duen a terme per resoldre una certa tasca.
Per exemple, una recepta de cuina pot considerar-se també un algorisme”, explica David Solans, membre del Grup de Recerca Ciència Web i Computació Social de la Universitat Pompeu Fabra (UPF).

La clau són les dades

Els algorismes que, com el d’Amazon, prenen decisions de manera automatitzada aprenen a identificar i reproduir patrons a partir de les dades que els proporcionen els informàtics. És aquí quan apareixen les discriminacions. “Un volum significatiu dels biaixos reproduïts pels algorismes són adquirits a conseqüència dels biaixos que reflecteixen les dades”, assenyala Solans. És a dir, discriminen perquè els ensenyen amb dades que ja estan esbiaixades.

Deixar decisions en mans de les intel·ligències artificials sembla garantir un procés més objectiu, però no té per què ser així. El racisme, el masclisme i la xenofòbia que perduren en la societat queden reflectits a les bases de dades amb les quals aprenen els algorismes. “Davant un creixent ús d’aquests sistemes en la nostra vida quotidiana, el problema de la discriminació algorítmica pot anar en augment en els pròxims anys”, alerta Solans.

De fet, com explica Ricardo Baeza-Yates, aquesta discriminació “pot afectar qüestions com la selecció de personal, els préstecs bancaris o el sistema judicial”. Baeza-Yates, professor de la Northeastern University al campus de Silicon Valley, afirma que aquests estereotips també estan afectant l’administració pública. “Els algorismes esbiaixats generen un cost social. Fa poc, als Països Baixos, un jutjat va dictaminar que el govern no podia continuar usant un sistema de detecció de frau social perquè discriminava
gent pobra”, aclareix.

Els models matemàtics no només reprodueixen els prejudicis socials, els perpetuen. “Pensem com seria la nostra vida si, pel simple fet de pertànyer a un grup minoritari, se’ns denegués sistemàticament un crèdit bancari o el reconeixement facial d’un aeroport ens impedís accedir a un país perquè
no és capaç de reconèixer-nos”, apunta Solans. No són exemples fora de la realitat, són casos que ja han succeït.

Joy Buolamwini, una investigadora afroamericana de l’Institut de Tecnologia de Massachusetts (MIT), va descobrir que els sistemes de reconeixement facial no aconseguien identificar el seu rostre, però sí el dels seus companys blancs. Aquestes intel-ligències artificials aprenen a través de les imatges que se’ls ensenyen durant el seu desenvolupament.

Com la majoria de les fotografies que s’havien emprat per entrenar aquests sistemes eren d’homes blancs, els costava detectar les cares negres femenines. Buolamwini s’havia de posar una careta blanca perquè la reconegués. Arran d’això, la investigadora del MIT va decidir fundar la Lliga de Justícia Algorítmica per, segons va explicar, “crear un món on la tecnologia treballi per a tots nosaltres, no sols per a alguns de nosaltres”.

“La justícia algorítmica tracta d’identificar, aïllar i mitigar els biaixos en els sistemes de decisions automatitzades”, as senyala Solans, que defensa la necessitat d’incorporar tècniques d’antidiscriminació. “Si sabem de quin biaix es tracta, podem erradicar-ho processant les dades per eliminar-lo.

No obstant això, el problema és que moltes vegades hi ha alguns que no coneixem i no són fàcils de trobar”, apunta Baeza-Yates. El director del Grup de Recerca Ciència Web i Computació Social de la UPF, Carlos Castillo, afirma que posar una solució “és difícil perquè, a vegades, la pregunta més important és si hauria d’utilitzar un algorisme o no”. “A vegades, la resposta és negativa”, conclou.

I les institucions?

Algunes administracions ja estan donant resposta a la discriminació algorítmica. Per exemple, l’article 22 del Reglament General de Protecció de Dades de la Unió Europea prohibeix que una intel·ligència artificial pugui prendre decisions per si sola. Sempre és necessària la intervenció d’un ésser humà. A més, aquest article declara el dret d’una persona a rebre explicacions sobre qualsevol decisió que l’hagi afectat i en la qual hagi participat un sistema automatitzat.

Però la participació d’una persona en la decisió no garanteix que sigui justa. “Fins i tot quan hi ha una persona a càrrec de prendre la decisió final, pot estar sobrecarregada de treball o pot tenir incentius per acceptar la indicació de l’algorisme cegament”, adverteix Castillo. Si obeeixes l’algorisme i t’equivoques, pots tirar-li la culpa a l’algorisme. Si el contradius i comets un error, la responsabilitat és teva.

Falta de transparència
“El model algorítmic en si és una caixa negra; el seu contingut, un secret corporatiu ben guardat”, escriu Cathy O’Neil en el seu llibre Armes de destrucció matemàtica. I és que, si les empreses que es dediquen a dissenyar models matemàtics no els mantinguessin en secret, es quedarien sense producte.

Una altra de les raons que explica aquesta falta de transparència és que, si les persones coneguessin com funciona el sistema que les avalua, sabrien com enganyar-lo. A més, les empreses són conscients que, amagant els detalls dels seus programes, les persones no poden qüestionar els seus resultats fàcilment.

Sota l’aparença de neutralitat, les matemàtiques han anat prenent a poc a poc el control sobre les nostres vides. Com que no és un fenomen visible, és difícil adonar-se de la seva magnitud.

No obstant això, segons Cathy O’Neil, “hem d’exigir responsabilitats als creadors dels algorismes; l’era de la fe cega en les dades massives ha d’acabar”. “Els sistemes de decisió automatitzada no són la solució als
estereotips humans, són les persones les que han de resoldre aquest problema”, opina Baeza Yates. No obstant això, també reconeix que “ens poden ajudar no sols prenent decisions menys esbiaixades, sinó també fent-nos notar els nostres propis biaixos”.

David Solans creu que també cal posar l’atenció en un altre tema: “Un jutge racista pot perjudicar poques desenes d’individus en un sol dia; el problema dels algorismes amb biaixos racistes és que poden avaluar milers de persones en pocs segons”.

FA*IR, l’algorisme de la UPF que lluita contra la discriminació

Un algorisme que és capaç de detectar biaixos discriminatoris en altres algorismes i corregirlos. Aquest és el projecte que ha desenvolupat el Grup de Recerca Ciència Web i Computació Social de la UPF conjuntament amb la Universitat Tècnica de Berlín i el Centre Tecnològic de Catalunya.

La iniciativa FAIR ha estudiat bases de dades d’ofertes de treball, de reincidències de condemnats i de rànquings d’admissions a la universitat per detectar patrons de discriminació en bases de dades que afavoreixen o perjudiquen determinats col·lectius socials.

Una de les situacions que els desenvolupadors de FAIR pretenen corregir és, per exemple, quan un portal de cerca d’ocupació té perfils de dones i homes amb una formació similar, però en els primers resultats del cercador solament apareixen homes. L’algorisme FAIR detecta patrons de discriminació per raó de gènere, aparença física o color de pell i els corregeix a través de mecanismes d’acció positiva per garantir la igualtat.

Read more

¿El fotoperiodismo va a desaparecer?

El mundo tecnológico y digitalizado pide una reestructuración del fotoperiodismo

Inés Rey

En los últimos años, con la fotografía digital, internet y los Smartphone, se ha democratizado, a unos niveles impensables hace unos años, la fotografía, su acceso y su difusión. Es decir, cualquier persona puede hacer una fotografía con su móvil, sin necesidad de dominar la técnica y sin la necesidad de comprar caras herramientas que antes eran necesarias para hacer una fotografía. Además, quien hace una fotografía puede también compartirla con quien desee. En resumen, cualquiera puede ser fotógrafo.

Un usuario común haciendo una fotografía con su Smartphone / UNSPLASH

En consecuencia, actualmente la sociedad recibe abundantes relatos de los sucesos del mundo. Pero, por otro lado, ahora no sabemos quién es el autor de la fotografía, por lo que las fakenews y las fotografías manipuladas (tan abundantes hoy en día) son más difíciles de contrastar. Rebeca Pardo, profesora e investigadora de fotografía y fotoperiodismo, lo explica así: “Siempre se han podido manipular las fotografías, pero antes más o menos sabías quién te enviaba la foto y podías comprobarlo. Ahora, por la inmediatez, los filtros que debería haber no están. Un fotoperiodista debería tener nociones de deontología periodística, de derecho, de ética… que un usuario común con un móvil en la mano no tiene”. 

Y es que el hecho de que cualquiera pueda ser fotoperiodista lleva al intrusismo laboral. Es decir, hay gente que no está profesionalmente preparada para dedicarse a la fotografía, pero se introduce a trabajar en el ámbito. Rebeca Pardo lo explica: “En la medicina sería impensable, pero en el ámbito de la fotografía, cualquiera que haga buenas fotos, puede ser periodista. Ahora cualquiera con un teléfono móvil puede subir sus fotos y venderlas.”

Además, ahora, la fotografía, si se realiza en el momento inmediato de la acción, aunque no tenga una buena calidad, es la fotografía que sale en todas las portadas. Asimismo, se reciben muchas fotografías incluso a un precio gratuito, ya que muchas personas quieren que se publique su fotografía en los medios y no quieren cobrar. Y esto hace que caigan en picado los precios de fotografía. “Yo conozco a mucha gente que ha dejado el fotoperiodismo o que lo va a dejar por temas económicos. Yo misma fui cuatro años fotoperiodista en Perú, pero cuando volví aquí no quería seguir trabajando porque no estaba dispuesta a no cobrar.”-cuenta Rebeca. De hecho, hay muchos medios que han despedido a toda la plantilla de fotoperiodistas porque consideran que los periodistas con un móvil ya pueden hacer el trabajo de un fotógrafo.

Fotografía destacada por Photographic Social Vision por ser un buen ejemplo de fotoperiodismo. no solo prima el momento, sino la calidad y profundidad, La fotografía captura la quema de contenedores por parte de independentistas radicales durante el Tsunami Democràtic. /. MIREIA COMAS

Actualmente, la mayoría de las fotografías de los medios de comunicación son fotografías de agencias como Reuters, AP y EFE. Los medios de comunicación les pagan una tarifa anual que les permite disponer de fotografías de todo el mundo hechas por grandes fotógrafos. Y este contrato les sale más económico a las empresas comunicativas, que no disponer de fotógrafos en plantilla. Silvia Omedes, fundadora de Photographic Social Vision, afirma: “Las agencias quieren tener el máximo número de clientes, y, en consecuencia, elaboran una fotografía muy directa, muy expresiva, pero con pocos niveles de profundidad. Las agencias venden postales de impacto, pero no venden proyectos que vayan a fondo”. 

Asimismo, que los medios de comunicación se nutran mayoritariamente de fotografías de agencias es empobrecedor, ya que conlleva a que solo se tengan fotografías de los hechos, y que falten los antecedentes y las consecuencias. Por lo que las fotografías no aportan continuidad, interpretación, contextualización, sino que son simples impactos. Como bien Silvia Omedes afirma: “El fotoperiodismo tendría que ser una lupa que nos permitiera comprender la realidad con profundidad. No ser una bofetada, sino que nos permitiera tener un juicio de la realidad.” Rebeca Pardo añade: “Esto son unas implicaciones que para mí son muy graves. Porque para mí un fotoperiodista domina, sabe la técnica, sabe el lenguaje de la fotografía, trabaja la profundidad.”

Fotografía publicada en el Instagram de Photographic Social Vision destacando que es una fotografía que enaltece la belleza, la experiencia, la sabiduría y la vida cotidiana de la mujer gitana, dándole la dignidad y respeto que se merece. / JACQUES LEÓNARD

En respuesta a esta situación, las expertas afirman que ha de haber una reestructuración del fotoperiodismo. “La práctica se está adelantado a todo y en algún momento se tendrán que analizar las consecuencias de todo esto. Yo creo que la profesión está cambiando, estamos en un momento de cambio”- afirma Rebeca. Y, efectivamente, el fotoperiodismo, en esta etapa tecnológica, está buscando alternativas a los medios tradicionales: como festivales, concursos, becas, internet, redes sociales… Donde el fotoperiodismo actúa más hoy en día es en la prensa digital y en Instagram, una gran fuente de fotoperiodismo. De hecho, el conocido #Documentaryphotography aglutina los mejores trabajos periodísticos del siglo XXI.

Captura de pantalla del Instagram de #documentaryphotography

Hay esperanza. “El fotoperiodismo no morirá nunca. El ser humano necesita explicar qué está ocurriendo y compartirlo con la gente. Igual que los escritores no dejarán de escribir y los periodistas nunca dejarán de relatar”, afirma Silvia Omedes. Rebeca Pardo, cree, al respecto, que tampoco se ha de idealizar la figura del fotoperiodista. “Las películas solo hacen que idealizar el fotoperiodismo de guerra o de grandes paisajes. La gente se piensa que es eso, y luego ve que nunca hay trabajo”. 

Además, también se tendría que hacer un replanteamiento sobre qué es el fotoperiodismo, cuál es su misión y sus funciones, para que se valore universalmente esta figura y no se piense que puede ser fotoperiodista cualquier persona con un móvil, ya que los expertos consideran que el fotoperiodismo es algo más. De hecho, hasta los investigadores consideran que no hay unanimidad en cuanto a la definición del fotoperiodismo, sus tipologías y sus funciones, ya que el fotoperiodismo no es un gran campo de investigación. “La fotografía nunca ha sido académicamente estudiada como tal. De entrada, hay enormes dificultades para encontrar un criterio unánime en cuanto a qué es, cuáles son sus géneros, sus subgéneros”- expresa Rebeca.

O quizá la solución es que todos aprendan bien a hacer de fotoperiodistas, como Rebeca considera: “Creo que en un futuro todo periodista será periodista sinfónico. Aquellos que narren historias serán capaces de hacer fotos, vídeos y escribir. Y aquellos que lo hagan con mayo estilo, serán los que llegarán a dedicarse”.

Se ha de aprender a hacer fotoperiodismo de calidad, de profundidad. En vez de sustituir el verdadero fotoperiodismo por la fotografía que todos podemos hacer. Lo que está claro es el gran poder del fotoperiodismo. El fotoperiodismo, en muchas ocasiones, ha conseguido cambiar la sociedad. Por ejemplo, el fotoperiodismo en la Guerra de Vietnam, que hizo cambiar la visión de la guerra en la sociedad americana e hizo que la opinión pública se opusiera a la guerra. Y es que el dicho no es en vano: “Una fotografía vale más que mil palabras”.

Una de las imágenes icónicas del conflicto de Vietnam, en la que se ve a una niña de nueve años, Phan Thi Kim Phuc, corriendo desnuca y aterrorizada por una carretera tras un ataque con napalm. /NICK UT
Read more

El món virtual dels eSports és tota una realitat

Els Leo Messi del teclat i el ratolí Read more

Videojocs: construir la realitat amb ficció

Read more

Gamificació, quan els jocs t’ajuden a aprovar

Leo Kiernan (@KiernanLeonardo), Arturo Pérez i Olga Fernández (@Olga_Fdez)

El fet de plantejar la classe des d’un punt de vista més lúdic fa que els alumnes estiguin més motivats i que millorin les relacions interpersonals, aprenent a treballar en equip. Però per a que la gamificació funcioni de manera adequada calen més eines que el joc en si; «una estructura que funciona a una aula d’una escola pot no funcionar a la clase del costat», diu González Tardón, Doctor en Psicologia, Oci i Desenvolupament Humà per la Universitat de Deusto i professor doctor associat al Tecnocampus de Mataró.


Read more

Una iniciativa per crear «bons» ciutadans



Des del passat 1 de maig els ciutadans xinesos s’ho pensaran dos cops abans de cometre un acte catalogat com a “dolent”. I és que el Govern de la Xina ha començat a impulsar la iniciativa del “Sistema de Crèdit Social”, un carnet que valora si ets un bon o un mal ciutadà. Accions com difondre informació falsa sobre terrorisme o no pagar als transports públics seran motius suficients, segons la Comissió Nacional de Desenvolupament i Reforma xinesa, per prohibir l’ús d’avions o de trens durant un any.

Aquesta iniciativa parteix de la concepció de la Xina del seu president, Xi Jinping, que vol crear una societat de la “sinceritat”, amb un sistema de puntuació a gran escala de “bons” o “mals” ciutadans per així poder redreçar els mals ciutadans o penalitzar-los. La intenció del Govern és implementar plenament aquest sistema l’any 2020, però grans ciutats com Pequín ja estan totalment sota vigilància.

Les puntuacions obtingudes pel “Sistema de Crèdit Social” influiran en molts aspectes claus de la vida quotidiana com: el lloguer d’un habitatge, les assegurances, els préstecs, la sanitat pública, l’educació… Tant és així que, els ciutadans amb puntuacions baixes, tindran vetat l’accés a certs llocs de treball i a certs establiments públics. No obstant això, el Govern xinès justifica la implementació d’aquest “carnet” dient que “el Sistema de Crèdit Social» permetrà a les persones de confiança anar a tots llocs mentre que els desacreditats no podran fer ni un pas”.

Per poder mesurar i qualificar les accions dels ciutadans xinesos, el Govern obliga a tenir una aplicació de vigilància en tots els telèfons mòbils i sotmetre a la ciutadania a un control exhaustiu amb càmeres de videovigilància intel·ligents les 24 hores del dia. El nombre d’aquestes càmeres ja ascendeix a més de 20 milions i el seu funcionament és dels més punters en matèria de vigilància. En aquest vídeo podem veure com funcionen aquestes càmeres i com és possible reconèixer els seus ciutadans en menys d’un segon:

Les primeres informacions sobre aquest sistema daten el 2014, quan el Consell d’Estat de la Xina publicà un document amb la idea d’una qualificació pels seus ciutadans. Des d’aleshores, aquest sistema ha estat el focus d’atenció per molta gent i se l’ha arribat a comparar amb el primer capítol de la tercera temporada de Black Mirror, una sèrie de ciència-ficció que qüestiona l’ús i les possibilitats de les noves tecnologies.

Aquest control social “exagerat” suposa uns nivells de paternalisme mai vistos en la societat del segle XXI i ens planteja qüestions com si aquest sistema és compatible amb els drets humans o si és possible que s’extrapoli a la nostra societat. Realment, aquest sistema té un component molt totalitari. Suposa una invasió total a la privacitat dels individus i a la seva capacitat d’escollir lliurement. Per exemplificar aquesta violació dels drets individuals de les persones és molt interessant veure aquest exemple: un ciutadà xinès no podrà opinar malament sobre aquest nou sistema ja que, si ho fa, obtindrà una mala nota i serà penalitzat.

En paraules de Maya Wang, investigadora de l’ONG Human Rights Watch: “Les autoritats del Govern xinès esperen crear una realitat en la qual la mesquinesa burocràtica pugui limitar significativament els drets de les persones”.

Veient el grau de control d’aquesta iniciativa, és molt complicat que es pugui exportar a Occident, almenys amb les mateixes característiques. Abans d’aplicar el “Sistema de Crèdit Social” a Europa o els Estats Units s’haurien de modificar estructures massa ben assentades dins la nostra societat. Xina es pot permetre aquest control ja que, prèviament, s’ha infiltrat en la vida de les persones controlant Internet, totes les xarxes socials i ha omplert el país amb càmeres de videovigilància.

Valors com la propietat individual, la llibertat o la democràcia porten dins les nostres societats des de fa més de tres segles. Amb un context històric i social on els valors anteriors han arrelat des de fa tant temps costarà molt aplicar el sistema de control que està teixint la Xina. Tot i la clara desafecció política de la ciutadania, la crisi de valors i el descontentament general actual, la nostra privacitat segueix sent un pilar, de moment, massa sòlid.

Read more

Una nova tecnologia permet descobrir runes d’una ciutat maia

BRITT ELVIRA (@brittelvirar)

Més de 60.000 assentaments humans de la civilització maia van ser revelats gràcies un dispositiu làser a la selva de Guatemala

Durant segles l’Antiga Grècia ha estat considerada una de les civilitzacions més “sofisticades”, però una nova investigació suggereix que la població maia podria ser igual d’avançada i complexa. Un grup d’arqueòlegs ha descobert una gran extensió de runes maies amagades a la selva de Guatemala mitjançant l’ús d’una tecnologia d’escaneig làser. Aquest descobriment es postula com una de les troballes arqueològiques més importants, i replanteja la consideració d’una de les civilitzacions més antigues del planeta Terra.

Fes clic a la imatge per veure les runes!

Fes clic a la imatge per veure les runes!

El descobriment va ser anunciat la primera setmana de febrer de 2018 per la Fundació Patrimoni Cultural i Natural Maia de Guatemala, una associació formada per arqueòlegs dels Estats Units d’Amèrica, de la Unió Europea i de Guatemala. Els investigadors van rastrejar més de 2.100 km quadrats a la regió de Petén, al nord de Guatemala, fins que es van trobar amb unes runes impressionants.

Aquesta troballa, realitzada per un equip de National Geographic, va ser possible gràcies a l’ús de la revolucionària tecnologia LiDAR (Laser Imaging Detection and Ranging per les seves sigles en anglès, que consisteix en la Detecció i Mediació d’Imatges amb Làser). Es tracta d’un dispositiu que, mitjançant un escaneig làser, permet determinar la distància des d’un emissor a un objecte o superfície. Aquesta tecnologia (que es va emprar des d’un avió) va permetre als arqueòlegs crear una imatge tridimensional detallada del que realment hi havia sota la superfície d’aquella zona.

Una metròpoli maia sota la densa selva

Quan els investigadors van retirar digitalment la superfície forestal de les imatges aèries es van trobar amb uns assentaments espectaculars. Més de 60.000 cases, palaus, xarxes de carreteres que connectaven centres urbans i fortificacions de defensa configuraven aquest paisatge maia que havia quedat ocult durant segles a la selva de la Reserva de la Biosfera Maia a Guatemala.

Els descobriments també inclouen quatre centres cerimonials amb places i piràmides fins a 7 pisos que pràcticament havien quedat foses entre la vegetació. A més, les imatges van revelar la presència de camps agrícoles de gran extensió i canals d’irrigació, cosa que suggereix que més de 10 milions de persones podrien haver habitat aquella zona, que són “dues o tres vegades més (habitants) del que es pensava fins ara” puntualitza Marcello A. Canuto, professor d’antropologia de la Universitat Tulane (Nova Orleans).

Dr Francisco Estrada-Belli, Thomas Garrison i Dr. Albert Lin a National Geographic (NatGeo)

Dr Francisco Estrada-Belli, Thomas Garrison i Dr. Albert Lin a National Geographic (NatGeo)

No obstant això, a la investigació també es va descobrir que milers de fosses havien estat saquejades. Tot i així, eren poques les persones que sabien l’existència d’aquesta gran metròpoli maia. Segons Thomas Garrison, professor adjunt d’antropologia a la Universitat Ithaca de Nova York, la selva hauria crescut per sobre els camps i les estructures maies, fent-les invisibles a simple vista però a la vegada també conservant-les: “Aquesta selva, que ha obstaculitzat els nostres esforços per descobrir durant tant de temps, de fet ha operat com una magnífica eina de conservació”.

La revolucionària tecnologia trasbalsa l’arqueologia

El descobriment forma part d’un projecte que porta en marxa des de fa tres anys, però no ha sigut fins l’anàlisi LiDAR que s’ha revelat aquesta gran extensió d’assentaments humans maies, els quals havien quedat ocults a simple vista.

Així com va explicar Francisco Estrada-Belli, arqueòleg de la Universitat de Tulane, a la revista National Geographic: “La LiDAR està revolucionant l’arqueologia de la mateixa manera que el Telescopi Espacial Hubble va revolucionar l’astronomia”. Aquest dispositiu ha permès descobrir assentaments que passen desapercebuts a ull nu, com va passar amb les troballes dels voltants del temple d’Angkor Wat a Cambodja que també van ser revelats per LiDAR.

Aquesta tecnologia ha marcat un punt d’inflexió a la història de l’arqueologia, i en aquest cas ha mostrat com una de les civilitzacions més antigues és molt més complexa del que els experts sentenciaven. El diumenge 11 de febrer el canal NatGeo emetrà una sèrie documental sobre aquest descobriment.

Read more

L’app per a corredors Strava revela la localització de bases militars secretes

L’aplicació ha fet públics els moviments dels soldats en zones de conflicte a través d’un mapa de calor

Mapa de calor de Strava d'una base militar a la província de Helmand, a Afganistan / Font: Strava

Mapa de calor de Strava d’una base militar a la província de Helmand, a l’Afganistan / Font: Strava Global Heatmap

ELIA APARICIO | @elia_aparicio

Probablement molts de nosaltres desconeixem l’enorme quantitat d’informació que, de forma constant i massiva, recopilem a través dels nostres dispositius mòbils: des dels nostres moviments fins les nostres preferències musicals. Totes aquestes dades, conegudes com a Big Data, tenen com a principal objectiu la detecció de patrons de conducta que contribueixin, a la llarga, a una millor presa de decisions. Aquest afany de les empreses tecnològiques per a emmagatzemar dades pot comportar que una acció tan innocent com engegar el GPS ens deixi orfes de tota privacitat.

Això els ha passat als soldats estatunidencs que es troben en països de conflicte: a través de Strava, una aplicació mòbil encarregada de recopilar els diversos recorreguts que fan els corredors d’arreu del món, s’han revelat les localitzacions de diverses bases militars, atès que la gran majoria dels usuaris són personal de l’exèrcit. No és extraordinari que els soldats s’entrenin corrent al voltant de les bases militars. Per aquest motiu, Strava, que s’autodenomina «la xarxa social dels esportistes», ha detectat el perímetre de dites bases a través d’un mapa de calor. L’app es pot connectar amb les Fitbit, polseres que detecten l’activitat física del seu portador, 7.000 unitats de les quals el Pentàgon va repartir entre els membres de l’exèrcit nord-americà.

L’app va fer públic, el passat mes de novembre, un mapa de calor que posava de manifest els itineraris més concorreguts pels seus usuaris. Però no ha estat fins el gener d’enguany quan l’analista de l’Institute for United Conflict Analysts Nathan Ruser, a través de Twitter, es va fer eco dels problemes de seguretat que presenta dita aplicació. «Strava ha fet públic el seu mapa global de calor. 13 trilions de punts GPS dels seus usuaris (compartir les dades és una opció que es pot apagar). El mapa es molt bonic, però no per a la seguretat de les operacions. Las bases dels Estats Units són clarament identificables», va piular.

A través d’aquesta filtració d’informació, s’han pogut conèixer la localització de diverses bases militars, d’entre les quals hi cal destacar les ocupades pels nord-americans a Afganistan: l’aeròdrom de Bagram, al nord de Kabul; i l’aeròdrom de Kandahar, al sud del país. Malgrat que la major part de la informació ha perjudicat l’exèrcit dels Estats Units, també s’ha registrat l’activitat de soldats russos i europeus, entre els quals hi ha guàrdies civils espanyols. A través del Strava Global Heatmap, s’ha pogut detectar clarament el perímetre de la base de l’exèrcit espanyol Gran Capitán, situada a 60 quilòmetres al sud de Bagdad. També és visible la base militar d’Adana, propera a la frontera amb Turquia, on 150 soldats espanyols ajuden, a petició de l’OTAN, a defensar el país turc davant la guerra de Síria.

En resposta a la polèmica, l’executiu en cap de Strava, James Quarles, s’ha compromès a «treballar amb oficials militars i governamentals per a adreçar dades potencialment sensibles», així com també a optimitzar les funcions de privadesa de l’aplicació i «revisar funcions dissenyades originalment per a la motivació i la inspiració de l’atleta, per tal de garantir que no puguin ser compromeses per persones amb mala intenció».

Read more

Jo, robot?

Explorem el corrent filosòfic del transhumanisme i el ciborguisme, dues tendències que cerquen fer realitat els mons ficticis de Frankeinstein o Blade Runner.

Read more

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

Aviso de cookies