Artificial Intelligence and the Militarization of Health


Article by Medina Avdagić, Revolutionary Communist International Tendency (RCIT), 15 June 2023




The COVID-19 Counterrevolution was a crucial episode in recent history. Under the pretext of fighting a pandemic, ruling classes all over the world tested the waters for an increase of surveillance and even military mobilizations. [1] Today it might seem that this historic episode was short-lived, a lapse towards Bonapartism without remnants. Interestingly enough, various developments in the field of Artificial Intelligence do show a continuation of dystopian symbiosis of military and health care. In this article, we will give three examples to show different forms of this symbiosis.


The Pentagon has recently stated its investment in the Rapid Assessment of Threat Exposure (RATE) program. Soldiers of the U.S. imperialist beast would wear biometric trackers, so that any health issue they might develop (especially in case of an infection with a virus or bacteria) could be recognized with the very first symptoms. [2] Not surprisingly, this technology is explained in context of a pandemic like COVID-19 and the necessity to stop the spreading of such a virus in the military apparatus. However, the approach that a devise should be worn at any time by healthy people – in this case soldiers – is nothing else but total surveillance via biometric data. It would not be surprising if the next ones to get to wear such gadgets might be health workers, then teachers, transport workers and factory workers, … and then everybody.




40,000 new possible chemical weapons developed in less than 6 hours




Another quality in the fusion of A.I. and health care is drug developing A.I., which has recently undergone an interesting simulation. Specific paradigms of the algorithm were tweaked so that the A.I. would not compose a new medicine but rather a new chemical weapon. It took the A.I. less than six hours to develop 40,000 (!) new possible chemical weapons. The lead author of the paper written about this experiment, Fabio Urbina, was asked about the reasons why they even thought about such a simulation. His answer is very interesting: “We got an invite to the Convergence conference by the Swiss Federal Institute for Nuclear, Biological and Chemical Protection, Spiez Laboratory. The idea of the conference is to inform the community at large of new developments with tools that may have implications for the Chemical/Biological Weapons Convention. We got this invite to talk about machine learning and how it can be misused in our space.” [3]


Further in the interview, which was published in March 2022, Fabio Urbina also gave the example of OpenAI and their chatbot GPT-3 when it comes to regulations: “For context, there are more and more policies about data sharing. And I completely agree with it because it opens up more avenues for research. It allows other researchers to see your data and use it for their own research. But at the same time, that also includes things like toxicity datasets and toxicity models. So it’s a little hard to figure out a good solution for this problem. We looked over towards Silicon Valley: there’s a group called OpenAI; they released a top-of-the-line language model called GPT-3. It’s almost like a chatbot; it basically can generate sentences and text that is almost indistinguishable from humans. They actually let you use it for free whenever you want, but you have to get a special access token from them to do so. At any point, they could cut off your access from those models. We were thinking something like that could be a useful starting point for potentially sensitive models, such as toxicity models.”[4]


Finally, there is the example of the mini-drone Lanius – from the Latin word for butcher – which was developed by the Israeli arms manufacturer Elbit Systems. Unsurprisingly, the drone will be used against Palestinians fighting for their freedom. The very small drone which can easily be carried in the backpack of an Israeli soldier is built to shoot and can also function as a kamikaze drone. In addition to the small size which enables the use in populous urban areas, it is controlled by an algorithm that can be modified to make its own decision in combat. [5]


The autonomous function is officially not in use yet, but one can imagine how Apartheid state Israel readily tests autonomous weapons, compensating for an army relatively small in manpower. So far, so bad. The algorithm for such drones however is already in use since longer time. It was implemented in screenings for breast cancer. [6]




Why Artificial Intelligence is not as crucial as the capitalist medical industry wants us to believe




The RCIT has explained the dangers of Artificial Intelligence as such in its recent articles and statements. [7] We raise the slogan of “Oppose and Obstruct” when it comes to further developments of A.I. Our critics might argue that every technology can be used for good as well as for bad things, and that the examples above proof this dualism. Should we really oppose and obstruct something that for example helps to detect breast cancer?


In this concrete case (and in most other cases in the medical field), the answer is to rely on humans assisted by technical tools instead on Artificial Intelligence. Breast cancer screening is complicated, because of the density of the tissue. In various countries, at least two experienced doctors examine the scans independently from each other to increase the ratio of findings. In a Swedish study with 68,008 screenings, the doctor who examines first had an average specificity of 98.5% compared to 81% specificity by the A.I. algorithm. In general, only studies with an extremely small number of patients have resulted in a better performance of A.I. compared to the performance of one doctor (never outperforming two or more collaborating doctors). [8]


Even apparent success stories of Artificial Intelligence in healthcare should be read very critically. The U.S. Department of Veterans Affairs has started to use algorithms to calculate which veteran might get suicidal based on provided data. When the A.I. calculated a high risk, a health professional would get in contact with the veteran to help. A significant enough decrease of suicides arises from this. [9] But what if all veterans would have been provided with significant health care by human professionals from the very beginning? There is no such study because it was not tried yet.


The implementation of complex A.I. in the health system has first and foremost the function to replace health care professionals respectively to prepare their future replacement. At the same time, complex A.I. used in health care is often enough of direct or indirect use for the bonapartist interests of the capitalist state and its repressive military apparatus. The COVID Counterrevolution as we knew it might not be over but just changed its appearance. After all, for the ruling classes, it was never about saving lives and always about gaining more social control. Why should it be different when it comes to Artificial Intelligence?


[1] The RCIT has published more than 100 pamphlets, essays, articles and statements plus a book on the COVID Counterrevolution which are all compiled at a special sub-page on our website:

[2] Pentagon gets $10M to advance an AI algorithm that detects diseases early via wearables. With that funding boost, DOD will distribute thousands of devices to new cohorts. By Brandi Vincent, April 26, 2023.

[3] AI suggested 40,000 new possible chemical weapons in just six hours. By Justine Calma, The Verge, March 17, 2022.

[4] Ibidem

[5] Fears for Palestinians after Israeli Elbit Systems reveals 'terrifying' new drone to be put to use in occupied West Bank. By The New Arab Staff, 25 November, 2022.

[6] Zürcher KI-Forscher «Als wir das sahen, erschraken wir». Marguerite Meyer und Ariane Lüthi, Blick, January, 15, 2023.

[7] The RCIT documents on Artificial Intelligence are all compiled at a special sub-page on our website,

[8] Künstliche Intelligenz bei Brustkrebs-Früherkennung zu ungenau. APA, October 4, 2021.

[9] How the VA uses algorithms to predict suicide. By Mohana Ravindranath, POLITICO, June 25, 2019.




Have you read these articles?

Inteligência Artificial e a Militarização da Saúde

Artigo de Medina Avdagić, Corrente Comunista Revolucionária Internacional (CCRI/RCIT), 15 de junho de 2023


A contrarrevolução da COVID-19 foi um episódio crucial na história recente. Sob o pretexto de combater uma pandemia, as classes dominantes de todo o mundo fizeram todos os esforços para aumentar a vigilância e até mesmo as mobilizações militares. [1] Hoje pode parecer que esse episódio histórico teve vida curta, um lapso em direção ao Bonapartismo sem resquícios. É interessante notar que vários desenvolvimentos no campo da Inteligência Artificial mostram uma continuação da simbiose distópica entre militarismo e assistência médica. Neste artigo, daremos três exemplos para mostrar diferentes formas dessa simbiose.

O Pentágono declarou recentemente seu investimento no programa RATE (Rapid Assessment of Threat Exposure (Avaliação rápida da exposição a ameaças). Os soldados da besta imperialista dos EUA usariam em si mesmos rastreadores biométricos para que qualquer problema de saúde que pudessem desenvolver (especialmente no caso de uma infecção por vírus ou bactéria) e pudesse ser reconhecido logo nos primeiros sintomas. [2] Não é de surpreender que essa tecnologia seja explicada no contexto de uma pandemia como a COVID-19 e a necessidade de impedir a disseminação desse vírus no aparato militar. Entretanto, a abordagem de que um dispositivo deve ser usado a qualquer momento por pessoas saudáveis - neste caso, soldados - nada mais é do que a vigilância total por meio de dados biométricos. Não seria surpreendente se os próximos a usar esses dispositivos fossem os profissionais de saúde, depois os professores, os trabalhadores do setor de transportes e os operários de fábricas, ... e depois todo mundo.


40.000 novas possíveis armas químicas desenvolvidas em menos de 6 horas


Outra qualidade na fusão de I.A. e assistência médica é o uso da I.A. para desenvolvimento de medicamentos, que recentemente passou por uma simulação interessante. Paradigmas específicos do algoritmo foram ajustados para que a I.A. não compusesse um novo medicamento, mas sim uma nova arma química. A I.A. levou menos de seis horas para desenvolver 40.000 (!) novas possíveis armas químicas. O autor principal do artigo escrito sobre esse experimento, Fabio Urbina, foi questionado sobre os motivos que os levaram a pensar em tal simulação. Sua resposta é muito interessante: "Recebemos um convite para a conferência Convergence do Instituto Federal Suíço de Proteção Nuclear, Biológica e Química, Laboratório Spiez. A ideia da conferência é informar a comunidade em geral sobre novos desenvolvimentos com ferramentas que possam ter implicações para a Convenção sobre Armas Químicas/Biológicas. Recebemos esse convite para falar sobre aprendizado de máquina e como ele pode ser mal utilizado em nosso espaço." [3]

Mais adiante na entrevista, que foi publicada em março de 2022, Fabio Urbina também deu o exemplo da OpenAI e seu chatbot GPT-3 quando se trata de regulamentações: "Para o contexto, há cada vez mais políticas sobre o compartilhamento de dados. E eu concordo plenamente com elas, porque abrem mais caminhos para a pesquisa. Isso permite que outros pesquisadores vejam seus dados e os usem para suas próprias pesquisas. Mas, ao mesmo tempo, isso também inclui coisas como conjuntos de dados de toxicidade e modelos de toxicidade. Portanto, é um pouco difícil encontrar uma boa solução para esse problema. Olhamos para o Vale do Silício: há um grupo chamado OpenAI; eles lançaram um modelo de linguagem de primeira linha chamado GPT-3. É quase como um chatbot; basicamente, ele pode gerar frases e textos que são quase indistinguíveis dos humanos. Na verdade, eles permitem que você o use gratuitamente sempre que quiser, mas é preciso obter um token de acesso especial para isso. A qualquer momento, eles podem cortar seu acesso a esses modelos. Estávamos pensando que algo assim poderia ser um ponto de partida útil para modelos potencialmente sensíveis, como modelos de toxicidade." [4]

Por fim, há o exemplo do mini-drone Lanius - da palavra latina para açougueiro - que foi desenvolvido pela fabricante de armas israelense Elbit Systems. Não é de surpreender que o drone seja usado contra palestinos que lutam por sua liberdade. O drone muito pequeno, que pode ser facilmente carregado na mochila de um soldado israelense, foi construído para atirar e também pode funcionar como um drone kamikaze. Além do tamanho pequeno, que permite o uso em áreas urbanas populosas, ele é controlado por um algoritmo que pode ser modificado para tomar suas próprias decisões em combate. [5]

A função autônoma ainda não está oficialmente em uso, mas pode-se imaginar como o Estado do Apartheid de Israel testa prontamente armas autônomas, compensando um exército relativamente pequeno em termos de mão de obra. Até agora, tudo de ruim. No entanto, o algoritmo para esses drones já está em uso há muito tempo. Ele foi implementado em exames de câncer de mama. [6]


Por que a Inteligência Artificial não é tão crucial quanto o setor médico capitalista quer que acreditemos


A CCRI explicou os perigos da Inteligência Artificial como tal em seus artigos e declarações recentes. [7] Nossos críticos podem argumentar que toda tecnologia pode ser usada tanto para o bem quanto para o mal, e que os exemplos acima comprovam esse dualismo. Deveríamos realmente nos opor e obstruir algo que, por exemplo, ajuda a detectar o câncer de mama?

Nesse caso concreto (e na maioria dos outros casos na área médica), a resposta é confiar em seres humanos auxiliados por ferramentas técnicas, em vez de confiar na Inteligência Artificial. A triagem do câncer de mama é complicada, devido à densidade do tecido. Em vários países, pelo menos dois médicos experientes examinam os exames independentemente um do outro para aumentar a proporção dos resultados. Em um estudo sueco com 68.008 exames, o médico que examina primeiro teve uma especificidade média de 98,5%, em comparação com 81% de especificidade do algoritmo de I.A. Em geral, somente estudos com um número extremamente pequeno de pacientes resultaram em um melhor desempenho da I.A. em comparação com o desempenho de um médico (nunca superando o desempenho de dois ou mais médicos colaboradores). [8]

Até mesmo as aparentes histórias de sucesso da Inteligência Artificial na área da saúde devem ser lidas de forma muito crítica. O Departamento de Assuntos de Veteranos dos EUA começou a usar algoritmos para calcular qual veterano poderia se suicidar com base nos dados fornecidos. Quando a IA calculava um risco alto, um profissional de saúde entrava em contato com o veterano para ajudá-lo. Isso resultou em uma redução suficientemente significativa de suicídios. [9] Mas e se todos os veteranos tivessem recebido cuidados de saúde significativos de profissionais humanos desde o início? Esse estudo não existe porque ainda não foi testado.

A implementação de I.A. complexa no sistema de saúde tem, antes de tudo, a função de substituir os profissionais de saúde, respectivamente, para preparar sua futura substituição. Ao mesmo tempo, a I.A. complexa usada na área da saúde é frequentemente suficiente para uso direto ou indireto dos interesses bonapartistas do estado capitalista e de seu aparato militar repressivo. A contrarrevolução da COVID-19, como a conhecíamos, pode não ter acabado, mas apenas mudado de aparência. Afinal de contas, para as classes dominantes, nunca se tratou de salvar vidas e sempre se tratou de obter mais controle social. Por que deveria ser diferente quando se trata de Inteligência Artificial?



[1] A CCRI/RCIT publicou mais de 100 panfletos, ensaios, artigos e declarações, além de um livro sobre a Contrarrevolução COVID, todos compilados em uma subpágina especial em nosso site:

[2] O Pentágono recebe US$ 10 milhões para desenvolver um algoritmo de IA que detecta doenças precocemente por meio de dispositivos vestíveis. Com esse aumento de financiamento, o DOD distribuirá milhares de dispositivos para novos grupos. Por Brandi Vincent, 26 de abril de 2023.

[3] AI sugeriu 40.000 novas armas químicas possíveis em apenas seis horas. Por Justine Calma, The Verge, 17 de março de 2022.

[4] Ibidem

[5] Os medos dos palestinos depois que a Elbit Systems israelense revelou um novo drone 'aterrorizante' para ser usado na Cisjordânia ocupada. Por The New Arab Staff, 25 de novembro de 2022.

[6] Zürcher KI-Forscher «Als wir das sahen, erschraken wir». Marguerite Meyer e Ariane Lüthi, Blick, 15 de janeiro de 2023. erschrocken-id18227867.html

[7] Os documentos da CCRI/RCIT sobre Inteligência Artificial são todos compilados em uma subpágina especial em nosso site,

[8] Künstliche Intelligenz bei Brustkrebs-Früherkennung zu ungenau. APA, 4 de outubro de 2021.

[9] Como o VA usa algoritmos para prever o suicídio. Por Mohana Ravindranath, POLITICO, 25 de junho de 2019.