For a Global Public Initiative for AI Safety and Radical Healthy Longevity
Inspired by the example of CERN
Technoprogressive Policy Project
It is possible to achieve world-class science that is open and mission-driven. CERN is living proof of this: a laboratory founded by treaty, with broad membership (currently 25 member states, mainly from the European Union, with the United States having observer status), which produces common public goods of knowledge on a global scale. It even gave humanity the World Wide Web, which was released into the public domain in 1993, a deliberate gesture of openness that accelerated innovation for everyone, members and non-members alike.
Other collective public projects have changed the world. These include the Manhattan Project for nuclear weapons (a primarily American project, but also involving the United Kingdom and Canada), the Apollo program and its Soviet equivalent, and the International Space Station.
It is time to apply CERN’s methods to artificial intelligence - particularly to the development and evaluation of useful and safe large language models (LLMs). The goal is to create an intelligence capable of uncovering biological mechanisms that radically extend healthy life and equally radically reduce the risks of human destruction by misaligned intelligence.
LLMs already directly or indirectly influence virtually every human on the planet. It is urgent that public authorities take the initiative to provide a reliable tool, not just in statements, rules, and funding, but in concrete terms by “getting their hands dirty.” This is an absolute emergency for humanity. If we create an entity more powerful than ourselves and it is not aligned with our intentions, we will not have a second chance; it would mean game over for everyone. And the overwhelming majority of humans on the planet believe that we should not create an intelligence superior to our own under these conditions.
Ideally, this should be a global effort, shared by humanity. The realistic level is that of the European Union, expanded as soon as possible. Europe, despite its imperfections, is the region of the world with the most public resources, the most collective-minded concerns, the most scientists, and unparalleled diversity. The development of useful and safe LLMs should be done in collaboration as much as possible with leading researchers in the field of hopes and risks, notably Yoshua Bengio and his organization Law Zero, as well as representatives of AI safety institutes around the world. For longevity, collaboration should involve organizations such as the Longevity Escape Velocity Foundation, Altos Labs, and Google Calico, with the condition that knowledge be shared immediately.
It may seem strange to combine two areas of research that are, at first glance, very different. And, of course, an international public project for just one of these goals would already be a huge step forward for humanity. But general-purpose artificial intelligence is like human beings. It is capable of both the best and the worst. Ideally, therefore, both aspects of the debate should be pursued simultaneously, with each area of research keeping the other in mind. What is done for human resilience and the fight against disease and illness can also be used to cause harm. It should also be noted that both resilience and risks to humanity also depend on controlling the environment and pollution, both in the short and long term. The sustainable continuity of our bodies and our technologies must take place in a sustainable environment.
What would this initiative look like? It could be a public interest charter backed by a treaty starting in Europe, but with doors open to the United States, China, and the rest of the world as full partners, in the spirit of the Bletchley Declaration on cooperation in frontier AI.
European and then global funding would enable rapid advances in safety assessments, interpretability and alignment research, open training on a non-hazardous scale, and health research.
It would be open science by default. CERN’s ethic of “as open as possible, as closed as necessary” provides a clear direction. Workstreams will be needed that give absolute priority to safety and resilience.
By initiating this global public option for broad artificial intelligence, Europe will transform existential safety and healthy longevity into common goods. Let’s start in Brussels and Geneva, and converge on Boston, Shenzhen, and elsewhere.
Pour une initiative publique mondiale pour la sûreté de l’IA et pour une longévité radicale en bonne santé s’inspirant de l’exemple du CERN.
Il est possible de réaliser une science de rang mondial, ouverte et guidée par une mission. Le CERN en est la preuve vivante : un laboratoire fondé par traité, à l’adhésion large (aujourd’hui 25 États membres principalement de l’Union européenne, les États-Unis ayant un statut d’observateur), qui produit des biens publics communs de connaissances à l’échelle planétaire. Il a même offert à l’humanité le World Wide Web, versé dans le domaine public en 1993, un geste délibéré d’ouverture qui a accéléré l’innovation pour toutes et tous, membres ou non-membres.
D’autres projets publics collectifs ont changé le monde. Il en va ainsi notamment du projet Manhattan pour l’arme nucléaire (projet principalement américain, mais aussi britannique et canadien), du projet Apollo et de son équivalent russe et de la station spatiale internationale.
Il est temps d’appliquer les méthodes du CERN à l’intelligence artificielle — en particulier au développement et à l’évaluation de grands modèles de langage (LLM) utiles et sûrs. Il s’agit de créer une intelligence capable de mettre au jour des mécanismes biologiques qui prolongent radicalement la vie en bonne santé et en diminuant tout aussi radicalement les risques de destruction des humains par une intelligence non alignée.
Les LLM influencent déjà directement ou indirectement quasiment chaque humain de la planète. Il est urgent que les pouvoirs publics prennent l’initiative d’offrir un outil fiable, pas seulement en déclarations, règles et financements, mais concrètement en « mettant les mains dans le cambouis»”. C’est une urgence absolue pour l’humanité. Si nous créons une entité plus puissante que nous et qu’elle n’est pas alignée sur nos intentions, nous n’aurons pas de seconde chance, cela signifierait la fin de partie pour tous. Et l’écrasante majorité des humains de la planète considère qu’il ne faut pas créer une intelligence supérieure à la nôtre dans ces conditions.
Idéalement, cela devrait être un travail mondial, commun à l’humanité. Le niveau réaliste est celui de l’Union européenne, élargi dès que possible. L’Europe, malgré ses imperfections, est la région du monde avec le plus de moyens publics, le plus de préoccupations collectives, le plus de scientifiques et une diversité sans égal. L’élaboration de LLM utiles et sûrs devrait se faire en collaborant autant que possible avec les chercheurs majeurs dans le domaine des espoirs et des risques, notamment Yoshua Bengio et son organisation Loi Zéro, ainsi que des représentants des instituts de sécurité de l’IA de par le monde. Pour la longévité, la collaboration devrait concerner des organisations comme la Longevity Escape Velocity Foundation, Altos Labs et Google Calico, avec comme condition de mettre en commun immédiatement les connaissances.
Il peut sembler étrange de joindre deux recherches a priori très différentes. Et bien sûr, un projet international public pour l’un seulement de ces objectifs serait déjà un immense progrès pour l’humanité. Mais l’intelligence artificielle large, c’est comme l’être humain. Elle est capable du meilleur comme du pire. Les deux aspects de la réflexion doivent donc idéalement être simultanés, chaque recherche dans une direction gardant l’autre en arrière-plan. Ce qui est fait pour la résilience humaine, la lutte contre les maladies et les affections peut aussi être utilisé pour nuire. Il faut aussi noter que tant la résilience que les risques pour l’humanité passent aussi par la maîtrise de l’environnement, des pollutions et ceci sur le court et le long terme. La continuité durable de nos corps et de nos technologies doit se faire dans un environnement durable.
À quoi ressemblerait cette initiative ? Il pourrait s’agir d’une charte d’intérêt public adossée à un traité démarrant en Europe, mais avec des portes ouvertes vers les États-Unis, la Chine et le reste du monde comme partenaires à part entière, dans l’esprit de la Déclaration de Bletchley sur la coopération en matière d’IA de frontière.
Les financements européens puis mondiaux permettraient des avancées rapides quant aux évaluations de sûreté, à l’interprétabilité et à la recherche en alignement, à des entraînements ouverts à échelle non dangereuse, et à des analyses de santé.
Il s’agirait d’une science ouverte par défaut. L’éthique du CERN « aussi ouvert que possible, aussi fermé que nécessaire » fournit un cap clair. Il faudra des chaînes de travaux donnant la priorité absolue à la sécurité et la résilience.
L’Europe en initiant cette option publique mondiale pour l’intelligence artificielle large transformera la sûreté existentielle et la longévité en bonne santé en biens communs. Commençons à Bruxelles et Genève, convergeons vers Boston, Shenzhen et ailleurs.




Gracias
For the foreseeable future, any dystopian threat comes from people who engineer the systems, not the systems themselves. And so, constraints of the sort implied by the question are neither needed nor wise to introduce.
Too many people misunderstand the state and capabilities of AI. I made the same mistake myself thirty years ago. And Asimov proposed his own solution in the three laws of Robotics in 1942, 74 years ago. We're no closer to needing Asimov's laws today than we were when he wrote them.
Look at self-driving cars. Machine learning based AI is a key component of the control system. Even so, the cars won't autonomously become murderous any more than an airplane autopilot will suddenly start lacing brownies with cyanide.
However, a single disgruntled employee could inject data into the learning system, compromise any tests, and result in a software update set to make all cars drive incorrectly. For example, the AI might have instructions saying that if it's after 7 pm PST on Thursday the 24th of March, accelerate when you should brake. Starting at that time, hundreds of thousands of people are injured or killed. It's not the control system independently causing the problem, it's the engineers, like someone who designs an accidentally or maliciously defective braking system in an ordinary car.
Even so-called generalized AI is a long ways away from being truly general. For such systems to work at all, data needs to be formatted and interpreted for the system using rules people create. Heuristics are put in place to interpret that data, or algorithms for generating those heuristics. Eventually simple decisions can be made based on input data. Those decisions can be translated into information ("yes, that's a goat.") or control inputs "apply 1% more throttle."
We are no closer to understanding and defining consciousness in any meaningful way than we were a thousand years ago. I don't believe 'conscious' AI will be created in the lifetime of anyone around as I write this. Putting safeguards in place to protect against something so poorly understood, so far in the future is ineffectual. If computer science and software engineering has taught me anything, it's the futility of writing code based on theoretical behaviors of systems we haven't built, don't understand, and can't convincingly predict the shape of. To do so inevitably causes more harm than good.
If you want to prevent AI and machine learning from harming people, ensure high quality research, development, and testing practices are in place. Have differentiated redundant protections against system failure. And keep your engineers from sabotaging the product.