Сучасний стан розвитку глобальної цифрової економіки визначається безпрецедентними темпами інвестицій у технології штучного інтелекту, що вже перевищують сотні мільярдів доларів щорічно. Провідні технологічні гіганти, такі як Amazon, Alphabet та Meta, планують капітальні витрати на 2025 рік у розмірі 100, 75 та 65 мільярдів доларів відповідно, причому значна частина цих коштів спрямовується на розбудову інфраструктури ШІ.1 У цьому контексті Європа опинилася в ситуації, яку в доповіді Маріо Драгі описано як «технологічну пастку середнього рівня», де фрагментовані ринки та розпорошені інвестиції перешкоджають конкуренції з США та Китаєм.2

Створення єдиного європейського ШІ-хабу на базі Європейської організації з ядерних досліджень (CERN) розглядається не просто як інфраструктурний проект, а як стратегічний публічний каталізатор, здатний консолідувати обчислювальні потужності, дані та таланти в масштабах усього континенту.2 CERN, маючи унікальний досвід управління найскладнішою інженерною інфраструктурою у світі та обробки екзабайтних масивів даних, є природним фундаментом для розгортання «Гігафабрик» ШІ, необхідних для навчання великих мовних моделей (LLM) та досягнення загального штучного інтелекту (AGI).2

ПоказникЗначення для CERN / FCCКонтекст ринку ШІ
Обсяг збережених даних> 1 ексабайт 4Необхідно для навчання LLM
Річне енергоспоживання1.1 – 1.8 ТВт-год 7Еквівалент гіпермасштабного ДЦ 9
Довжина тунельної системи27 км (LHC) / 90.7 км (FCC) 10Потенціал для розширення ДЦ
Глибина залягання50 – 500 метрів 11Природний захист та охолодження

Концепція «CERN для ШІ» базується на успішній моделі міжнародної наукової колаборації, яка дозволяє об’єднувати найкращі уми світу навколо спільних цілей, забезпечуючи при цьому відкритість, етичність та цивільну спрямованість досліджень.3 Це дозволить Європі створити потужну альтернативу закритим приватним розробкам, зосередившись на надійності, інтерпретованості та безпеці інтелектуальних систем.2

Переваги браунфілд-стратегії: використання підземної інфраструктури

Одним із найбільш критичних факторів у розгортанні масивних обчислювальних потужностей є вартість та терміни будівництва фізичних об’єктів. Використання існуючої та перспективної підземної інфраструктури CERN (стратегія Brownfield) дозволяє скоротити капітальні витрати на 30–60% та прискорити введення потужностей в експлуатацію на кілька років.13

Великий адронний колайдер (LHC) розташований у тунелі довжиною 26.7 км на глибині від 50 до 175 метрів.11 Ця споруда, побудована у 1980-х роках для прискорювача LEP, вже довела свою спроможність приймати нові покоління обладнання.6 Майбутній проект Future Circular Collider (FCC) передбачає будівництво тунелю довжиною 90.7 км з середньою глибиною залягання близько 200 метрів.10

Параметр тунелюLHC (Існуючий)FCC (Перспективний)
Довжина окружності26.7 км 1190.7 км 12
Діаметр тунелю3.8 метра 115.5 метра 12
Кількість поверхневих майданчиків8 158 9
Глибина шахтДо 175 м 11180 – 400 м 9

Підземне розміщення серверних стійок у тунелях такого масштабу забезпечує ідеальну термоізоляцію, стабільний температурний режим навколишніх порід та високий ступінь фізичної безпеки. Секції тунелю, що не використовуються для прискорення променів, або сервісні галереї можуть бути перепрофільовані під ІТ-кластери. Наприклад, досвід будівництва нових підземних споруд для High-Luminosity LHC (HL-LHC) на майданчиках Point 1 та Point 5 демонструє можливість створення каверн довжиною 50 метрів та шириною 15-16 метрів, які вже зараз вміщують складне енергетичне та кріогенне обладнання.16

Цивільне будівництво для HL-LHC включає вертикальні шахти глибиною 80 метрів та діаметром 10-12 метрів, які з’єднуються з новими сервісними галереями довжиною 300 метрів.19 Ці галереї розташовані паралельно до основного тунелю LHC на відстані 6 метрів над ним, що створює «двоповерхову» архітектуру, яка дозволяє обслуговувати обладнання без зупинки основного прискорювача.16 Такий підхід може бути масштабований для ШІ-хабу, де обчислювальні вузли розміщуються у відокремлених, радіаційно-захищених зонах.

Об’єкт будівництва (HL-LHC)ХарактеристикиПризначення
Вертикальна шахтаГлибина ~80 м, діаметр 10-12 м 18Спуск обладнання та комунікації
Сервісна кавернаДовжина 46-50 м, діаметр 15-16 м 18Розміщення енергосистем та охолодження
Сервісна галереяДовжина 300 м 16Розміщення перетворювачів та ІТ-інфраструктури

Для проекту FCC обсяг вийнятого ґрунту становитиме близько 16.4 мільйона тонн.9 Це свідчить про гігантський об’єм простору, який може бути частково використаний під «Гігафабрики» ШІ. Враховуючи, що один такий об’єкт може вміщувати понад 100 000 просунутих ШІ-процесорів, інфраструктура FCC здатна стати найбільшим у світі вузлом обробки даних.5

Енергозабезпечення та стабільність мережі

ШІ-кластери є надзвичайно енергоємними. Сучасні GPU-системи вимагають не тільки великої потужності, але й виняткової стабільності живлення для безперервного навчання моделей, яке може тривати місяцями. CERN володіє однією з найбільш потужних та надійних систем енергопостачання в Європі, підключеною безпосередньо до високовольтної мережі 400 кВ французького оператора RTE.15

Річне споживання енергії CERN становить близько 1.3 ТВт-год, а на піку споживання (з травня по грудень) лабораторія використовує близько 200 МВт.8 Це становить приблизно третину споживання всього міста Женева. Важливо, що інфраструктура вже спроектована з високим ступенем резервування. Наприклад, нова підстанція BE2 була побудована для забезпечення надійності рівня критичних навантажень LHC, використовуючи гігантський трансформатор «Olive» висотою 9.7 метра та масою 331.9 тонни.21

Компонент енергосистемиХарактеристикиРоль у ШІ-хабі
Підстанція Bois-Tollot (FR)Вхідна напруга 400 кВ 15Головне джерело потужності
Трансформатор “Olive” (BE2)Вага 332 т, 82 000 л ізоляційної олії 21Забезпечення стабільності та резерву
Підстанція ME9 (Meyrin)18 кВ розподіл 15Живлення локальних серверних ферм
Резервне джерело (CH)130 кВ через Verbois 15Автоматичне перемикання при аваріях

Модернізована система автоматичного перемикання (auto-transfer) на швейцарську мережу гарантує безперебійність роботи навіть у разі серйозних проблем з основним французьким вводом.15 Це робить CERN ідеальним майданчиком для розгортання центрів обробки даних рівня Tier III або Tier IV без необхідності будівництва нових високовольтних ліній, що зазвичай займає 5–10 років через дозвільні процедури.

Для ШІ-хабу критичним є зниження внутрішніх втрат енергії. CERN вже розробив та успішно випробував інноваційні надпровідні лінії електропередачі для HL-LHC. Лінія довжиною 60 метрів на основі дибориду магнію продемонструвала здатність передавати струм силою 54 000 ампер, що у 25 разів перевищує можливості мідних кабелів аналогічного діаметру.22 Використання таких «Python»-систем дозволяє передавати величезні обсяги енергії у вузьких тунелях без виділення тепла, що радикально спрощує проектування систем охолодження всередині підземних споруд.23

Революція в охолодженні: від кріогеніки до рідинних систем

Найбільшим технологічним викликом для сучасних ШІ-центрів є відведення тепла. Традиційні повітряні системи охолодження не здатні ефективно впоратися з тепловим потоком від стійок потужністю понад 100 кВт.25 CERN, будучи найбільшою у світі кріогенною установкою, має унікальні ресурси для вирішення цієї проблеми.

Для охолодження магнітів LHC до температури 1.9K (нижче температури космічного простору) CERN використовує 120 тонн рідкого гелію та складну систему холодильних машин загальною потужністю 144 кВт при 4.5K.27 Хоча ШІ-процесорам не потрібен надплинний гелій, існуюча мережа трубопроводів, насосних станцій та теплообмінників може бути адаптована для прямого рідинного охолодження чіпів (DLC).

Переваги адаптації кріогенної інфраструктури:

  1. Потужність охолодження: Система кріогенних островів CERN здатна передавати кіловати холодильної потужності на відстані в кілька кілометрів.28
  2. Ефективність (PUE): Використання рідинного охолодження дозволяє досягти показника Power Usage Effectiveness (PUE) на рівні 1.05 – 1.1, що значно нижче середнього світового значення 1.6-1.8.30
  3. Рекуперація тепла: Тепло, відведене від серверів, може бути інтегроване в систему опалення будівель CERN або передане до муніципальних мереж, що вже реалізовано в проекті в Превессені.31
Технологія охолодженняPUEЕфективність відведення теплаСтан впровадження
Повітряне (традиційне)1.5 – 1.9 1Низька (< 15 кВт/стійка)Застаріває для ШІ
Вода з озера (Lefdal Mine)1.08 – 1.15 33Висока (до 200 МВт потужності)Промисловий стандарт
Новий ДЦ CERN (Prévessin)1.10 (ціль) 31Висока (2 МВт на зал)Введення в експлуатацію
Direct Liquid Cooling (DLC)< 1.10 25Екстремальна (> 100 кВт/стійка)Необхідно для ШІ

Проект ШІ-хабу може використовувати концепцію норвезького дата-центру Lefdal Mine, який використовує холодну воду з фіорду для охолодження підземних серверних залів, досягаючи PUE 1.08.33 CERN має доступ до водних ресурсів Женевського озера та власної системи охолодження, яка під час першої стадії охолодження використовує тисячі тонн рідкого азоту для зниження температури гелію до 80K.27 Адаптація цих циклів для підтримки температури теплоносія в межах 17-25C для серверів DLC забезпечить рекордну енергоефективність.

Обчислювальна архітектура та управління ексабайтними даними

CERN вже сьогодні є одним із найбільших у світі центрів обробки даних, щодня оперуючи потоками інформації, які можна порівняти з потребами навчання найбільш просунутих ШІ-моделей. Детектори LHC генерують близько одного петабайта даних на секунду, з яких після фільтрації в ДЦ потрапляє понад один петабайт на день.4

Для ефективного навчання LLM та AGI необхідна перехід до гетерогенних архітектур, що включають не тільки CPU, але й тисячі GPU та FPGA. Проект Next Generation Triggers (NGT) в CERN вже працює над цією задачею, розробляючи програмне забезпечення для оптимізації роботи на змішаних архітектурах.37 Завдання Task 1.7 проекту NGT безпосередньо стосується розробки методів ефективного використання прискорювачів для наукових обчислень, що є повністю сумісним з технологічним стеком навчання ШІ.37

Компонент інфраструктури ДЦПоточний стан (2022-2025)Ціль для ШІ-хабу
Кількість серверів> 10 000 4> 100 000 (Gigafactory)
Процесорні ядра~ 500 000 36Мільйони (GPU/TPU)
Сховище (диски)~ 634 ПБ 36Ексабайтні масиви
Сховище (стрічки)> 1 ексабайт 4Архівування моделей та датасетів

Використання системи EOS, яка вже обслуговує понад 7 мільярдів файлів, дозволяє забезпечити масштабованість, необхідну для зберігання та швидкого доступу до величезних корпусів текстів та зображень.40 Це створює готову екосистему для європейських дослідників, де вони можуть не лише тренувати моделі, але й безпечно зберігати їх на суверенній території.

Економічне обґрунтування

Сьогодні вартість будівництва нового («грінфілд») дата-центру в Європі стрімко зростає через інфляцію та дефіцит електромереж. У таких містах, як Токіо, Сінгапур або Цюрих, вартість будівництва перевищує $14 за ват потужності.41 Встановлення ШІ-інфраструктури в існуючі підземні споруди CERN кардинально змінює економіку проекту.

Традиційний ДЦ потужністю 100 МВт коштує від $500 млн до $2 млрд.1 Використання CERN дозволяє усунути витрати на землю та фундаментальні споруди. Крім того, наявність потужних підстанцій та систем охолодження знижує витрати на модернізацію мереж на 70%.

Елемент витратТрадиційний ДЦ (Greenfield)ШІ-хаб CERN (Brownfield)Економія
Земля та корпус будівлі$1 – 2 млн / МВт 13$0 (існуючі тунелі/каверни)100%
Електрообладнання та ДБЖ$4.5 – 7.5 млн / МВт 41$1.2 – 2 млн (модернізація)~70%
Системи кондиціонування$1.3 – 3 млн / МВт 41$0.8 – 1.5 млн (адаптація кріо)~50%
Загальні CAPEX (інфраст.)$10 – 15 млн / МВт$5 – 8 млн / МВт45-50%

Згідно з доповіддю Маріо Драгі, для створення конкурентоспроможного європейського ШІ необхідно інвестувати близько €30-35 млрд протягом перших трьох років.2 Завдяки інфраструктурі CERN понад 50% цього бюджету може бути спрямовано безпосередньо на закупівлю обчислювальних чипів (H100/B200), замість витрат на цеглу та бетон.

Найбільшою статтею OPEX у ДЦ є електроенергія. Досягнення PUE 1.1 замість середнього по ринку 1.6 дозволяє щорічно економити мільйони євро. Наприклад, для кластера потужністю 100 МВт економія становить:

  • Споживання при PUE 1.6: 160 МВт.
  • Споживання при PUE 1.1: 110 МВт.
  • Річна економія: ~438 ГВт-год (що при ціні €0.10/кВт-год дорівнює €43.8 млн на рік).

Аналіз ризиків та стратегія пом’якшення

Розгортання ШІ-хабу в безпосередній близькості до працюючого прискорювача частинок створює специфічні виклики, пов’язані з радіацією та кадрами.

Іонізуюче випромінювання (нейтрони та фотони), що виникає при зіткненні променів, може викликати збої (Single Event Upset) або незворотні пошкодження в напівпровідникових структурах GPU.42 Для захисту ШІ-хабу пропонується:

  1. Просторове розділення: Розміщення серверів у сервісних кавернах, захищених бетонними екранами товщиною до 2 метрів, що вже успішно реалізовано для HL-LHC.16
  2. Моніторинг: Використання досвіду кріогенної групи CERN, яка експлуатує 1200 електронних карт температурних датчиків в умовах інтенсивних нейтронних потоків.27
  3. Екранування: Встановлення додаткових свинцевих та бетонних блоків у критичних точках тунелю.45

Існує ризик відтоку фізиків-експериментаторів у комерційну сферу ШІ. Проте інтеграція ШІ в фундаментальну науку через проекти CoE RAISE та NextGen створює синергію, де фізика стає полігоном для тестування нових алгоритмів.38 ШІ вже допомагає виявляти аномалії в роботі прискорювачів та діагностувати патології мозку (проект CAFEIN), що робить роботу в такому хабі престижною для науковців.32

Політика, фінансування та європейська екосистема

Проект ШІ-хабу на базі CERN ідеально вписується в ініціативу «AI Factories» Європейської Комісії. Програма передбачає створення 15 фабрик ШІ у 2025-2026 роках.5 CERN може стати центральним вузлом цієї мережі, забезпечуючи потужність для великих дослідницьких проектів.

Механізми фінансування

  1. Joint Undertaking (JU): Спільне підприємство за статтею 187 TFEU забезпечить необхідну гнучкість управління, подібну до стартапу, при збереженні контролю з боку інституцій ЄС.2
  2. InvestAI Facility: Фонд у розмірі €20 млрд для створення «Гігафабрик» ШІ, орієнтованих на моделі з трильйонами параметрів.5
  3. Приватні партнерства: Співпраця з такими гігантами, як IBM (що вже моделює зіткнення часток за допомогою часових трансформерів), залучить технологічний досвід та додатковий капітал.47
Access Mode (EuroHPC)Цільова групаОбсяг ресурсів
Playground accessПочатківці та стартапиОбмежені 48
Fast Lane accessДосвідчені розробникиДо 50 000 GPU-годин 48
Large Scale accessМасивні LLM та AGIПонад 50 000 GPU-годин 48

Ці моделі доступу забезпечать безкоштовний доступ для публічних досліджень, одночасно дозволяючи комерційну оренду потужностей для фінансової стійкості проекту.

Висновок

Перетворення частини інфраструктури CERN на європейський ШІ-хаб є не просто економічно вигідним рішенням, а стратегічною необхідністю. Використання тунелів LHC та FCC як фундаменту для обчислювальних потужностей дозволяє Європі подолати інфраструктурний розрив з США та Китаєм у найкоротші терміни.

Ключові фактори успіху:

  • Економія 50% CAPEX за рахунок браунфілд-стратегії.33
  • Енергоефективність світового рівня (PUE < 1.1) завдяки адаптації кріогеніки.31
  • Інтеграція в науку: ШІ стає головним інструментом фізики високих енергій, забезпечуючи розвиток талантів.38
  • Суверенність: Створення відкритої, етичної та надійної альтернативи приватним моделям ШІ.2

Реалізація цього плану дозволить Європі до 2030 року не тільки наздогнати лідерів у сфері ШІ, але й задати власні стандарти розвитку інтелектуальних систем, заснованих на науковій досконалості та демократичних цінностях. Перенаправлення ресурсів із будівництва лише наукових приладів на створення універсальної цифрової інфраструктури зробить CERN двигуном європейського технологічного майбутнього.


У розслідуванні активно використовувалися інструменти OSINT та штучний інтелект, зокрема моделі Gemini та Grok. Методи OSINT дозволили збирати та аналізувати відкриті дані з різних джерел, включаючи соціальні мережі, публічні бази даних та веб-ресурси. Gemini забезпечував глибокий аналіз текстових даних, виявлення закономірностей та прогнозування, тоді як Grok, створений xAI, використовувався для обробки складних запитів та генерування точних висновків на основі великих обсягів інформації. Поєднання цих технологій дозволило значно пришвидшити процес розслідування, підвищити точність отриманих результатів та виявити зв’язки, які могли б залишитися непоміченими традиційними методами.


Геннадій Петров, експерт інституту соціальної динаміки та безпеки Kronos у галузі футурології


Глосарій термінів:
  • AGI (Artificial General Intelligence) — Загальний штучний інтелект; гіпотетична форма ШІ, здатна виконувати будь-яке інтелектуальне завдання на рівні людини.
  • LLM (Large Language Model) — Велика мовна модель; тип нейронної мережі, навченої на масивних наборах даних для розуміння та генерації природної мови.
  • Brownfield (Браунфілд) — Стратегія розгортання IT-інфраструктури на базі вже існуючих об’єктів або споруд, що потребують модернізації (наприклад, тунелі CERN).
  • Greenfield (Грінфілд) — Будівництво нових інфраструктурних об’єктів «з нуля» на нових майданчиках.
  • PUE (Power Usage Effectiveness) — Коефіцієнт енергоефективності дата-центру; відношення загальної енергії, що споживається об’єктом, до енергії, яка живить безпосередньо IT-обладнання.30
  • DLC (Direct Liquid Cooling) — Пряме рідинне охолодження; технологія відведення тепла шляхом подачі холодоагенту безпосередньо до тепловиділяючих компонентів чипа.25
  • FCC (Future Circular Collider) — Проект майбутнього кільцевого колайдера CERN довжиною 90,7 км, що розглядається як потенційний майданчик для ШІ-хабу.7
  • LHC (Large Hadron Collider) — Великий адронний колайдер; чинний прискорювач частинок у CERN довжиною 26,7 км.6
  • Tier III/IV — Класифікація надійності дата-центрів (Uptime Institute), що визначає рівень доступності та резервування систем.36
  • GPU/TPU — Графічні та тензорні процесори; спеціалізоване апаратне забезпечення для виконання паралельних обчислень, критичних для ШІ.
Джерела:
  1. The data center construction boom | ALLIANZ COMMERCIAL,  https://commercial.allianz.com/content/dam/onemarketing/commercial/commercial/reports/commercial-data-center-construction-risks.pdf
  2. Building CERN for AI – An institutional blueprint – Centre for Future Generations,  https://cfg.eu/building-cern-for-ai/
  3. CERN for AI: One Analogy, Many Visions – Simon Institute for Longterm Governance,  https://simoninstitute.ch/blog/post/cern-for-ai-one-analogy-many-visions
  4. Inside CERN’s Exabyte Data Center – Western Digital Blog,  https://blog.westerndigital.com/inside-cerns-exabyte-data-center/
  5. AI Factories | Shaping Europe’s digital future – European Union,  https://digital-strategy.ec.europa.eu/en/policies/ai-factories
  6. The Large Hadron Collider – CERN,  https://home.cern/science/accelerators/large-hadron-collider
  7. FCC Feasibility Study & Path to Construction,  https://meow.elettra.eu/81/pdf/FRZD3_talk.pdf
  8. Powering CERN,  https://www.home.cern/science/engineering/powering-cern
  9. The Future Circular Collider – CERN,  https://home.cern/science/accelerators/future-circular-collider
  10. CERN releases report on the feasibility of a possible Future Circular …,  https://home.cern/news/news/accelerators/cern-releases-report-feasibility-possible-future-circular-collider
  11. Large Hadron Collider – Wikipedia,  https://en.wikipedia.org/wiki/Large_Hadron_Collider
  12. Tunnelling to the future – CERN Courier,  https://cerncourier.com/a/tunnelling-to-the-future/
  13. Lab Repurposes a Former Particle Accelerator to Become a …,  https://www.energy.gov/science/articles/lab-repurposes-former-particle-accelerator-become-scientific-data-center-facility
  14. FCC feasibility study complete – CERN Courier,  https://cerncourier.com/fcc-feasibility-study-complete/
  15. LS2 Report: renovation of the electrical infrastructure – CERN,  https://home.cern/news/news/engineering/ls2-report-renovation-electrical-infrastructure
  16. The High-Luminosity LHC project takes shape at Point 1 – CERN,  https://home.cern/news/news/accelerators/high-luminosity-lhc-project-takes-shape-point-1
  17. Council delegates visit new High-Luminosity LHC infrastructure – CERN,  https://home.cern/news/news/cern/council-delegates-visit-new-high-luminosity-lhc-infrastructure
  18. CERN High Luminosity Large Hadron Collider (HL-LHC), Point 5 | ARX,  https://www.arx.ing/projects/cern-high-luminosity-large-hadron-collider-hl-lhc-point-5
  19. Civil engineering for the High-Luminosity LHC – CERN,  https://home.cern/science/accelerators/high-luminosity-lhc/civil-engineering
  20. Current state of CERN’s high-voltage grid [March 2011],  https://indico.cern.ch/event/209689/attachments/326082/454797/High_Voltage_Grid_Mar2011_1137301-v7.1-Eng.pdf
  21. A new power transformer joins CERN’s armada,  https://home.cern/news/news/engineering/new-power-transformer-joins-cerns-armada
  22. Electricity transmission reaches even higher intensities – CERN,  https://home.cern/news/news/accelerators/electricity-transmission-reaches-even-higher-intensities
  23. HiLumi News: The HL-LHC’s cold powering system successfully passed the tests | CERN,  https://home.cern/news/news/accelerators/hilumi-news-hl-lhcs-cold-powering-system-successfully-passed-tests
  24. Successful tests of a cooler way to transport electricity – CERN,  https://home.cern/news/news/accelerators/successful-tests-cooler-way-transport-electricity
  25. Liquid cooling challenges in AI data centers – Schneider Electric,  https://www.se.com/ww/en/insights/ai-and-technology/artificial-intelligence/liquid-cooling-challenges-in-data-centers-navigating-the-future-of-cooling-efficiency/
  26. Why Liquid Cooling Is No Longer Optional for AI-Driven Data Centers,  https://www.datacenterfrontier.com/sponsored/article/55307885/nautilus-why-liquid-cooling-is-no-longer-optional-for-ai-driven-data-centers
  27. The challenge of keeping cool – CERN Courier,  https://cerncourier.com/a/the-challenge-of-keeping-cool/
  28. Cryogenics: Low temperatures, high performance – CERN,  https://www.home.cern/science/engineering/cryogenics-low-temperatures-high-performance
  29. Cryogenics: Low temperatures, high performance – CERN,  https://home.cern/science/engineering/cryogenics-low-temperatures-high-performance
  30. High-Performance Computing Data Center Power Usage Effectiveness – NREL,  https://www.nrel.gov/computational-science/measuring-efficiency-pue
  31. A new data centre at CERN,  https://home.cern/news/news/computing/new-data-centre-cern
  32. Building CERN’s AI Strategy,  https://home.cern/news/news/cern/building-cerns-ai-strategy
  33. Cooling – Lefdal Mine Datacenter,  https://www.lefdalmine.com/data-center/cooling
  34. Direct Liquid Cooling – Lefdal Mine Datacenter,  https://www.lefdalmine.com/services/hpc/direct-liquid-cooling
  35. — Sustainable data center solutions ABB powers Norway’s Lefdal Mine Datacenter 300 MW,  https://resources.news.e.abb.com/attachments/published/5924/en-US/FC7D4A6E9B58/M28519_Lefdal_Mine_Infographic_v5.pdf
  36. Key Facts and Figures – CERN Data Centre,  https://information-technology.web.cern.ch/sites/default/files/CERNDataCentre_KeyInformation_July2022_V3.pdf
  37. Next Generation Triggers – CERN,  https://nextgentriggers.web.cern.ch/
  38. Members of the “CoE RAISE” EU project – developing AI approaches for next-generation supercomputers – meet at CERN,  https://home.cern/news/news/computing/members-coe-raise-eu-project-developing-ai-approaches-next-generation
  39. Key Facts and Figures – CERN Data Centre,  https://information-technology.web.cern.ch/sites/default/files/CERNDataCentre_KeyInformation_Nov2021V1.pdf
  40. Storage | CERN,  https://home.cern/science/computing/storage
  41. Data centre construction cost index 2025 – Turner & Townsend,  https://reports.turnerandtownsend.com/data-centre-construction-cost-index-2025/data-centre-cost-trends
  42. Particle Accelerators and Radiation Research | US EPA,  https://www.epa.gov/radtown/particle-accelerators-and-radiation-research
  43. Accelerating Our Understanding Of Radiation Effects In Silicon,  https://atap.lbl.gov/news/accelerating-our-understanding-of-radiation-effects-in-silicon/
  44. Design and Construction of Major Underground Infrastructure at Cern | PDF | Particle Physics | Large Hadron Collider – Scribd,  https://www.scribd.com/document/121226926/TS8A4
  45. Do particle accelerators produce (dangerous) radiation? – Physics Stack Exchange,  https://physics.stackexchange.com/questions/94832/do-particle-accelerators-produce-dangerous-radiation
  46. The EuroHPC JU Selects Six Additional AI Factories to Expand Europe’s AI Capabilities,  https://www.eurohpc-ju.europa.eu/eurohpc-ju-selects-six-additional-ai-factories-expand-europes-ai-capabilities-2025-10-10_en
  47. Generative AI could offer a faster way to test theories of how the universe works,  https://research.ibm.com/blog/time-series-AI-transformers
  48. AI Factories Access Modes – EuroHPC JU – European Union,  https://www.eurohpc-ju.europa.eu/ai-factories/ai-factories-access-modes_en
  49. FAQs | AI Factories – The European High Performance Computing Joint Undertaking (EuroHPC JU),  https://www.eurohpc-ju.europa.eu/ai-factories/faqs-ai-factories_en
  50. AI to revolutionise fundamental physics and ‘could show how universe will end’ | Large Hadron Collider | The Guardian,  https://www.theguardian.com/science/2025/feb/03/ai-to-revolutionise-fundamental-physics-and-could-show-how-universe-will-end
  51. Scaling for the Future: Liquid Cooling’s Role in AI Data Centers – Leviton,  https://leviton.com/content/dam/leviton/network-solutions/product_documents/tech_briefs/ICT-Today-Leviton-Scaling-For-The-Future.pdf
  52. CERN Achieves Groundbreaking Discoveries with Support from USystems,  https://www.usystems.com/knowledge-hub-posts/cern-achieves-groundbreaking-discoveries-with-support-from-usystems
  53. Data centre construction cost index 2025-2026 – Turner & Townsend,  https://www.turnerandtownsend.com/insights/data-centre-construction-cost-index-2025-2026/