Сучасний стан розвитку глобальної цифрової економіки визначається безпрецедентними темпами інвестицій у технології штучного інтелекту, що вже перевищують сотні мільярдів доларів щорічно. Провідні технологічні гіганти, такі як Amazon, Alphabet та Meta, планують капітальні витрати на 2025 рік у розмірі 100, 75 та 65 мільярдів доларів відповідно, причому значна частина цих коштів спрямовується на розбудову інфраструктури ШІ.1 У цьому контексті Європа опинилася в ситуації, яку в доповіді Маріо Драгі описано як «технологічну пастку середнього рівня», де фрагментовані ринки та розпорошені інвестиції перешкоджають конкуренції з США та Китаєм.2


Створення єдиного європейського ШІ-хабу на базі Європейської організації з ядерних досліджень (CERN) розглядається не просто як інфраструктурний проект, а як стратегічний публічний каталізатор, здатний консолідувати обчислювальні потужності, дані та таланти в масштабах усього континенту.2 CERN, маючи унікальний досвід управління найскладнішою інженерною інфраструктурою у світі та обробки екзабайтних масивів даних, є природним фундаментом для розгортання «Гігафабрик» ШІ, необхідних для навчання великих мовних моделей (LLM) та досягнення загального штучного інтелекту (AGI).2

| Показник | Значення для CERN / FCC | Контекст ринку ШІ |
| Обсяг збережених даних | > 1 ексабайт 4 | Необхідно для навчання LLM |
| Річне енергоспоживання | 1.1 – 1.8 ТВт-год 7 | Еквівалент гіпермасштабного ДЦ 9 |
| Довжина тунельної системи | 27 км (LHC) / 90.7 км (FCC) 10 | Потенціал для розширення ДЦ |
| Глибина залягання | 50 – 500 метрів 11 | Природний захист та охолодження |
Концепція «CERN для ШІ» базується на успішній моделі міжнародної наукової колаборації, яка дозволяє об’єднувати найкращі уми світу навколо спільних цілей, забезпечуючи при цьому відкритість, етичність та цивільну спрямованість досліджень.3 Це дозволить Європі створити потужну альтернативу закритим приватним розробкам, зосередившись на надійності, інтерпретованості та безпеці інтелектуальних систем.2
Переваги браунфілд-стратегії: використання підземної інфраструктури
Одним із найбільш критичних факторів у розгортанні масивних обчислювальних потужностей є вартість та терміни будівництва фізичних об’єктів. Використання існуючої та перспективної підземної інфраструктури CERN (стратегія Brownfield) дозволяє скоротити капітальні витрати на 30–60% та прискорити введення потужностей в експлуатацію на кілька років.13

Великий адронний колайдер (LHC) розташований у тунелі довжиною 26.7 км на глибині від 50 до 175 метрів.11 Ця споруда, побудована у 1980-х роках для прискорювача LEP, вже довела свою спроможність приймати нові покоління обладнання.6 Майбутній проект Future Circular Collider (FCC) передбачає будівництво тунелю довжиною 90.7 км з середньою глибиною залягання близько 200 метрів.10
| Параметр тунелю | LHC (Існуючий) | FCC (Перспективний) |
| Довжина окружності | 26.7 км 11 | 90.7 км 12 |
| Діаметр тунелю | 3.8 метра 11 | 5.5 метра 12 |
| Кількість поверхневих майданчиків | 8 15 | 8 9 |
| Глибина шахт | До 175 м 11 | 180 – 400 м 9 |
Підземне розміщення серверних стійок у тунелях такого масштабу забезпечує ідеальну термоізоляцію, стабільний температурний режим навколишніх порід та високий ступінь фізичної безпеки. Секції тунелю, що не використовуються для прискорення променів, або сервісні галереї можуть бути перепрофільовані під ІТ-кластери. Наприклад, досвід будівництва нових підземних споруд для High-Luminosity LHC (HL-LHC) на майданчиках Point 1 та Point 5 демонструє можливість створення каверн довжиною 50 метрів та шириною 15-16 метрів, які вже зараз вміщують складне енергетичне та кріогенне обладнання.16

Цивільне будівництво для HL-LHC включає вертикальні шахти глибиною 80 метрів та діаметром 10-12 метрів, які з’єднуються з новими сервісними галереями довжиною 300 метрів.19 Ці галереї розташовані паралельно до основного тунелю LHC на відстані 6 метрів над ним, що створює «двоповерхову» архітектуру, яка дозволяє обслуговувати обладнання без зупинки основного прискорювача.16 Такий підхід може бути масштабований для ШІ-хабу, де обчислювальні вузли розміщуються у відокремлених, радіаційно-захищених зонах.
| Об’єкт будівництва (HL-LHC) | Характеристики | Призначення |
| Вертикальна шахта | Глибина ~80 м, діаметр 10-12 м 18 | Спуск обладнання та комунікації |
| Сервісна каверна | Довжина 46-50 м, діаметр 15-16 м 18 | Розміщення енергосистем та охолодження |
| Сервісна галерея | Довжина 300 м 16 | Розміщення перетворювачів та ІТ-інфраструктури |
Для проекту FCC обсяг вийнятого ґрунту становитиме близько 16.4 мільйона тонн.9 Це свідчить про гігантський об’єм простору, який може бути частково використаний під «Гігафабрики» ШІ. Враховуючи, що один такий об’єкт може вміщувати понад 100 000 просунутих ШІ-процесорів, інфраструктура FCC здатна стати найбільшим у світі вузлом обробки даних.5
Енергозабезпечення та стабільність мережі
ШІ-кластери є надзвичайно енергоємними. Сучасні GPU-системи вимагають не тільки великої потужності, але й виняткової стабільності живлення для безперервного навчання моделей, яке може тривати місяцями. CERN володіє однією з найбільш потужних та надійних систем енергопостачання в Європі, підключеною безпосередньо до високовольтної мережі 400 кВ французького оператора RTE.15

Річне споживання енергії CERN становить близько 1.3 ТВт-год, а на піку споживання (з травня по грудень) лабораторія використовує близько 200 МВт.8 Це становить приблизно третину споживання всього міста Женева. Важливо, що інфраструктура вже спроектована з високим ступенем резервування. Наприклад, нова підстанція BE2 була побудована для забезпечення надійності рівня критичних навантажень LHC, використовуючи гігантський трансформатор «Olive» висотою 9.7 метра та масою 331.9 тонни.21
| Компонент енергосистеми | Характеристики | Роль у ШІ-хабі |
| Підстанція Bois-Tollot (FR) | Вхідна напруга 400 кВ 15 | Головне джерело потужності |
| Трансформатор “Olive” (BE2) | Вага 332 т, 82 000 л ізоляційної олії 21 | Забезпечення стабільності та резерву |
| Підстанція ME9 (Meyrin) | 18 кВ розподіл 15 | Живлення локальних серверних ферм |
| Резервне джерело (CH) | 130 кВ через Verbois 15 | Автоматичне перемикання при аваріях |
Модернізована система автоматичного перемикання (auto-transfer) на швейцарську мережу гарантує безперебійність роботи навіть у разі серйозних проблем з основним французьким вводом.15 Це робить CERN ідеальним майданчиком для розгортання центрів обробки даних рівня Tier III або Tier IV без необхідності будівництва нових високовольтних ліній, що зазвичай займає 5–10 років через дозвільні процедури.
Для ШІ-хабу критичним є зниження внутрішніх втрат енергії. CERN вже розробив та успішно випробував інноваційні надпровідні лінії електропередачі для HL-LHC. Лінія довжиною 60 метрів на основі дибориду магнію продемонструвала здатність передавати струм силою 54 000 ампер, що у 25 разів перевищує можливості мідних кабелів аналогічного діаметру.22 Використання таких «Python»-систем дозволяє передавати величезні обсяги енергії у вузьких тунелях без виділення тепла, що радикально спрощує проектування систем охолодження всередині підземних споруд.23
Революція в охолодженні: від кріогеніки до рідинних систем
Найбільшим технологічним викликом для сучасних ШІ-центрів є відведення тепла. Традиційні повітряні системи охолодження не здатні ефективно впоратися з тепловим потоком від стійок потужністю понад 100 кВт.25 CERN, будучи найбільшою у світі кріогенною установкою, має унікальні ресурси для вирішення цієї проблеми.

Для охолодження магнітів LHC до температури 1.9K (нижче температури космічного простору) CERN використовує 120 тонн рідкого гелію та складну систему холодильних машин загальною потужністю 144 кВт при 4.5K.27 Хоча ШІ-процесорам не потрібен надплинний гелій, існуюча мережа трубопроводів, насосних станцій та теплообмінників може бути адаптована для прямого рідинного охолодження чіпів (DLC).
Переваги адаптації кріогенної інфраструктури:
- Потужність охолодження: Система кріогенних островів CERN здатна передавати кіловати холодильної потужності на відстані в кілька кілометрів.28
- Ефективність (PUE): Використання рідинного охолодження дозволяє досягти показника Power Usage Effectiveness (PUE) на рівні 1.05 – 1.1, що значно нижче середнього світового значення 1.6-1.8.30
- Рекуперація тепла: Тепло, відведене від серверів, може бути інтегроване в систему опалення будівель CERN або передане до муніципальних мереж, що вже реалізовано в проекті в Превессені.31
| Технологія охолодження | PUE | Ефективність відведення тепла | Стан впровадження |
| Повітряне (традиційне) | 1.5 – 1.9 1 | Низька (< 15 кВт/стійка) | Застаріває для ШІ |
| Вода з озера (Lefdal Mine) | 1.08 – 1.15 33 | Висока (до 200 МВт потужності) | Промисловий стандарт |
| Новий ДЦ CERN (Prévessin) | 1.10 (ціль) 31 | Висока (2 МВт на зал) | Введення в експлуатацію |
| Direct Liquid Cooling (DLC) | < 1.10 25 | Екстремальна (> 100 кВт/стійка) | Необхідно для ШІ |
Проект ШІ-хабу може використовувати концепцію норвезького дата-центру Lefdal Mine, який використовує холодну воду з фіорду для охолодження підземних серверних залів, досягаючи PUE 1.08.33 CERN має доступ до водних ресурсів Женевського озера та власної системи охолодження, яка під час першої стадії охолодження використовує тисячі тонн рідкого азоту для зниження температури гелію до 80K.27 Адаптація цих циклів для підтримки температури теплоносія в межах 17-25C для серверів DLC забезпечить рекордну енергоефективність.
Обчислювальна архітектура та управління ексабайтними даними
CERN вже сьогодні є одним із найбільших у світі центрів обробки даних, щодня оперуючи потоками інформації, які можна порівняти з потребами навчання найбільш просунутих ШІ-моделей. Детектори LHC генерують близько одного петабайта даних на секунду, з яких після фільтрації в ДЦ потрапляє понад один петабайт на день.4

Для ефективного навчання LLM та AGI необхідна перехід до гетерогенних архітектур, що включають не тільки CPU, але й тисячі GPU та FPGA. Проект Next Generation Triggers (NGT) в CERN вже працює над цією задачею, розробляючи програмне забезпечення для оптимізації роботи на змішаних архітектурах.37 Завдання Task 1.7 проекту NGT безпосередньо стосується розробки методів ефективного використання прискорювачів для наукових обчислень, що є повністю сумісним з технологічним стеком навчання ШІ.37
| Компонент інфраструктури ДЦ | Поточний стан (2022-2025) | Ціль для ШІ-хабу |
| Кількість серверів | > 10 000 4 | > 100 000 (Gigafactory) |
| Процесорні ядра | ~ 500 000 36 | Мільйони (GPU/TPU) |
| Сховище (диски) | ~ 634 ПБ 36 | Ексабайтні масиви |
| Сховище (стрічки) | > 1 ексабайт 4 | Архівування моделей та датасетів |
Використання системи EOS, яка вже обслуговує понад 7 мільярдів файлів, дозволяє забезпечити масштабованість, необхідну для зберігання та швидкого доступу до величезних корпусів текстів та зображень.40 Це створює готову екосистему для європейських дослідників, де вони можуть не лише тренувати моделі, але й безпечно зберігати їх на суверенній території.
Економічне обґрунтування
Сьогодні вартість будівництва нового («грінфілд») дата-центру в Європі стрімко зростає через інфляцію та дефіцит електромереж. У таких містах, як Токіо, Сінгапур або Цюрих, вартість будівництва перевищує $14 за ват потужності.41 Встановлення ШІ-інфраструктури в існуючі підземні споруди CERN кардинально змінює економіку проекту.

Традиційний ДЦ потужністю 100 МВт коштує від $500 млн до $2 млрд.1 Використання CERN дозволяє усунути витрати на землю та фундаментальні споруди. Крім того, наявність потужних підстанцій та систем охолодження знижує витрати на модернізацію мереж на 70%.
| Елемент витрат | Традиційний ДЦ (Greenfield) | ШІ-хаб CERN (Brownfield) | Економія |
| Земля та корпус будівлі | $1 – 2 млн / МВт 13 | $0 (існуючі тунелі/каверни) | 100% |
| Електрообладнання та ДБЖ | $4.5 – 7.5 млн / МВт 41 | $1.2 – 2 млн (модернізація) | ~70% |
| Системи кондиціонування | $1.3 – 3 млн / МВт 41 | $0.8 – 1.5 млн (адаптація кріо) | ~50% |
| Загальні CAPEX (інфраст.) | $10 – 15 млн / МВт | $5 – 8 млн / МВт | 45-50% |
Згідно з доповіддю Маріо Драгі, для створення конкурентоспроможного європейського ШІ необхідно інвестувати близько €30-35 млрд протягом перших трьох років.2 Завдяки інфраструктурі CERN понад 50% цього бюджету може бути спрямовано безпосередньо на закупівлю обчислювальних чипів (H100/B200), замість витрат на цеглу та бетон.
Найбільшою статтею OPEX у ДЦ є електроенергія. Досягнення PUE 1.1 замість середнього по ринку 1.6 дозволяє щорічно економити мільйони євро. Наприклад, для кластера потужністю 100 МВт економія становить:
- Споживання при PUE 1.6: 160 МВт.
- Споживання при PUE 1.1: 110 МВт.
- Річна економія: ~438 ГВт-год (що при ціні €0.10/кВт-год дорівнює €43.8 млн на рік).
Аналіз ризиків та стратегія пом’якшення
Розгортання ШІ-хабу в безпосередній близькості до працюючого прискорювача частинок створює специфічні виклики, пов’язані з радіацією та кадрами.
Іонізуюче випромінювання (нейтрони та фотони), що виникає при зіткненні променів, може викликати збої (Single Event Upset) або незворотні пошкодження в напівпровідникових структурах GPU.42 Для захисту ШІ-хабу пропонується:
- Просторове розділення: Розміщення серверів у сервісних кавернах, захищених бетонними екранами товщиною до 2 метрів, що вже успішно реалізовано для HL-LHC.16
- Моніторинг: Використання досвіду кріогенної групи CERN, яка експлуатує 1200 електронних карт температурних датчиків в умовах інтенсивних нейтронних потоків.27
- Екранування: Встановлення додаткових свинцевих та бетонних блоків у критичних точках тунелю.45
Існує ризик відтоку фізиків-експериментаторів у комерційну сферу ШІ. Проте інтеграція ШІ в фундаментальну науку через проекти CoE RAISE та NextGen створює синергію, де фізика стає полігоном для тестування нових алгоритмів.38 ШІ вже допомагає виявляти аномалії в роботі прискорювачів та діагностувати патології мозку (проект CAFEIN), що робить роботу в такому хабі престижною для науковців.32
Політика, фінансування та європейська екосистема
Проект ШІ-хабу на базі CERN ідеально вписується в ініціативу «AI Factories» Європейської Комісії. Програма передбачає створення 15 фабрик ШІ у 2025-2026 роках.5 CERN може стати центральним вузлом цієї мережі, забезпечуючи потужність для великих дослідницьких проектів.

Механізми фінансування
- Joint Undertaking (JU): Спільне підприємство за статтею 187 TFEU забезпечить необхідну гнучкість управління, подібну до стартапу, при збереженні контролю з боку інституцій ЄС.2
- InvestAI Facility: Фонд у розмірі €20 млрд для створення «Гігафабрик» ШІ, орієнтованих на моделі з трильйонами параметрів.5
- Приватні партнерства: Співпраця з такими гігантами, як IBM (що вже моделює зіткнення часток за допомогою часових трансформерів), залучить технологічний досвід та додатковий капітал.47
| Access Mode (EuroHPC) | Цільова група | Обсяг ресурсів |
| Playground access | Початківці та стартапи | Обмежені 48 |
| Fast Lane access | Досвідчені розробники | До 50 000 GPU-годин 48 |
| Large Scale access | Масивні LLM та AGI | Понад 50 000 GPU-годин 48 |
Ці моделі доступу забезпечать безкоштовний доступ для публічних досліджень, одночасно дозволяючи комерційну оренду потужностей для фінансової стійкості проекту.
Висновок
Перетворення частини інфраструктури CERN на європейський ШІ-хаб є не просто економічно вигідним рішенням, а стратегічною необхідністю. Використання тунелів LHC та FCC як фундаменту для обчислювальних потужностей дозволяє Європі подолати інфраструктурний розрив з США та Китаєм у найкоротші терміни.
Ключові фактори успіху:
- Економія 50% CAPEX за рахунок браунфілд-стратегії.33
- Енергоефективність світового рівня (PUE < 1.1) завдяки адаптації кріогеніки.31
- Інтеграція в науку: ШІ стає головним інструментом фізики високих енергій, забезпечуючи розвиток талантів.38
- Суверенність: Створення відкритої, етичної та надійної альтернативи приватним моделям ШІ.2



Реалізація цього плану дозволить Європі до 2030 року не тільки наздогнати лідерів у сфері ШІ, але й задати власні стандарти розвитку інтелектуальних систем, заснованих на науковій досконалості та демократичних цінностях. Перенаправлення ресурсів із будівництва лише наукових приладів на створення універсальної цифрової інфраструктури зробить CERN двигуном європейського технологічного майбутнього.
У розслідуванні активно використовувалися інструменти OSINT та штучний інтелект, зокрема моделі Gemini та Grok. Методи OSINT дозволили збирати та аналізувати відкриті дані з різних джерел, включаючи соціальні мережі, публічні бази даних та веб-ресурси. Gemini забезпечував глибокий аналіз текстових даних, виявлення закономірностей та прогнозування, тоді як Grok, створений xAI, використовувався для обробки складних запитів та генерування точних висновків на основі великих обсягів інформації. Поєднання цих технологій дозволило значно пришвидшити процес розслідування, підвищити точність отриманих результатів та виявити зв’язки, які могли б залишитися непоміченими традиційними методами.

Геннадій Петров, експерт інституту соціальної динаміки та безпеки Kronos у галузі футурології
Глосарій термінів:
- AGI (Artificial General Intelligence) — Загальний штучний інтелект; гіпотетична форма ШІ, здатна виконувати будь-яке інтелектуальне завдання на рівні людини.
- LLM (Large Language Model) — Велика мовна модель; тип нейронної мережі, навченої на масивних наборах даних для розуміння та генерації природної мови.
- Brownfield (Браунфілд) — Стратегія розгортання IT-інфраструктури на базі вже існуючих об’єктів або споруд, що потребують модернізації (наприклад, тунелі CERN).
- Greenfield (Грінфілд) — Будівництво нових інфраструктурних об’єктів «з нуля» на нових майданчиках.
- PUE (Power Usage Effectiveness) — Коефіцієнт енергоефективності дата-центру; відношення загальної енергії, що споживається об’єктом, до енергії, яка живить безпосередньо IT-обладнання.30
- DLC (Direct Liquid Cooling) — Пряме рідинне охолодження; технологія відведення тепла шляхом подачі холодоагенту безпосередньо до тепловиділяючих компонентів чипа.25
- FCC (Future Circular Collider) — Проект майбутнього кільцевого колайдера CERN довжиною 90,7 км, що розглядається як потенційний майданчик для ШІ-хабу.7
- LHC (Large Hadron Collider) — Великий адронний колайдер; чинний прискорювач частинок у CERN довжиною 26,7 км.6
- Tier III/IV — Класифікація надійності дата-центрів (Uptime Institute), що визначає рівень доступності та резервування систем.36
- GPU/TPU — Графічні та тензорні процесори; спеціалізоване апаратне забезпечення для виконання паралельних обчислень, критичних для ШІ.
Джерела:
- The data center construction boom | ALLIANZ COMMERCIAL, https://commercial.allianz.com/content/dam/onemarketing/commercial/commercial/reports/commercial-data-center-construction-risks.pdf
- Building CERN for AI – An institutional blueprint – Centre for Future Generations, https://cfg.eu/building-cern-for-ai/
- CERN for AI: One Analogy, Many Visions – Simon Institute for Longterm Governance, https://simoninstitute.ch/blog/post/cern-for-ai-one-analogy-many-visions
- Inside CERN’s Exabyte Data Center – Western Digital Blog, https://blog.westerndigital.com/inside-cerns-exabyte-data-center/
- AI Factories | Shaping Europe’s digital future – European Union, https://digital-strategy.ec.europa.eu/en/policies/ai-factories
- The Large Hadron Collider – CERN, https://home.cern/science/accelerators/large-hadron-collider
- FCC Feasibility Study & Path to Construction, https://meow.elettra.eu/81/pdf/FRZD3_talk.pdf
- Powering CERN, https://www.home.cern/science/engineering/powering-cern
- The Future Circular Collider – CERN, https://home.cern/science/accelerators/future-circular-collider
- CERN releases report on the feasibility of a possible Future Circular …, https://home.cern/news/news/accelerators/cern-releases-report-feasibility-possible-future-circular-collider
- Large Hadron Collider – Wikipedia, https://en.wikipedia.org/wiki/Large_Hadron_Collider
- Tunnelling to the future – CERN Courier, https://cerncourier.com/a/tunnelling-to-the-future/
- Lab Repurposes a Former Particle Accelerator to Become a …, https://www.energy.gov/science/articles/lab-repurposes-former-particle-accelerator-become-scientific-data-center-facility
- FCC feasibility study complete – CERN Courier, https://cerncourier.com/fcc-feasibility-study-complete/
- LS2 Report: renovation of the electrical infrastructure – CERN, https://home.cern/news/news/engineering/ls2-report-renovation-electrical-infrastructure
- The High-Luminosity LHC project takes shape at Point 1 – CERN, https://home.cern/news/news/accelerators/high-luminosity-lhc-project-takes-shape-point-1
- Council delegates visit new High-Luminosity LHC infrastructure – CERN, https://home.cern/news/news/cern/council-delegates-visit-new-high-luminosity-lhc-infrastructure
- CERN High Luminosity Large Hadron Collider (HL-LHC), Point 5 | ARX, https://www.arx.ing/projects/cern-high-luminosity-large-hadron-collider-hl-lhc-point-5
- Civil engineering for the High-Luminosity LHC – CERN, https://home.cern/science/accelerators/high-luminosity-lhc/civil-engineering
- Current state of CERN’s high-voltage grid [March 2011], https://indico.cern.ch/event/209689/attachments/326082/454797/High_Voltage_Grid_Mar2011_1137301-v7.1-Eng.pdf
- A new power transformer joins CERN’s armada, https://home.cern/news/news/engineering/new-power-transformer-joins-cerns-armada
- Electricity transmission reaches even higher intensities – CERN, https://home.cern/news/news/accelerators/electricity-transmission-reaches-even-higher-intensities
- HiLumi News: The HL-LHC’s cold powering system successfully passed the tests | CERN, https://home.cern/news/news/accelerators/hilumi-news-hl-lhcs-cold-powering-system-successfully-passed-tests
- Successful tests of a cooler way to transport electricity – CERN, https://home.cern/news/news/accelerators/successful-tests-cooler-way-transport-electricity
- Liquid cooling challenges in AI data centers – Schneider Electric, https://www.se.com/ww/en/insights/ai-and-technology/artificial-intelligence/liquid-cooling-challenges-in-data-centers-navigating-the-future-of-cooling-efficiency/
- Why Liquid Cooling Is No Longer Optional for AI-Driven Data Centers, https://www.datacenterfrontier.com/sponsored/article/55307885/nautilus-why-liquid-cooling-is-no-longer-optional-for-ai-driven-data-centers
- The challenge of keeping cool – CERN Courier, https://cerncourier.com/a/the-challenge-of-keeping-cool/
- Cryogenics: Low temperatures, high performance – CERN, https://www.home.cern/science/engineering/cryogenics-low-temperatures-high-performance
- Cryogenics: Low temperatures, high performance – CERN, https://home.cern/science/engineering/cryogenics-low-temperatures-high-performance
- High-Performance Computing Data Center Power Usage Effectiveness – NREL, https://www.nrel.gov/computational-science/measuring-efficiency-pue
- A new data centre at CERN, https://home.cern/news/news/computing/new-data-centre-cern
- Building CERN’s AI Strategy, https://home.cern/news/news/cern/building-cerns-ai-strategy
- Cooling – Lefdal Mine Datacenter, https://www.lefdalmine.com/data-center/cooling
- Direct Liquid Cooling – Lefdal Mine Datacenter, https://www.lefdalmine.com/services/hpc/direct-liquid-cooling
- — Sustainable data center solutions ABB powers Norway’s Lefdal Mine Datacenter 300 MW, https://resources.news.e.abb.com/attachments/published/5924/en-US/FC7D4A6E9B58/M28519_Lefdal_Mine_Infographic_v5.pdf
- Key Facts and Figures – CERN Data Centre, https://information-technology.web.cern.ch/sites/default/files/CERNDataCentre_KeyInformation_July2022_V3.pdf
- Next Generation Triggers – CERN, https://nextgentriggers.web.cern.ch/
- Members of the “CoE RAISE” EU project – developing AI approaches for next-generation supercomputers – meet at CERN, https://home.cern/news/news/computing/members-coe-raise-eu-project-developing-ai-approaches-next-generation
- Key Facts and Figures – CERN Data Centre, https://information-technology.web.cern.ch/sites/default/files/CERNDataCentre_KeyInformation_Nov2021V1.pdf
- Storage | CERN, https://home.cern/science/computing/storage
- Data centre construction cost index 2025 – Turner & Townsend, https://reports.turnerandtownsend.com/data-centre-construction-cost-index-2025/data-centre-cost-trends
- Particle Accelerators and Radiation Research | US EPA, https://www.epa.gov/radtown/particle-accelerators-and-radiation-research
- Accelerating Our Understanding Of Radiation Effects In Silicon, https://atap.lbl.gov/news/accelerating-our-understanding-of-radiation-effects-in-silicon/
- Design and Construction of Major Underground Infrastructure at Cern | PDF | Particle Physics | Large Hadron Collider – Scribd, https://www.scribd.com/document/121226926/TS8A4
- Do particle accelerators produce (dangerous) radiation? – Physics Stack Exchange, https://physics.stackexchange.com/questions/94832/do-particle-accelerators-produce-dangerous-radiation
- The EuroHPC JU Selects Six Additional AI Factories to Expand Europe’s AI Capabilities, https://www.eurohpc-ju.europa.eu/eurohpc-ju-selects-six-additional-ai-factories-expand-europes-ai-capabilities-2025-10-10_en
- Generative AI could offer a faster way to test theories of how the universe works, https://research.ibm.com/blog/time-series-AI-transformers
- AI Factories Access Modes – EuroHPC JU – European Union, https://www.eurohpc-ju.europa.eu/ai-factories/ai-factories-access-modes_en
- FAQs | AI Factories – The European High Performance Computing Joint Undertaking (EuroHPC JU), https://www.eurohpc-ju.europa.eu/ai-factories/faqs-ai-factories_en
- AI to revolutionise fundamental physics and ‘could show how universe will end’ | Large Hadron Collider | The Guardian, https://www.theguardian.com/science/2025/feb/03/ai-to-revolutionise-fundamental-physics-and-could-show-how-universe-will-end
- Scaling for the Future: Liquid Cooling’s Role in AI Data Centers – Leviton, https://leviton.com/content/dam/leviton/network-solutions/product_documents/tech_briefs/ICT-Today-Leviton-Scaling-For-The-Future.pdf
- CERN Achieves Groundbreaking Discoveries with Support from USystems, https://www.usystems.com/knowledge-hub-posts/cern-achieves-groundbreaking-discoveries-with-support-from-usystems
- Data centre construction cost index 2025-2026 – Turner & Townsend, https://www.turnerandtownsend.com/insights/data-centre-construction-cost-index-2025-2026/