Помилка наших JAR: чому ми припинили будувати жирні JAR

Бекенд-сервіси HubSpot майже всі написані на Java. Ми маємо понад 1000 мікропослуг, які постійно будуються та розгортаються. Коли настає час розгортання та запуску одного з наших програм Java, його залежності повинні бути присутніми на шляху до класу, щоб він працював. Раніше ми вирішували це за допомогою плагіна maven-shadow-для створення товстого JAR. Це об'єднує програму та всі її залежності та об'єднує їх в один масивний JAR. Цей JAR є незмінним і не має зовнішніх залежностей, що полегшує його розгортання та запуск. Протягом багатьох років ми упаковували всі наші програми Java, і це працювало досить добре, але мало деякі серйозні недоліки.

jar-кодів

Перше питання, яке ми вразили, полягає в тому, що JAR не призначені для агрегування таким чином. У декількох файлах JAR можуть бути файли з однаковим шляхом, і за замовчуванням плагін відтінків включає перший файл у жирному файлі JAR, а решту відкидає. Це спричинило деякі справді неприємні помилки, поки ми не зрозуміли, що відбувається (наприклад, Джерсі використовує файли META-INF/служб для автоматичного виявлення провайдерів, і це спричиняло нереєстрацію деяких постачальників). На щастя, плагін shadow підтримує трансформатори ресурсів, що дозволяють визначити стратегію злиття, коли він зустрічає дублікати файлів, тому ми змогли обійти цю проблему. Однак це все одно додаткова "помилка", якої повинні пам’ятати всі наші розробники.

Інша, велика проблема, з якою ми зіткнулися, полягає в тому, що цей процес є повільним та неефективним. На прикладі одного з наших додатків він містить 70 файлів класу на загальну суму 210 КБ, упакованих як JAR. Але після запуску плагіна тіней для зв’язку його залежностей ми отримуємо жирний JAR, який містить 101 481 файл і важить 158 МБ. Об’єднання 100 000 крихітних файлів в один архів відбувається повільно. Завантаження цього JAR на S3 в кінці збірки відбувається повільно. Завантаження цього JAR під час розгортання відбувається повільно (і може наситити мережеві карти на наших серверах додатків, якщо у нас багато одночасних розгортань).

За умови, що постійно виконують зобов’язання понад 100 інженерів, ми зазвичай робимо 1000–2000 побудов на день. З кожною з цих збірок завантажували жирний JAR, ми генерували 50-100 ГБ артефактів збірки на день . І найболючіша частина - це те, наскільки дублюється кожен з цих артефактів. Наші програми мають багато перекриттів з точки зору сторонніх бібліотек, наприклад, усі вони використовують Guice, Jackson, Guava, Logback тощо. Уявіть, скільки копій цих бібліотек ми маємо в S3!

Пошук кращого шляху

Врешті-решт ми вирішили, що повинні знайти кращий спосіб зробити це. Однією з альтернатив є використання плагіна maven-dependency-плагін для копіювання всіх залежностей програми в каталог збірки. Тоді, коли ми розсмоктуємо папку збірки і завантажуємо її на S3, вона включатиме всі залежності, тому ми все ще маємо незмінні збірки, які ми хочемо. Це економить час запуску плагіна тіней і складність, яку він додає. Однак це не зменшує розмір артефактів збірки, тому завантаження тарболу в кінці збірки все одно займає деякий час, що також означає, що ми все ще витрачаємо величезну кількість місця для зберігання цих артефактів збірки, а потім завантаження цих артефактів при розгортанні все ще займає багато часу.

Представляємо SlimFast

За допомогою прикладу прикладу від раніше, що робити, якщо ми щойно завантажили JAR розміром 210 КБ? Уявіть, наскільки швидше було б збирання (виявляється, це на 60% швидше). Уявіть, скільки місця ми заощадили б у S3 (понад 99%). Уявіть, скільки часу та вводу-виводу ми заощадили б на розгортаннях. Для цього ми написали власний плагін Maven під назвою SlimFast. Він за замовчуванням прив’язується до фази розгортання та завантажує всі залежності програми на S3 окремо. На папері це насправді робить збірку повільнішим, але фокус у тому, що це потрібно робити лише в тому випадку, якщо залежність ще не існує в S3. Оскільки залежності наших додатків змінюються не дуже часто, зазвичай цей крок не застосовується. Плагін генерує файл JSON з інформацією про всі артефакти залежностей у S3, щоб ми могли завантажити їх пізніше. Під час розгортання ми завантажуємо всі залежності програми, але ми кешуємо ці артефакти на кожному з наших серверів додатків, тому цей крок, як правило, також не застосовується. Результатом є те, що під час збірки ми просто завантажуємо тонку JAR програми, яка становить лише кілька сотень кілобайт. Під час розгортання нам потрібно лише завантажити той самий тонкий JAR, який займає частку секунди.

Результати

Виконувавши це, ми перейшли від виробництва 50-100 ГБ артефактів збірки на день до менш ніж 1 ГБ. Крім того, не запущений плагін shadow і не завантаження жирних JAR-файлів на S3 мало величезні переваги з точки зору швидкості збірки. Ось графік, що показує час побудови до та після змін для деяких наших проектів:

Ми використовуємо це налаштування у виробництві більше 4 місяців, і воно чудово працює. Ознайомтеся з редакцією читання SlimFast, щоб отримати більш детальну інформацію про те, як налаштувати її, і повідомте нам, як це працює для вас!