GitHub - VITA-GroupGAN-схуднення ECCV 2020; Всебічне стиснення GAN за допомогою уніфікованої оптимізації; від

Хаотао Ван, Шупенг Гуй, Хайчуань Ян, Джи Лю, Чжанян Ван

eccv

У ECCV 2020 (в центрі уваги)

Універсальний метод стиснення GAN, що включає модельну дистиляцію, обрізку каналів та квантування в рамках мінімальної оптимізації GAN.

Переклад зображення в зображення за допомогою (стисненого) CycleGAN:

1. Завантажити набір даних:

Це завантажить набір даних у папку наборів даних/(наприклад, набори даних/summer2winter_yosemite).

2. Отримайте оригінальний щільний CycleGAN:

Використовуйте офіційні коди CycleGAN для підготовки оригінальних щільних CycleGAN.

Використання попередньо навченого щільного генератора та дискримінатора для ініціалізації G та D для GAN-схуднення необхідне у наборі даних horse2zebra. Завантажив щільні моделі для GS32 і GS8 звідси і тут, відповідно, і помістив їх під кореневий шлях проекту.

3. Створіть результати передачі стилю на навчальному наборі

Використовуйте попередньо навчений щільний генератор, щоб генерувати результати передачі стилів на навчальному наборі та поміщати результати передачі стилів у папку train_set_result /. Наприклад, train_set_result/summer2winter_yosemite/B/2009-12-06 06: 58: 39_fake.png - це фальшиве зимове зображення, передане з реальних наборів даних літніх зображень/summer2winter_yosemite/A/2009-12-06 06: 58: 39.png використовуючи оригінальний щільний CycleGAN.

Результати тренувань (контрольно-пропускні пункти, криві втрат тощо) будуть збережені у результатах//. Дійсні s: horse2zebra, summer2winter_yosemite. Дійсні s: A2B, B2A. (Наприклад, horse2zebra/A2B означає переведення коня на зебру, а horse2zebra/B2A - переведення зебри на коня.)

5. Витяг компактної підмережі, отриманої GS

Схуднення GAN обрізало деякі канали в мережі, встановивши нульову маску каналів. Тепер нам потрібно витягти справжній стислий subnetork.

Витягнуті підмережі будуть збережені в subnet_structures //

6. Підмережа Finetune

Результати Finetune будуть збережені в finetune_results //

Попередньо оброблені моделі доступні через Google Drive.

Якщо ви використовуєте цей код для своїх досліджень, цитуйте нашу статтю.

Наша супутня робота

Будь ласка, також перевірте нашу паралельну роботу щодо поєднання пошуку нейронної архітектури (NAS) та дистиляції моделі для стиснення GAN:

Юнган Фу, Уян Чен, Хаотао Ван, Хаоран Лі, Іньян Лінь і Чжанян Ван. "AutoGAN-Distiller: пошук для стиснення генеративних змагальних мереж." ICML, 2020. [pdf] [код]

Про

[ECCV 2020] "Всебічне стиснення GAN шляхом уніфікованої оптимізації" авторів Хаотао Ван, Шупенг Гуй, Хайчуань Ян, Цзі Лю та Чжанян Ван