GitHub - cheesamaDIET-pytorch Версія Pytorch з подвійним наміром сутності

У GitHub проживає понад 50 мільйонів розробників, які спільно працюють над розміщенням та переглядом коду, управління проектами та спільним створенням програмного забезпечення.

GitHub - це місце, де світ розробляє програмне забезпечення

Мільйони розробників та компаній створюють, постачають та підтримують своє програмне забезпечення на GitHub - найбільшій та найдосконалішій платформі розробки у світі.

Використовуйте Git або замовляйте з SVN, використовуючи веб-URL.

Працюйте швидко з нашим офіційним CLI. Вивчайте більше.

Запуск робочого столу GitHub

Якщо нічого не відбувається, завантажте GitHub Desktop і повторіть спробу.

Запуск робочого столу GitHub

Якщо нічого не відбувається, завантажте GitHub Desktop і повторіть спробу.

Запуск Xcode

Якщо нічого не відбувається, завантажте Xcode і повторіть спробу.

Запуск Visual Studio

Останній коміт

Git статистика

Файли

Не вдалося завантажити останню інформацію про коміти.

README.md

Версія Transformer Pytorch із двома намірами

Реалізовано модуль на основі піторх-блискавки

file_path вказує формат знижки набору даних NLU, який слідує нижче формату навчальних даних RASA NLU

Усі параметри в тренажері, включаючи кварги, збережено як модель hparams

Користувач може перевірити ці параметри за допомогою журналів тензорної дошки контрольних точок

версія

Оскільки ця модель сховища реалізована на основі pytorch-lightning, вона автоматично генерує файл контрольної точки (користувач може встановити шлях до контрольної точки на етапі навчання)

Після встановлення шляху контрольної точки, запитуйте текст до inferencer. Результат містить intent_rank, користувач може встановити конфіденційність намірів n-го рангу.

Результат висновку буде таким, як показано нижче

Модель у цьому сховищі посилається на класифікатор Rasa DIET.

цей блог пояснює, як це працює в рамках Rasa.

Але більш просте впровадження та швидке навчання, умовиводи. Тут є кілька змін.

Попереду рівня TransformerEncoder немає рівня CRF

У реальній ситуації з навчанням конфігурація CRF займає багато навчального часу. Але вона не може бути впевнена, що модель CRF насправді добре навчиться співвідношенню маркерів або вона дійсно потрібна (я думаю, самообслуговування трансформатора робить подібні речі)

Для покращення синтаксичного аналізу корейської мови потрібен токензір символів.

Відрізняються від англійської або інших мов. Персонажа корейця можна приєднати або розділити за характером самостійно. Розглядаючи цю функцію, я застосував символічний токенізатор

Втрати маски немає.

Що стосується верхньої різниці, він не використовує жодного попередньо навченого вбудовування та маркера. Тому маскувальну техніку важко застосувати.