TextAttack- A Framework for Adversarial Attacks in Natural Language Processing
Neste vídeo vamos ver um pouco sobre ataques adversariais de NLP, em especial em relação à biblioteca TextAttack que foi lançada recentemente; ferramenta esta que pode ser utilizada para os pipelines de Machine Learning para testes de integração e testes de output dos modelos. TextAttack: A Framework for Adversarial Attacks, Data Augmentation, and Adversarial Training in NLP Por: John X. Morris and Eli Lifland and Jin Yong Yoo and Jake Grigsby and Di Jin and Yanjun Qi Ano: 2020 Link para o artigo: https://arxiv.org/abs/2005.05909 Link para a biblioteca de NLP: https://github.com/QData/TextAttack Disclaimer: Eu não sou o autor do paper, não tenho qualquer tipo de afiliação ou interesse em relação ao artigo. O objetivo do vídeo é apenas de divulgação de ter esse tipo de conteúdo acessível para engenheiros de machine learning, e entusiastas de machine learning em geral.
Neste vídeo vamos ver um pouco sobre ataques adversariais de NLP, em especial em relação à biblioteca TextAttack que foi lançada recentemente; ferramenta esta que pode ser utilizada para os pipelines de Machine Learning para testes de integração e testes de output dos modelos. TextAttack: A Framework for Adversarial Attacks, Data Augmentation, and Adversarial Training in NLP Por: John X. Morris and Eli Lifland and Jin Yong Yoo and Jake Grigsby and Di Jin and Yanjun Qi Ano: 2020 Link para o artigo: https://arxiv.org/abs/2005.05909 Link para a biblioteca de NLP: https://github.com/QData/TextAttack Disclaimer: Eu não sou o autor do paper, não tenho qualquer tipo de afiliação ou interesse em relação ao artigo. O objetivo do vídeo é apenas de divulgação de ter esse tipo de conteúdo acessível para engenheiros de machine learning, e entusiastas de machine learning em geral.