Curso práctico: NLP de cero a cien 🤗

Overview

Curso Práctico: NLP de cero a cien

Comprende todos los conceptos y arquitecturas clave del estado del arte del NLP y aplícalos a casos prácticos utilizando una de las bibliotecas más populares en este campo: Hugging Face. Independientemente de tus conocimientos actuales, terminarás el curso hablando tranquilamente de Transformers, Word Embeddings, modelos secuenciales, mecanismos de atención y modelado del lenguaje.

➡️ Versión web: https://somosnlp.org/nlp-de-cero-a-cien

Calendario

El curso está dividido en 7 sesiones que se impartirán cada dos martes a las 18h CET a partir del 13 de Julio. Dependiendo de tu nivel actual puedes unirte al curso en la sesión que quieras.

  • 13 Jul: Introducción al NLP y Word Embeddings
  • 27 Jul: Modelos secuenciales (RNNs, LSTMs)
  • 10 Ag: Transformers I. Arquitectura Transformer y mecanismo de atención
  • 24 Ag: Transformers II. Aprendizaje por transferencia
  • 7 Sep: Transformers III. Generación de texto
  • 21 Sep: Transformers IV. Modelado del lenguaje
  • 5 Oct: Demos de NLP con 🤗 Spaces

Cada sesión durará 30 minutos y habrá 10 minutos extra dedicados a resolver dudas de los asistentes.

¿Te has perdido una sesión? ¡No pasa nada!

  • Subimos las grabaciones a esta playlist de YouTube.
  • En este repositorio puedes consultar todo el material del curso y recursos extra.
  • Puedes preguntar tus dudas en el canal #nlp-de-cero-a-cien de nuesta comunidad de Discord.

Formadores

Por orden alfabético:

María Grandury: María es una Ingeniera e Investigadora de Machine Learning enfocada en NLP y en la fiabilidad de la IA (i.e. XAI, ataques adversarios). Estudió el doble grado de Matemáticas y Física y actualmente trabaja en neurocat, donde desarrolla una herramienta para explicar y evaluar la estabilidad de cualquier modelo de ML. María forma parte de Women in AI & Robotics cuya misión es promover una IA inclusiva y responsable. También fundó la comunidad Somos NLP con el objetivo de acelerar el avance del NLP en español.

Manuel Romero: Manuel tiene una "mente inquieta y un alma emprendedora". Estudió ingeniería informática y cuenta con casi 10 años de experiencia como desarrollador back-end y arquitecto de software. Además, es un SCRUM Master y Product Owner certificado. Actualmente trabaja en Narrativa como Ingeniero Senior de Inteligencia Artificial especializado en NLP/NLG y es el mayor contribuidor del Model Hub de Hugging Face con más de 200 modelos.

Omar Sanseviero: Omar es un Ingeniero de Machine Learning con 7 años de experiencia en la industria de la tecnología. Actualmente trabaja en Hugging Face en el equipo de open-source democratizando el uso de Machine Learning. Previamente, Omar trabajó como Ingeniero de Software en Google en Suiza en el equipo de Assistant. Omar es un apasionado de la educación y co-fundó AI Learners, una comunidad de personas que buscan aprender y discutir temas sobre Inteligencia Artificial y sus diferentes aplicaciones.

Lewis Tunstall: Lewis es Ingeniero de Machine Learning en el equipo de open-source de Hugging Face. Tiene varios años de experiencia construyendo aplicaciones de Machine Learning para startups y empresas en los dominios de NLP, análisis de datos topológicos y series temporales. Tiene un doctorado en física teórica y ha ocupado puestos de investigación en Australia, Estados Unidos y Suiza. Su trabajo actual se centra en el desarrollo de herramientas para la comunidad de NLP y en la formación de las personas para que las utilicen de forma eficaz.

Inscripción

El curso es gratuito y via online. Al registrarte en Eventbrite recibirás un email de confirmación y otro el día de cada sesión para poder entrar en el workshop.

Organizan Somos NLP 🤗 y Spain AI

Somos NLP 🤗

Somos NLP es la red internacional de profesionales, investigadores y estudiantes acelerando el avance del NLP en español. Nació como la comunidad de hispanohablantes de la iniciativa "Languages at Hugging Face" con el objetivo de democratizar el NLP en español:

  • ¿Cómo? Creando y compartiendo recursos que posibiliten y aceleren el desarrollo del NLP en Español.
  • ¿Por qué? La investigación en NLP está centrada en el inglés y descuida las dificultades particulares del NLP en español. Creemos que un idioma tan extendido como el español debería tener una representación acorde en el ámbito del NLP y vamos a hacer esto realidad.

¡Únete a la comunidad en Discord y síguenos en YouTube, Twitter y LinkedIn!

Spain AI

Spain AI es una red nacional y asociación sin ánimo de lucro, con la finalidad de crear una comunidad colaborativa dentro del ámbito de la Inteligencia Artificial en España.

26 ciudades ya y creciendo. Únete a nosotros o crea tu propia comunidad en spain-ai.com y @Spain_AI. ¡Síguenos!

Owner
Somos NLP
Comunidad de profesionales, investigadores y estudiantes acelerando el avance del NLP en Español.
Somos NLP
Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis (SV2TTS)

This repository is an implementation of Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis (SV2TTS) with a vocoder that works in real-time. Feel free to check my the

Corentin Jemine 38.5k Jan 03, 2023
EasyTransfer is designed to make the development of transfer learning in NLP applications easier.

EasyTransfer is designed to make the development of transfer learning in NLP applications easier. The literature has witnessed the success of applying

Alibaba 819 Jan 03, 2023
A combination of autoregressors and autoencoders using XLNet for sentiment analysis

A combination of autoregressors and autoencoders using XLNet for sentiment analysis Abstract In this paper sentiment analysis has been performed in or

James Zaridis 2 Nov 20, 2021
Checking spelling of form elements

Checking spelling of form elements. You can check the source files of external workflows/reports and configuration files

СКБ Контур (команда 1с) 15 Sep 12, 2022
Topic Modelling for Humans

gensim – Topic Modelling in Python Gensim is a Python library for topic modelling, document indexing and similarity retrieval with large corpora. Targ

RARE Technologies 13.8k Jan 02, 2023
Sentence Embeddings with BERT & XLNet

Sentence Transformers: Multilingual Sentence Embeddings using BERT / RoBERTa / XLM-RoBERTa & Co. with PyTorch This framework provides an easy method t

Ubiquitous Knowledge Processing Lab 9.1k Jan 02, 2023
📜 GPT-2 Rhyming Limerick and Haiku models using data augmentation

Well-formed Limericks and Haikus with GPT2 📜 GPT-2 Rhyming Limerick and Haiku models using data augmentation In collaboration with Matthew Korahais &

Bardia Shahrestani 2 May 26, 2022
Speech Recognition Database Management with python

Speech Recognition Database Management The main aim of this project is to recogn

Abhishek Kumar Jha 2 Feb 02, 2022
A 10000+ hours dataset for Chinese speech recognition

A 10000+ hours dataset for Chinese speech recognition

309 Dec 16, 2022
BERT Attention Analysis

BERT Attention Analysis This repository contains code for What Does BERT Look At? An Analysis of BERT's Attention. It includes code for getting attent

Kevin Clark 401 Dec 11, 2022
BeautyNet is an AI powered model which can tell you whether you're beautiful or not.

BeautyNet BeautyNet is an AI powered model which can tell you whether you're beautiful or not. Download Dataset from here:https://www.kaggle.com/gpios

Ansh Gupta 0 May 06, 2022
CrossNER: Evaluating Cross-Domain Named Entity Recognition (AAAI-2021)

CrossNER is a fully-labeled collected of named entity recognition (NER) data spanning over five diverse domains (Politics, Natural Science, Music, Literature, and Artificial Intelligence) with specia

Zihan Liu 89 Nov 10, 2022
Simplified diarization pipeline using some pretrained models - audio file to diarized segments in a few lines of code

simple_diarizer Simplified diarization pipeline using some pretrained models. Made to be a simple as possible to go from an input audio file to diariz

Chau 65 Dec 30, 2022
BPEmb is a collection of pre-trained subword embeddings in 275 languages, based on Byte-Pair Encoding (BPE) and trained on Wikipedia.

BPEmb is a collection of pre-trained subword embeddings in 275 languages, based on Byte-Pair Encoding (BPE) and trained on Wikipedia. Its intended use is as input for neural models in natural languag

Benjamin Heinzerling 1.1k Jan 03, 2023
Implementaion of our ACL 2022 paper Bridging the Data Gap between Training and Inference for Unsupervised Neural Machine Translation

Bridging the Data Gap between Training and Inference for Unsupervised Neural Machine Translation This is the implementaion of our paper: Bridging the

hezw.tkcw 20 Dec 12, 2022
Open-World Entity Segmentation

Open-World Entity Segmentation Project Website Lu Qi*, Jason Kuen*, Yi Wang, Jiuxiang Gu, Hengshuang Zhao, Zhe Lin, Philip Torr, Jiaya Jia This projec

DV Lab 408 Dec 29, 2022
TFIDF-based QA system for AIO2 competition

AIO2 TF-IDF Baseline This is a very simple question answering system, which is developed as a lightweight baseline for AIO2 competition. In the traini

Masatoshi Suzuki 4 Feb 19, 2022
PhoNLP: A BERT-based multi-task learning toolkit for part-of-speech tagging, named entity recognition and dependency parsing

PhoNLP is a multi-task learning model for joint part-of-speech (POS) tagging, named entity recognition (NER) and dependency parsing. Experiments on Vietnamese benchmark datasets show that PhoNLP prod

VinAI Research 109 Dec 02, 2022
基于pytorch+bert的中文事件抽取

pytorch_bert_event_extraction 基于pytorch+bert的中文事件抽取,主要思想是QA(问答)。 要预先下载好chinese-roberta-wwm-ext模型,并在运行时指定模型的位置。

西西嘛呦 31 Nov 30, 2022
Tokenizer - Module python d'analyse syntaxique et de grammaire, tokenization

Tokenizer Le Tokenizer est un analyseur lexicale, il permet, comme Flex and Yacc par exemple, de tokenizer du code, c'est à dire transformer du code e

Manolo 1 Aug 15, 2022