🤗 Transformers es una biblioteca construida para:
La biblioteca fue diseñada con dos fuertes objetivos en mente:
Que sea tan fácil y rápida de utilizar como sea posible:
from_pretrained()
común de solicitud que se encargará de descargar (si es necesario), almacenar y cargar la solicitud de clase relacionada y datos asociados
(configurations’ hyper-parameters, tokenizers’ vocabulary, and models’ weights) a partir de un control pre-entrenado proporcionado en
Hugging Face Hub o de tu propio control guardado.pipeline()
para usar rápidamente un modelo (junto a su configuracion y tokenizer asociados)
sobre una tarea dada, y Trainer
/Keras.fit
para entrenar u optimizar de forma rápida un modelo dado.Proporciona modelos modernos con rendimientos lo más parecido posible a los modelos originales:
Unos cuantos objetivos adicionales:
Exponer las características internas de los modelos de la forma más coherente posible:
Incorporar una selección subjetiva de herramientas de gran potencial para la optimización/investigación de estos modelos:
Cambiar fácilmente entre PyTorch y TensorFlow 2.0, permitiendo el entrenamiento usando un marco y la inferencia usando otro.
La biblioteca está construida alrededor de tres tipos de clases para cada modelo:
BertModel
, que consisten en más de 30 modelos PyTorch (torch.nn.Module) o modelos Keras (tf.keras.Model) que funcionan con pesos pre-entrenados proporcionados en la
biblioteca.BertConfig
, que almacena todos los parámetros necesarios para construir un modelo.
No siempre tienes que generarla tu. En particular, si estas usando un modelo pre-entrenado sin ninguna modificación,
la creación del modelo se encargará automáticamente de generar la configuración (que es parte del modelo).BertTokenizer
, que almacena el vocabulario para cada modelo y proporciona métodos para
codificar/decodificar strings en una lista de índices de “token embeddings” para ser empleados en un modelo. Todas estas clases pueden ser generadas a partir de ejemplos pre-entrenados, y guardados localmente usando dos métodos:
from_pretrained()
permite generar un modelo/configuración/tokenizer a partir de una versión pre-entrenada proporcionada ya sea por
la propia biblioteca (los modelos compatibles se pueden encontrar en Model Hub) o
guardados localmente (o en un servidor) por el usuario. save_pretrained()
permite guardar un modelo/configuración/tokenizer localmente, de forma que puede ser empleado de nuevo usando
from_pretrained()
.