Modelo BERT para Identificação de Fatos e Teses em Processos Jurídicos

Este modelo é uma versão fine-tuned do neuralmind/bert-base-portuguese-cased, desenvolvida especificamente para classificar sentenças em fato ou tese no contexto de processos jurídicos.

O projeto foi desenvolvido pela Diretoria de Inteligência Artificial, Ciência de Dados e Estatística do Tribunal de Justiça do Estado de Goiás.

1. Instalação

Para instalar as dependências necessárias, execute o comando abaixo:

pip install transformers

2. Utilização do Modelo

from transformers import pipeline
text = """a empresa requerente atua..."""

classifier = pipeline("text-classification", model=r"DIACDE/BERT_FATO_TESE", return_all_scores=True, truncation=True)
print(classifier(text))

#[
#    {'label': 'FATO', 'score': 0.85},
#    {'label': 'TESE', 'score': 0.15}
#]
Downloads last month
660
Safetensors
Model size
109M params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no library tag.

Model tree for DIACDE/BERNA_BERT_FATO_TESE

Finetuned
(109)
this model