Spaces:
Sleeping
Sleeping
File size: 2,139 Bytes
784afc6 bccef6e 784afc6 8d4e3a2 784afc6 8d4e3a2 784afc6 bccef6e 8d4e3a2 bccef6e 8d4e3a2 784afc6 8d4e3a2 784afc6 8d4e3a2 784afc6 8d4e3a2 784afc6 8d4e3a2 784afc6 8d4e3a2 784afc6 8d4e3a2 784afc6 5c4b08e 8d4e3a2 784afc6 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 |
import gradio as gr
from transformers import pipeline, AutoTokenizer
import torch
# Verificando se a GPU está disponível
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
# Carregando o modelo Whisper para transcrição de áudio
transcriber = pipeline(
task="automatic-speech-recognition",
model="openai/whisper-small",
device=device
)
# Carregando o tokenizer lento para o classificador
tokenizer = AutoTokenizer.from_pretrained(
"joeddav/xlm-roberta-large-xnli",
use_fast=False # Desativando o tokenizer rápido
)
# Carregando o pipeline de classificação zero-shot com o tokenizer lento
classifier = pipeline(
"zero-shot-classification",
model="joeddav/xlm-roberta-large-xnli",
tokenizer=tokenizer,
device=device
)
def transcribe_and_analyze(audio_file):
"""
Recebe um arquivo de áudio, transcreve e analisa as emoções presentes.
"""
# Transcrevendo o áudio
transcription = transcriber(audio_file)["text"]
# Lista de emoções para a classificação
emotions = ["medo", "rancor", "ódio", "raiva", "felicidade", "amor", "tristeza", "ansiedade", "inveja", "sarcasmo", "vergonha"]
# Realizando a classificação zero-shot na transcrição
classification = classifier(transcription, emotions, multi_label=True)
# Formatando os resultados
results = []
for label, score in zip(classification["labels"], classification["scores"]):
results.append(f"{label}: {score:.2f}")
# Unindo os resultados em uma string
emotion_output = "\n".join(results)
return transcription, emotion_output
# Criando a interface Gradio
interface = gr.Interface(
fn=transcribe_and_analyze,
inputs=gr.Audio(type="filepath", label="Faça upload do seu áudio"),
outputs=[
gr.Textbox(label="Transcrição do Áudio"),
gr.Textbox(label="Emoções Detectadas")
],
title="Voxsense 🗣️❣️",
description="Envie um arquivo de áudio de até 1 hora para transcrição e análise de emoções.",
theme="default"
)
if __name__ == "__main__":
interface.launch()
|