import gradio as gr import torchaudio from audiocraft.models import MusicGen import spaces import logging # Configura o logging logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s - %(message)s') @spaces.GPU(duration=120) def generate_music(description, melody_audio): logging.info("Iniciando a geração de música.") # Carrega o modelo pré-treinado logging.info("Carregando o modelo pré-treinado.") model = MusicGen.get_pretrained('nateraw/musicgen-songstarter-v0.2') model.set_generation_params(duration=8) if description: description = [description] if melody_audio: logging.info(f"Carregando a melodia de áudio de: {melody_audio}") melody, sr = torchaudio.load(melody_audio) logging.info("Gerando música com descrição e melodia.") wav = model.generate_with_chroma(description, melody[None], sr) else: logging.info("Gerando música apenas com descrição.") wav = model.generate(description) else: logging.info("Gerando música de forma incondicional.") wav = model.generate_unconditional(1) logging.info(f"A forma do tensor de áudio gerado: {wav[0].shape}") logging.info("Música gerada com sucesso.") return wav[0] # Retorna o tensor de áudio diretamente # Define a interface Gradio description = gr.Textbox(label="Description", placeholder="acoustic, guitar, melody, trap, d minor, 90 bpm") melody_audio = gr.Audio(label="Melody Audio (optional)", type="filepath") output_audio = gr.Audio(label="Generated Music", type="numpy") # Especifica o tipo como "numpy" gr.Interface( fn=generate_music, inputs=[description, melody_audio], outputs=output_audio, title="MusicGen Demo", description="Generate music using the MusicGen model.", examples=[ ["trap, synthesizer, songstarters, dark, G# minor, 140 bpm", "./assets/kalhonaho.mp3"], ["upbeat, electronic, synth, dance, 120 bpm", None] ] ).launch()