Spaces:
Sleeping
Sleeping
Commit
·
5c4c65a
1
Parent(s):
26ce529
Update app.py
Browse files
app.py
CHANGED
@@ -30,39 +30,40 @@ def load_extractive():
|
|
30 |
trust_remote_code = True,
|
31 |
)
|
32 |
|
33 |
-
|
34 |
-
|
35 |
-
|
36 |
-
|
37 |
-
|
38 |
-
|
39 |
-
|
40 |
-
|
41 |
-
#
|
42 |
-
|
43 |
-
|
44 |
-
|
45 |
-
|
46 |
-
|
47 |
-
|
48 |
-
|
49 |
-
|
50 |
-
|
51 |
-
|
52 |
-
|
53 |
-
|
54 |
-
|
55 |
-
|
56 |
-
|
57 |
-
|
58 |
-
|
59 |
-
|
60 |
-
|
61 |
-
|
62 |
-
|
63 |
-
|
64 |
-
|
65 |
-
|
|
|
66 |
|
67 |
def main():
|
68 |
icon = Image.open("Traçado laranja #f1863d.png")
|
@@ -92,47 +93,46 @@ def main():
|
|
92 |
|
93 |
main()
|
94 |
|
95 |
-
|
96 |
-
|
97 |
-
|
98 |
-
|
99 |
-
|
100 |
-
|
101 |
-
|
102 |
-
|
103 |
-
|
104 |
-
|
105 |
-
|
106 |
-
|
107 |
-
|
108 |
-
|
109 |
-
|
110 |
-
|
111 |
-
|
112 |
-
|
113 |
-
|
114 |
-
|
115 |
-
|
116 |
-
|
117 |
-
|
118 |
-
|
119 |
-
|
120 |
-
|
121 |
-
|
122 |
-
|
123 |
-
|
124 |
-
|
125 |
-
|
126 |
-
|
127 |
-
|
128 |
-
|
129 |
-
|
130 |
-
|
131 |
-
|
132 |
-
|
133 |
-
|
134 |
-
|
135 |
-
|
136 |
-
|
137 |
-
|
138 |
-
'''
|
|
|
30 |
trust_remote_code = True,
|
31 |
)
|
32 |
|
33 |
+
def old_funcs():
|
34 |
+
'''
|
35 |
+
def get_transcription_en(mp3_file):
|
36 |
+
model = whisper.load_model("tiny.en")
|
37 |
+
directory = os.getcwd()
|
38 |
+
result = model.transcribe(os.path.join(directory, mp3_file))
|
39 |
+
return result["text"]
|
40 |
+
|
41 |
+
#def portuguese_sum_pipeline(link):
|
42 |
+
# video_title = download_audio(link)
|
43 |
+
|
44 |
+
def english_sum_pipeline(link):
|
45 |
+
download_audio(link)
|
46 |
+
transcript_text = get_transcription_en("video.mp3")
|
47 |
+
|
48 |
+
#extractive summarization
|
49 |
+
extractive_model = Summarizer()
|
50 |
+
extractive = extractive_model(transcript_text, num_sentences=15)
|
51 |
+
|
52 |
+
#abstractive summarization
|
53 |
+
device_num = 0 if torch.cuda.is_available() else -1
|
54 |
+
abstractive_summarizer = pipeline("summarization", model="facebook/bart-large-cnn", tokenizer="facebook/bart-large-cnn", device=device_num)
|
55 |
+
output_text = abstractive_summarizer(extractive)[0]["summary_text"]
|
56 |
+
|
57 |
+
return transcript_text, output_text
|
58 |
+
|
59 |
+
def english_qa_pipeline(questions, context):
|
60 |
+
nlp = pipeline("question-answering", model='distilbert-base-uncased-distilled-squad')
|
61 |
+
answers = []
|
62 |
+
for question in questions:
|
63 |
+
result = nlp(question=question, context=context)
|
64 |
+
answers.append(result["answer"])
|
65 |
+
return answers
|
66 |
+
'''
|
67 |
|
68 |
def main():
|
69 |
icon = Image.open("Traçado laranja #f1863d.png")
|
|
|
93 |
|
94 |
main()
|
95 |
|
96 |
+
def old_main():
|
97 |
+
'''
|
98 |
+
#Collect inputs and create the interface
|
99 |
+
def main():
|
100 |
+
header = st.container()
|
101 |
+
model = st.container()
|
102 |
+
model_1, model_2 = st.columns(2)
|
103 |
+
qa = st.container()
|
104 |
+
qa_1, qa_2 = st.columns(2)
|
105 |
+
|
106 |
+
with header:
|
107 |
+
st.title("TuringVideos")
|
108 |
+
st.write("Este trabalho visa a criação de uma interface capaz de sumarizar e responder perguntas sobre um determinado vídeo em português ou inglês!")
|
109 |
+
|
110 |
+
with model:
|
111 |
+
st.header("Modelo para sumarização")
|
112 |
+
|
113 |
+
with model_1:
|
114 |
+
language = st.selectbox('Qual a linguagem do seu modelo?', ('Português (pt)', 'Inglês (en)', 'Outra'))
|
115 |
+
link = st.text_area(label="Coloque o link do seu vídeo do YouTube!", height=25, placeholder="Digite seu link...")
|
116 |
+
questions = st.text_area(label="Coloque suas perguntas separadas por vírgula!", height=50, placeholder="Digite suas perguntas...").split(",")
|
117 |
+
submit_1 = st.button('Gerar soluções!')
|
118 |
+
|
119 |
+
with model_2:
|
120 |
+
if submit_1:
|
121 |
+
with st.spinner('Wait for it...'):
|
122 |
+
if language == 'Português (pt)':
|
123 |
+
#outputs = portuguese_sum_pipeline(link)
|
124 |
+
st.write("Modelo ainda não implementado.")
|
125 |
+
|
126 |
+
elif language == 'Inglês (en)':
|
127 |
+
outputs = english_sum_pipeline(link)
|
128 |
+
answers = english_qa_pipeline(questions, outputs[0])
|
129 |
+
|
130 |
+
else:
|
131 |
+
st.write("Erro na seleção de linguagem.")
|
132 |
+
|
133 |
+
st.write("Sumário.....................................................................: \n {} \n \n".format(outputs[1]))
|
134 |
+
st.write("Resposta....................................................................: \n")
|
135 |
+
|
136 |
+
for i in range(len(answers)):
|
137 |
+
st.write(questions[i] + ": " + answers[i])
|
138 |
+
'''
|
|