parquet-converter commited on
Commit
07be4fd
·
1 Parent(s): 0260766

Update parquet files (step 24 of 476)

Browse files
This view is limited to 50 files because it contains too many changes.   See raw diff
Files changed (50) hide show
  1. spaces/1acneusushi/gradio-2dmoleculeeditor/data/Corel Draw X7 Crack Serial Number How to Unlock the Full Potential of Corel Draw X7 for Free.md +0 -28
  2. spaces/1gistliPinn/ChatGPT4/Descargar-Tecaudio-Bat-Para-Vice-City.md +0 -34
  3. spaces/1gistliPinn/ChatGPT4/Examples/Download ATH Swift Shader DX9 SM3 Build 3383x86 Rar TOP.md +0 -6
  4. spaces/1pelhydcardo/ChatGPT-prompt-generator/assets/Download GTA 5 APK OBB Data for Android (Highly Compressed 670MB).md +0 -88
  5. spaces/1phancelerku/anime-remove-background/Download NFS Heat Studio App and Get Ready for NFS Heat Launch.md +0 -93
  6. spaces/1phancelerku/anime-remove-background/Enjoy These Offline RPG Games APK on Your Android Device [No Internet Required].md +0 -148
  7. spaces/1toTree/lora_test/ppdiffusers/schedulers/scheduling_euler_ancestral_discrete.py +0 -233
  8. spaces/7hao/bingo/src/pages/api/image.ts +0 -40
  9. spaces/AIFILMS/generate_human_motion/VQ-Trans/render_final.py +0 -194
  10. spaces/AIFILMS/scene-edit-detection/app.py +0 -154
  11. spaces/AIGC-Audio/AudioGPT/text_to_speech/modules/vocoder/parallel_wavegan/models/source.py +0 -538
  12. spaces/AIWaves/Software_Company/gradio_base.py +0 -574
  13. spaces/ATang0729/Forecast4Muses/Model/Model6/Model6_2_ProfileRecogition/mmpretrain/configs/_base_/models/resnet34_gem.py +0 -17
  14. spaces/Accel/media-converter/app.py +0 -168
  15. spaces/AchyuthGamer/OpenGPT/g4f/Provider/Lockchat.py +0 -64
  16. spaces/AgentVerse/agentVerse/agentverse/environments/simulation_env/rules/base.py +0 -98
  17. spaces/AgentVerse/agentVerse/agentverse/environments/simulation_env/rules/selector/code_api.py +0 -97
  18. spaces/AgentVerse/agentVerse/agentverse/environments/simulation_env/rules/visibility/prisoner.py +0 -48
  19. spaces/AgentVerse/agentVerse/ui/src/phaser3-rex-plugins/plugins/localstorage-data.js +0 -2
  20. spaces/AgentVerse/agentVerse/ui/src/phaser3-rex-plugins/plugins/toucheventstop-plugin.d.ts +0 -9
  21. spaces/AgentVerse/agentVerse/ui/src/phaser3-rex-plugins/templates/spinner/spinner-plugin.js +0 -35
  22. spaces/AgentVerse/agentVerse/ui/src/phaser3-rex-plugins/templates/ui/fixwidthsizer/Factory.js +0 -13
  23. spaces/AgentVerse/agentVerse/ui/src/phaser3-rex-plugins/templates/ui/perspectivecard/PerspectiveCard.js +0 -161
  24. spaces/Akmyradov/TurkmenTTSweSTT/vits/utils.py +0 -258
  25. spaces/Al-Chan/Vits_League_of_Legends_Yuumi_TTS/models_infer.py +0 -402
  26. spaces/Alichuan/VITS-Umamusume-voice-synthesizer/text/symbols.py +0 -76
  27. spaces/Aloento/9Nine-PITS/analysis.py +0 -141
  28. spaces/Amrrs/portfolio/style.css +0 -190
  29. spaces/Androidonnxfork/CivitAi-to-Diffusers/diffusers/examples/controlnet/README_sdxl.md +0 -131
  30. spaces/Andy1621/uniformer_image_detection/configs/cascade_rcnn/cascade_mask_rcnn_x101_64x4d_fpn_1x_coco.py +0 -13
  31. spaces/Andy1621/uniformer_image_detection/configs/deepfashion/README.md +0 -56
  32. spaces/Andy1621/uniformer_image_detection/mmdet/models/roi_heads/__init__.py +0 -34
  33. spaces/Andy1621/uniformer_image_segmentation/configs/_base_/models/danet_r50-d8.py +0 -44
  34. spaces/Andy1621/uniformer_image_segmentation/configs/_base_/models/pointrend_r50.py +0 -56
  35. spaces/Anonymous-sub/Rerender/ControlNet/annotator/uniformer/configs/_base_/schedules/schedule_80k.py +0 -9
  36. spaces/Anonymous-sub/Rerender/ControlNet/annotator/uniformer/mmseg/ops/wrappers.py +0 -50
  37. spaces/AnthonyTruchetPoC/persistent-docker/README.md +0 -192
  38. spaces/BartPoint/VoiceChange/vc_infer_pipeline.py +0 -385
  39. spaces/Benson/text-generation/Examples/0 Delay Metro Surfistas Apk.md +0 -89
  40. spaces/Benson/text-generation/Examples/4 Juego De Cartas Solitario De Araa Traje.md +0 -103
  41. spaces/Benson/text-generation/Examples/Cero 2018 Tamil Pelcula Descargar Kuttymovies.md +0 -115
  42. spaces/Benson/text-generation/Examples/Descargar Apk Extrema Coche Simulador De Conduccin Mod.md +0 -119
  43. spaces/Benson/text-generation/Examples/Descargar Caramelo Crush Saga Mod Apk Para Pc.md +0 -114
  44. spaces/Benson/text-generation/Examples/Descargar Ejecutar Templo Para Ventanas Pc 7.md +0 -49
  45. spaces/Benson/text-generation/Examples/Descargar Fuga De Prisin S1.md +0 -73
  46. spaces/BetterAPI/BetterChat/README.md +0 -11
  47. spaces/Billyosoro/ESRGAN/tests/test_utils.py +0 -87
  48. spaces/CVPR/BigDL-Nano_inference/original_models.py +0 -359
  49. spaces/CVPR/Dual-Key_Backdoor_Attacks/openvqa/openvqa/datasets/vqa/eval/vqa.py +0 -180
  50. spaces/CVPR/LIVE/pybind11/tests/test_class.cpp +0 -449
spaces/1acneusushi/gradio-2dmoleculeeditor/data/Corel Draw X7 Crack Serial Number How to Unlock the Full Potential of Corel Draw X7 for Free.md DELETED
@@ -1,28 +0,0 @@
1
- <br />
2
- # Corel Draw X7 Crack Serial Number Free Download
3
-
4
- <p>If you are looking for a powerful and versatile graphic design software, you might want to try Corel Draw X7. Corel Draw X7 is a professional-grade vector graphics editor that can help you create stunning logos, illustrations, flyers, brochures, posters, and more. Corel Draw X7 also comes with a suite of tools and features that can enhance your creativity and productivity, such as advanced typography, color management, layout, photo editing, web graphics, and animation.</p>
5
-
6
- <p>However, Corel Draw X7 is not a cheap software. The official price of Corel Draw X7 is $499 for the full version and $199 for the upgrade version. If you want to use Corel Draw X7 without paying for it, you might be tempted to download Corel Draw X7 crack serial number for free from the internet. Corel Draw X7 crack serial number is a code that can activate the software and unlock all its features without requiring a license key or registration.</p>
7
- <h2>corel draw x7 crack serial number free download</h2><br /><p><b><b>Download File</b> &middot;&middot;&middot;&middot;&middot; <a href="https://byltly.com/2uKA1D">https://byltly.com/2uKA1D</a></b></p><br /><br />
8
-
9
- ## How to Download Corel Draw X7 Crack Serial Number for Free?
10
-
11
- <p>To download Corel Draw X7 crack serial number for free, you need to follow these steps:</p>
12
-
13
- <ol>
14
- <li>Go to the website that provides the link for the Corel Draw X7 crack serial number download. There are many websites that claim to offer the crack serial number, but some of them might be fake or malicious. To avoid getting scammed or infected by viruses, you should only use trusted and verified sources that have positive reviews and feedback from other users.</li>
15
- <li>Click on the download button and wait for the file to be downloaded. The file size might vary depending on the website, but it should be around 500 MB. You might need to complete some surveys or offers before you can access the download link, but they are usually easy and quick to do.</li>
16
- <li>Extract the file using a program like WinRAR or 7-Zip. You will get a folder that contains the crack serial number and the installation instructions. Make sure you have enough space on your hard drive to store the extracted files.</li>
17
- <li>Follow the installation instructions carefully and enter the crack serial number when prompted. This will install Corel Draw X7 on your computer and activate it with the crack serial number.</li>
18
- <li>Launch Corel Draw X7 by double-clicking on the icon on your desktop. You might need to run it as administrator or disable your antivirus software if you encounter any errors or problems.</li>
19
- <li>Enjoy using Corel Draw X7 for free!</li>
20
- </ol>
21
-
22
- ## Is Corel Draw X7 Crack Serial Number Safe and Legal?
23
-
24
- <p>Downloading and using Corel Draw X7 crack serial number is not safe or legal. The crack serial number might contain viruses, malware, or spyware that can harm your computer or steal your personal information. The crack serial number might also cause errors, crashes, or performance issues that can ruin your graphic design projects. Moreover, downloading and using Corel Draw X7 crack serial number is illegal and violates the copyright laws and terms of service of Corel Corporation. You might face legal consequences or penalties if you are caught using the crack serial number.</p>
25
-
26
- <p>Therefore, we do not recommend downloading or using Corel Draw X7 crack serial number for free. The best way to use Corel Draw X7 is to buy a legitimate copy of the software from an authorized retailer or online platform. This way, you can support the developers and enjoy the software without any risks or troubles.</p> ddb901b051<br />
27
- <br />
28
- <br />
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/1gistliPinn/ChatGPT4/Descargar-Tecaudio-Bat-Para-Vice-City.md DELETED
@@ -1,34 +0,0 @@
1
- Descargar Tecaudio Bat Para Vice City
2
-
3
-
4
-
5
- Click Here ::: [https://gohhs.com/2tvpaa](https://gohhs.com/2tvpaa)
6
-
7
-
8
-
9
-
10
-
11
-
12
-
13
-
14
-
15
- Here is a possible title and article with HTML formatting for the keyword "Descargar Tecaudio Bat Para Vice City":
16
-
17
- How to Fix Audio Problems in GTA Vice City with Tecaudio
18
- GTA Vice City is one of the most popular games in the Grand Theft Auto series, but it also has some common audio issues that can affect the gameplay experience. Some players may encounter a message saying "no audio hardware" or have no sound at all in the game. Fortunately, there is a simple solution that involves using a file called Tecaudio.
19
- Tecaudio is a MS-DOS batch file that can decode the audio files in GTA Vice City and make them compatible with your system. It is usually located in the GTA Vice City folder, but if you don't have it, you can download it from various websites. Here are the steps to use Tecaudio to fix audio problems in GTA Vice City:
20
-
21
- Download Tecaudio from a reliable source and save it in your GTA Vice City folder.
22
- Right-click on Tecaudio and select "Edit".
23
- Delete the line that says "startw wav2raw" and save the file.
24
- Run Tecaudio as administrator and wait for it to process the audio files.
25
- Launch GTA Vice City and enjoy the sound.
26
-
27
- If you still have audio issues after using Tecaudio, you may need to update your sound drivers or check your sound settings. You can also try other solutions such as changing the compatibility mode of GTA Vice City or installing patches or mods that improve the audio quality. However, Tecaudio is usually the easiest and most effective way to fix audio problems in GTA Vice City.Here are some more paragraphs for the article:
28
-
29
- GTA Vice City is set in the fictional city of Vice City, which is based on Miami in the 1980s. The game follows the story of Tommy Vercetti, a former mobster who is sent to Vice City by his boss to establish a criminal empire. The game features a large open world that can be explored by foot or by various vehicles, such as cars, motorcycles, boats, and helicopters. The game also has many side missions and activities that can be completed for money, weapons, or other rewards.
30
- The game has received critical acclaim for its graphics, gameplay, music, and voice acting. It has also been praised for its depiction of the 1980s culture and atmosphere, as well as its satire of American society and politics. The game has sold over 17.5 million copies worldwide and is considered one of the best games of all time. It has also spawned several sequels and spin-offs, such as GTA San Andreas and GTA Vice City Stories.
31
- However, the game has also faced some controversy and criticism for its violence, sexual content, drug use, and portrayal of certain groups and issues. The game has been banned or censored in some countries and has been the subject of several lawsuits and investigations. Some critics have also argued that the game glorifies crime and violence and has a negative influence on young players. Despite these controversies, the game remains popular and influential among fans and developers alike. dfd1c89656
32
-
33
-
34
-
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/1gistliPinn/ChatGPT4/Examples/Download ATH Swift Shader DX9 SM3 Build 3383x86 Rar TOP.md DELETED
@@ -1,6 +0,0 @@
1
- <h2>Download ATH Swift Shader DX9 SM3 Build 3383x86 Rar</h2><br /><p><b><b>Download</b> >> <a href="https://imgfil.com/2uxZCF">https://imgfil.com/2uxZCF</a></b></p><br /><br />
2
- <br />
3
- Download ATH Swift Shader DX9 SM3 Build 3383(x86) rar · Freaky Loops Complextro and Dubstep 3 Massive Presets ( Lumfile - Ul ).rar 1fdad05405<br />
4
- <br />
5
- <br />
6
- <p></p>
 
 
 
 
 
 
 
spaces/1pelhydcardo/ChatGPT-prompt-generator/assets/Download GTA 5 APK OBB Data for Android (Highly Compressed 670MB).md DELETED
@@ -1,88 +0,0 @@
1
- <br />
2
- <h1>GTA 5 Android APK + OBB Data Highly Compressed 670MB Download</h1>
3
- <h2>Introduction</h2>
4
- <p>If you are a fan of action-adventure games, you must have heard of GTA 5, one of the most popular and successful games of all time. GTA 5 is the fifth installment in the Grand Theft Auto series, developed by Rockstar Games and released in 2013 for PlayStation 3, PlayStation 4, Xbox 360, Xbox One, and PC. But did you know that you can also play GTA 5 on your Android device?</p>
5
- <h2>gta 5 android apk + obb data highly compressed 670mb download</h2><br /><p><b><b>Download File</b> ===== <a href="https://urlin.us/2uSYt5">https://urlin.us/2uSYt5</a></b></p><br /><br />
6
- <h3>What is GTA 5?</h3>
7
- <p>GTA 5 is a game that lets you experience the life of a criminal in the fictional city of Los Santos, based on Los Angeles. You can explore the city, engage in various activities, such as robbing banks, stealing cars, shooting enemies, and more. You can also follow the story mode, which involves three main characters: Michael, a retired bank robber; Franklin, a street hustler; and Trevor, a psychopathic drug dealer. You can switch between these characters at any time and see how their lives intertwine.</p>
8
- <h3>Why download GTA 5 for Android?</h3>
9
- <p>Downloading GTA 5 for Android has many advantages. First of all, you can enjoy the game on the go, without needing a console or a PC. You can play it anytime, anywhere, as long as you have an internet connection. Second, you can save a lot of storage space on your device, as the game is highly compressed to only 670MB. Third, you can experience the same features and quality as the original version, with no compromise on graphics or gameplay.</p>
10
- <h2>How to download and install GTA 5 for Android</h2>
11
- <h3>Requirements</h3>
12
- <p>Before you download GTA 5 for Android, you need to make sure that your device meets the following requirements:</p>
13
- <ul>
14
- <li>Android version: 4.0 or higher</li>
15
- <li>RAM: 2GB or more</li>
16
- <li>Storage: At least 4GB of free space</li>
17
- <li>Internet: A stable connection for downloading and playing online</li>
18
- </ul>
19
- <h3>Steps</h3>
20
- <p>Here are the steps to download and install GTA 5 for Android:</p>
21
- <p>gta 5 mod apk + obb for android download 670mb compressed<br />
22
- download gta 5 android apk + obb data highly compressed 2023<br />
23
- gta 5 apk + obb android free download highly compressed 670mb<br />
24
- how to install gta 5 android apk + obb data compressed 670mb<br />
25
- gta 5 beta apk + obb for android highly compressed 670mb<br />
26
- gta 5 android apk + obb data download link highly compressed 670mb<br />
27
- gta 5 android apk + obb data highly compressed offline 670mb<br />
28
- gta 5 apk + obb data for android highly compressed latest version 670mb<br />
29
- gta 5 android apk + obb data highly compressed no verification 670mb<br />
30
- gta 5 apk + obb data highly compressed zip file download for android 670mb<br />
31
- gta 5 android apk + obb data highly compressed working 100% 670mb<br />
32
- gta 5 mod menu apk + obb for android highly compressed download 670mb<br />
33
- gta 5 android apk + obb data highly compressed free download mediafıre 670mb<br />
34
- gta 5 real apk + obb for android highly compressed download link 670mb<br />
35
- gta 5 apk + obb data for android highly compressed no password 670mb<br />
36
- gta 5 android apk + obb data highly compressed google drive download link 670mb<br />
37
- gta 5 lite apk + obb for android highly compressed download latest version 670mb<br />
38
- gta 5 full game apk + obb for android highly compressed free download 670mb<br />
39
- gta 5 online apk + obb for android highly compressed download without human verification 670mb<br />
40
- gta 5 original apk + obb for android highly compressed download from rockstar games 670mb<br />
41
- gta 5 premium edition apk + obb for android highly compressed free download link 670mb<br />
42
- gta 5 redux apk + obb for android highly compressed download latest update 670mb<br />
43
- gta 5 remastered apk + obb for android highly compressed free download modded version 670mb<br />
44
- gta 5 rp apk + obb for android highly compressed download roleplay mod server link 670mb<br />
45
- gta 5 ultra graphics apk + obb for android highly compressed free download realistic mod link 670mb</p>
46
- <ol>
47
- <li>Click on this link to download the GTA 5 APK file.</li>
48
- <li>After downloading the APK file, go to your device settings and enable the installation of unknown sources.</li>
49
- <li>Install the APK file on your device.</li>
50
- <li>Download the OBB data file from this link and extract it using any file manager app.</li>
51
- <li>Copy the extracted folder named "com.rockstargames.gtav" to your device's internal storage in this path: Android/obb/.</li>
52
- <li>Launch the game from your app drawer and enjoy!</li>
53
- </ol>
54
- <h2>Features of GTA 5 for Android</h2>
55
- <h3>Stunning graphics and gameplay</h3>
56
- <p>GTA 5 for Android boasts amazing graphics and gameplay that will make you feel like you are playing on a console or a PC. The game uses advanced technologies, such as dynamic lighting, shadows, reflections, textures, and animations, to create a realistic and immersive environment. The game also runs smoothly and seamlessly on most devices, thanks to its optimization and compression.</p>
57
- <h3>Open-world freedom and exploration</h3>
58
- <p>GTA 5 for Android offers you a huge open-world map that you can explore at your own pace. You can visit different locations, such as the city, the countryside, the desert, the mountains, and the ocean. You can also interact with various characters, objects, and vehicles that populate the world. You can drive, fly, swim, bike, or walk around and discover new places and secrets.</p>
59
- <h3>Multiple characters and missions</h3>
60
- <p>GTA 5 for Android lets you play as three different characters: Michael, Franklin, and Trevor. Each character has their own personality, skills, and story. You can switch between them at any time and see how their lives affect each other. You can also complete various missions that involve action, stealth, racing, shooting, and more. You can choose to follow the main storyline or do some side quests and activities for fun and rewards.</p>
61
- <h3>Online multiplayer mode</h3>
62
- <p>GTA 5 for Android also features an online multiplayer mode called GTA Online. In this mode, you can create your own character and join other players from around the world. You can cooperate or compete with them in various modes, such as deathmatches, races, heists, and more. You can also customize your character, weapons, vehicles, and properties. GTA Online is constantly updated with new content and events to keep you entertained.</p>
63
- <h2>Tips and tricks for GTA 5 for Android</h2>
64
- <h3>Use the map and radar</h3>
65
- <p>GTA 5 for Android has a large map that can be overwhelming at first. To help you navigate and find your way around, you should use the map and radar on your screen. The map shows you the locations of missions, shops, safe houses, and more. The radar shows you the direction of your objective, enemies, allies, and police. You can also zoom in and out of the map and set waypoints to guide you.</p>
66
- <h3>Switch between characters wisely</h3>
67
- <p>GTA 5 for Android allows you to switch between three characters at any time. However, you should not do it randomly or too often. You should switch between characters when it is necessary or beneficial for your situation. For example, you can switch to Trevor when you need to use his special ability of rage mode, which makes him deal more damage and take less damage. You can also switch to another character when you are in trouble or want to avoid the police.</p>
68
- <h3>Customize your weapons and vehicles</h3>
69
- <p>GTA 5 for Android gives you a lot of options to customize your weapons and vehicles. You can buy new weapons or upgrade your existing ones with attachments, such as scopes, silencers, extended magazines, and more. You can also buy new vehicles or modify your current ones with enhancements, such as armor, turbo, spoilers, paint jobs, and more. Customizing your weapons and vehicles can improve their performance and appearance.</p>
70
- <h3>Save your game often</h3>
71
- <p>GTA 5 for Android is a game that can be unpredictable and challenging at times. You may encounter enemies, accidents, glitches, or bugs that can ruin your progress or experience. To avoid losing your data or having to repeat a mission or activity, you should save your game often. You can save your game manually by using your phone or automatically by entering a safe house or completing a mission.</p>
72
- <h2>Conclusion</h2>
73
- <p>GTA 5 for Android is a game that you should not miss if you love action-adventure games. It is a game that offers you a lot of features, such as stunning graphics and gameplay, open-world freedom and exploration, multiple characters and missions, online multiplayer mode, and more. You can download GTA 5 for Android easily by following the steps above. You can also enjoy GTA 5 for Android better by using the tips and tricks above. GTA 5 for Android is a game that will keep you entertained for hours and hours.</p>
74
- <h2>FAQs</h2>
75
- <ul>
76
- <li><b>Is GTA 5 for Android free?</b></li>
77
- <p>No, GTA 5 for Android is not free. You need to pay a small fee to download the APK file from the link above.</p>
78
- <li><b>Is GTA 5 for Android safe?</b></li>
79
- <p>Yes, GTA 5 for Android is safe. The APK file and the OBB data file are scanned and verified by antivirus software. However, you should always download them from trusted sources.</p>
80
- <li><b>Is GTA 5 for Android compatible with my device?</b></li>
81
- <p>GTA 5 for Android is compatible with most devices that run on Android 4.0 or higher. However, you should check the requirements above before downloading the game.</p>
82
- <li><b>How much storage space does GTA 5 for Android need?</b></li>
83
- <p>GTA 5 for Android needs about 4GB of storage space on your device. You need to have at least 2GB of free space to download the APK file and the OBB data file, and another 2GB of free space to install and run the game.</p>
84
- <li><b>Can I play GTA 5 for Android offline?</b></li>
85
- <p>No, you cannot play GTA 5 for Android offline. You need to have an internet connection to download and install the game, and to play the online multiplayer mode. However, you can play the story mode and some activities offline after installing the game.</p>
86
- </ul></p> 197e85843d<br />
87
- <br />
88
- <br />
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/1phancelerku/anime-remove-background/Download NFS Heat Studio App and Get Ready for NFS Heat Launch.md DELETED
@@ -1,93 +0,0 @@
1
-
2
- <h1>NFS Heat Studio: How to Download and Customize Your Dream Cars</h1>
3
- <p>If you are a fan of racing games, you probably have heard of Need for Speed Heat, the latest installment in the popular franchise by Electronic Arts. But did you know that you can also enjoy the thrill of collecting and customizing the world's most amazing cars on your mobile device? That's right, with NFS Heat Studio, you can create your own unique designs and sync them with the game. In this article, we will tell you everything you need to know about NFS Heat Studio, including how to download it, what features it offers, and how to customize your cars like a pro.</p>
4
- <h2>nfs heat studio download</h2><br /><p><b><b>DOWNLOAD</b> &#9989; <a href="https://jinyurl.com/2uNNUq">https://jinyurl.com/2uNNUq</a></b></p><br /><br />
5
- <h2>What is NFS Heat Studio?</h2>
6
- <h3>A mobile app that lets you collect and customize cars for Need for Speed Heat</h3>
7
- <p>NFS Heat Studio is a mobile app that connects you directly to Need for Speed Heat, the upcoming racing game set in the neon-lit streets of Palm City. With NFS Heat Studio, you can expand your collection with weekly drops and complete challenges to unlock the most iconic cars on the streets today. You can also use the app to perfect your ride with a huge selection of body parts, wheels, exhausts, and more. You can even use the wrap editor to create truly custom designs. Once you have unlocked the car in Need for Speed Heat, simply press the studio button in the garage to import your creations. They'll then be ready and waiting for you to play with in NFS Heat when the game releases on November 5, 2019.</p>
8
- <h3>Features of NFS Heat Studio</h3>
9
- <h4>Weekly car drops and challenges</h4>
10
- <p>Each week, a new container filled with the hottest cars will be yours to customize. Some are so special they'll need to be unlocked with progression points, earned by customizing your current rides, creating new wraps, or just spending time with your collection. You can also complete challenges to earn rewards and unlock more cars.</p>
11
- <h4>Wrap editor and color selector</h4>
12
- <p>This is your space to make each car your own. Go crazy with wild body-kits, wheels, exhausts, and more. Use the color selector to put your style on everything from the perfect finish to window tints. Even use the wrap editor to create custom designs. You can choose from a variety of decals, logos, patterns, shapes, and colors. You can also adjust the size, rotation, position, and opacity of each element.</p>
13
- <h4>Capture lab and AR mode</h4>
14
- <p>Once you are happy with your design, you can show it off to the world using the capture lab. You can set up still shots and videos in different locations and angles. You can also use the AR mode to instantly add your favorites anywhere - from your driveway to the highway. Then snap to share them on Facebook, Instagram, Twitter, or add them to your gallery.</p>
15
- <h4>Sync with Need for Speed Heat</h4>
16
- <p>The best part of NFS Heat Studio is that it connects you directly to Need for Speed Heat. All you need is an EA account (or create one) and you'll be able to sync your custom designs with the game. They'll then be ready and waiting for you to play with in NFS Heat when the game releases on November 5, 201 <h2>How to download NFS Heat Studio?</h2>
17
- <h3>Available for free on iOS and Android devices</h3>
18
- <p>NFS Heat Studio is a free app that you can download on your iOS or Android device. You don't need to own Need for Speed Heat to use the app, but you will need an EA account to sync your designs with the game. You can create an EA account for free if you don't have one already.</p>
19
- <h3>QR code in-game or links to app stores</h3>
20
- <p>There are two ways to download NFS Heat Studio. One is to scan the QR code that appears in the garage of Need for Speed Heat. This will take you directly to the app store of your device. The other way is to use the links below to access the app store of your choice.</p>
21
- <p><a href="">Download NFS Heat Studio for iOS</a></p>
22
- <p>nfs heat studio download for pc<br />
23
- nfs heat studio download apk<br />
24
- nfs heat studio download ios<br />
25
- nfs heat studio download android<br />
26
- nfs heat studio download free<br />
27
- nfs heat studio download windows 10<br />
28
- nfs heat studio download mac<br />
29
- nfs heat studio download link<br />
30
- nfs heat studio download size<br />
31
- nfs heat studio download error<br />
32
- nfs heat studio app download<br />
33
- nfs heat studio mobile download<br />
34
- nfs heat studio qr code download<br />
35
- nfs heat studio mod apk download<br />
36
- nfs heat studio hack apk download<br />
37
- nfs heat studio custom cars download<br />
38
- nfs heat studio game download<br />
39
- nfs heat studio online download<br />
40
- nfs heat studio offline download<br />
41
- nfs heat studio latest version download<br />
42
- how to download nfs heat studio on pc<br />
43
- how to download nfs heat studio on ios<br />
44
- how to download nfs heat studio on android<br />
45
- how to download nfs heat studio on mac<br />
46
- how to download nfs heat studio app<br />
47
- how to fix nfs heat studio download error<br />
48
- how to scan qr code for nfs heat studio download<br />
49
- how to get nfs heat studio mod apk download<br />
50
- how to use nfs heat studio custom cars download<br />
51
- how to update nfs heat studio latest version download<br />
52
- need for speed heat studio pc download<br />
53
- need for speed heat studio apk download<br />
54
- need for speed heat studio ios download<br />
55
- need for speed heat studio android download<br />
56
- need for speed heat studio free download<br />
57
- need for speed heat studio windows 10 download<br />
58
- need for speed heat studio mac download<br />
59
- need for speed heat studio link download<br />
60
- need for speed heat studio size download<br />
61
- need for speed heat studio error download</p>
62
- <p><a href="">Download NFS Heat Studio for Android</a></p>
63
- <h3>Supported languages and devices</h3>
64
- <p>NFS Heat Studio supports the following languages: English, French, Italian, German, Spanish, Russian, Portuguese, Polish, Japanese, Korean, Traditional Chinese, and Simplified Chinese. The app requires iOS 11.0 or later and is compatible with iPhone, iPad, and iPod touch. The app requires Android 8.0 or later and is compatible with most Android devices.</p>
65
- <h2>How to customize your cars in NFS Heat Studio?</h2>
66
- <h3>Access the Cars tab and the Workshop</h3>
67
- <p>To start customizing your cars, you need to access the Cars tab in the app. Here you will see your current collection of cars and the containers that contain new cars. You can tap on any car to enter the Workshop, where you can modify its appearance and performance.</p>
68
- <h3>Choose from a variety of body parts, wheels, exhausts, and more</h3>
69
- <p>In the Workshop, you can choose from a variety of body parts, wheels, exhausts, and more to make your car stand out. You can swipe left or right to switch between different categories of customization options. You can also tap on the icons at the bottom of the screen to access the color selector, the wrap editor, or the capture lab.</p>
70
- <h3>Use progression points to unlock special cars</h3>
71
- <p>Some cars are so special that they require progression points to unlock. You can earn progression points by customizing your current cars, creating new wraps, or just spending time with your collection. You can also complete challenges to earn more points and rewards. Once you have enough points, you can tap on the lock icon on the car to unlock it.</p>
72
- <h3>Share your designs on social media or in your Gallery</h3>
73
- <p>Once you are happy with your design, you can share it with the world using the capture lab. You can set up still shots and videos in different locations and angles. You can also use the AR mode to instantly add your favorites anywhere - from your driveway to the highway. Then snap to share them on Facebook, Instagram, Twitter, or add them to your gallery.</p>
74
- <h2>Conclusion</h2>
75
- <h3>NFS Heat Studio is a fun and creative way to enhance your Need for Speed Heat experience</h3>
76
- <p>NFS Heat Studio is a mobile app that lets you collect and customize cars for Need for Speed Heat. You can enjoy weekly car drops and challenges, use the wrap editor and color selector to create custom designs, use the capture lab and AR mode to show off your creations, and sync them with Need for Speed Heat when the game releases on November 5, 2019.</p>
77
- <h3>Download the app today and start building your dream garage</h3>
78
- <p>If you are ready to unleash your creativity and passion for cars, download NFS Heat Studio today and start building your dream garage. You can download the app for free on iOS or Android devices using the links below or by scanning the QR code in-game. Have fun and see you on the streets of Palm City!</p>
79
- <p><a href="">Download NFS Heat Studio for iOS</a></p>
80
- <p><a href="">Download NFS Heat Studio for Android</a></p>
81
- <h2>Frequently Asked Questions</h2>
82
- <h4>Do I need Need for Speed Heat to use NFS Heat Studio?</h4>
83
- <p>No, you don't need Need for Speed Heat to use NFS Heat Studio. However, you will need an EA account to sync your designs with the game when it releases on November 5, 2019.</p>
84
- <h4>How do I sync my designs with Need for Speed Heat?</h4>
85
- <p>To sync your designs with Need for Speed Heat, you need to have an EA account and be logged in on both NFS Heat Studio and the game. Once you have unlocked the car in Need for Speed Heat, simply press the studio button in the garage to import your creations. They'll then be ready and waiting for you to play with in NFS Heat.</p>
86
- <h4>How do I use the wrap editor and color selector?</h4>
87
- <p>To use the wrap editor and color selector, you need to enter the Workshop and tap on the icons at the bottom of the screen. You can choose from a variety of decals, logos, patterns, shapes, and colors. You can also adjust the size, rotation, position, and opacity of each element. You can use the color selector to put your style on everything from the perfect finish to window tints.</p>
88
- <h4>How do I use the capture lab and AR mode?</h4>
89
- <p>To use the capture lab and AR mode, you need to enter the Workshop and tap on the icons at the bottom of the screen. You can set up still shots and videos in different locations and angles. You can also use the AR mode to instantly add your favorites anywhere - from your driveway to the highway. Then snap to share them on Facebook, Instagram, Twitter, or add them to your gallery.</p>
90
- <h4>How do I complete challenges and earn progression points?</h4>
91
- <p>To complete challenges and earn progression points, you need to access the Cars tab in the app. Here you will see your current collection of cars and the containers that contain new cars. You can tap on any car to see its challenges and rewards. You can also earn progression points by customizing your current cars, creating new wraps, or just spending time with your collection. You can use progression points to unlock special cars.</p> 197e85843d<br />
92
- <br />
93
- <br />
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/1phancelerku/anime-remove-background/Enjoy These Offline RPG Games APK on Your Android Device [No Internet Required].md DELETED
@@ -1,148 +0,0 @@
1
-
2
- <h1>Game Offline RPG APK: What are they and why you should play them</h1>
3
- <p>If you are a fan of role-playing games (RPGs), you might have noticed that most of them require an internet connection to play. Whether it is to access online features, download additional content, or watch ads, online RPGs can be frustrating for gamers who have limited or no access to WiFi or cellular data.</p>
4
- <p>Fortunately, there is a solution for this problem: game offline RPG APKs. These are games that you can download and install on your Android device as APK files, which are application packages that contain all the necessary data and code to run an app. Game offline RPG APKs do not require an internet connection to play, so you can enjoy them anytime and anywhere.</p>
5
- <h2>game offline rpg apk</h2><br /><p><b><b>DOWNLOAD</b> &#9675;&#9675;&#9675; <a href="https://jinyurl.com/2uNLGC">https://jinyurl.com/2uNLGC</a></b></p><br /><br />
6
- <p>But what are the benefits of playing game offline RPG APKs? And what are some of the best game offline RPG APKs for Android? In this article, we will answer these questions and show you how to download and install game offline RPG APKs on your device.</p>
7
- <p>Game offline RPG APKs offer a variety of benefits for gamers who want to enjoy immersive role-playing games without internet connection or data usage.</p>
8
- <h2>The benefits of game offline RPG APKs</h2>
9
- <h3>No internet connection required</h3>
10
- <p>One of the main advantages of game offline RPG APKs is that they do not require an internet connection to play. This means that you can play them whenever and wherever you want, without worrying about WiFi or cellular data availability or costs.</p>
11
- <p>This is especially useful for gamers who live in areas with poor internet coverage, travel frequently, or have limited data plans. You can also save battery life by playing game offline RPG APKs, as they do not consume as much power as online games.</p>
12
- <h3>No ads or in-app purchases</h3>
13
- <p>Another benefit of game offline RPG APKs is that they are free from annoying ads or costly in-app purchases that can ruin the gaming experience. Unlike online games that rely on ads or microtransactions to generate revenue, game offline RPG APKs are usually paid or free apps that do not have any hidden fees or charges. You can enjoy the full game without being interrupted by ads or tempted by in-app purchases that can affect the game balance or progression.</p>
14
- <h3>No updates or downloads</h3>
15
- <p>A third benefit of game offline RPG APKs is that they do not require constant updates or additional downloads that can take up storage space or consume data. Once you download and install a game offline RPG APK, you can play it right away and do not have to worry about updating it to the latest version or downloading extra content that might not be compatible with your device.</p>
16
- <p>game offline rpg apk mod<br />
17
- game offline rpg apk no data<br />
18
- game offline rpg apk free download<br />
19
- game offline rpg apk terbaik<br />
20
- game offline rpg apk 2023<br />
21
- game offline rpg apk low mb<br />
22
- game offline rpg apk hack<br />
23
- game offline rpg apk android<br />
24
- game offline rpg apk unlimited money<br />
25
- game offline rpg apk high graphics<br />
26
- game offline rpg apk adventure<br />
27
- game offline rpg apk full version<br />
28
- game offline rpg apk action<br />
29
- game offline rpg apk strategy<br />
30
- game offline rpg apk fantasy<br />
31
- game offline rpg apk horror<br />
32
- game offline rpg apk pixel art<br />
33
- game offline rpg apk open world<br />
34
- game offline rpg apk turn based<br />
35
- game offline rpg apk anime<br />
36
- game offline rpg apk medieval<br />
37
- game offline rpg apk sci fi<br />
38
- game offline rpg apk survival<br />
39
- game offline rpg apk dungeon crawler<br />
40
- game offline rpg apk dragon<br />
41
- game offline rpg apk zombie<br />
42
- game offline rpg apk vampire<br />
43
- game offline rpg apk knight<br />
44
- game offline rpg apk ninja<br />
45
- game offline rpg apk samurai<br />
46
- game offline rpg apk pirate<br />
47
- game offline rpg apk superhero<br />
48
- game offline rpg apk monster hunter<br />
49
- game offline rpg apk diablo like<br />
50
- game offline rpg apk final fantasy like<br />
51
- game offline rpg apk star wars like<br />
52
- game offline rpg apk baldur's gate like<br />
53
- game offline rpg apk evoland like<br />
54
- game offline rpg apk eternium like<br />
55
- game offline rpg apk soul knight like</p>
56
- <p>This also means that you can play game offline RPG APKs even if the developer stops supporting them or removes them from the app store. You do not have to depend on the availability or quality of the online service or server to enjoy your game.</p>
57
- <h2>The best game offline RPG APKs for Android</h2>
58
- <p>Now that you know the benefits of game offline RPG APKs, you might be wondering what are some of the best game offline RPG APKs for Android. There are many game offline RPG APKs available for download, but we have selected five of the most popular and highly rated ones for you to try out. Here they are:</p>
59
- <h3>Star Wars: Knights of the Old Republic</h3>
60
- <p>If you are a fan of Star Wars, you will love this game offline RPG APK. Star Wars: Knights of the Old Republic is a classic RPG that lets you create your own character and choose your path in the galaxy far, far away. You can join the Jedi or the Sith, fight with lightsabers or blasters, and interact with iconic characters like Darth Vader, Yoda, and Han Solo.</p>
61
- <p>The game has an epic story, rich graphics, and immersive sound effects. It also has a lot of customization options, such as different classes, skills, feats, and items. You can play this game offline RPG APK for hours and hours without getting bored.</p>
62
- <p>Star Wars: Knights of the Old Republic has a rating of 4.5 out of 5 stars on Google Play and costs $9.99 to download. It requires Android 4.1 or higher and 2.4 GB of storage space.</p>
63
- <h3>Baldur's Gate</h3>
64
- <p>If you are a fan of Dungeons & Dragons, you will love this game offline RPG APK. Baldur's Gate is a legendary RPG that is based on the famous tabletop game and set in the Forgotten Realms fantasy world. You can create your own hero and explore a vast and detailed world full of adventure, magic, and danger.</p>
65
- <p>The game has a complex and engaging story, with multiple endings and choices that matter. It also has a lot of gameplay features, such as turn-based combat, party management, dialogue options, and quests. You can play this game offline RPG APK solo or with friends via local multiplayer.</p>
66
- <p>Baldur's Gate has a rating of 4.4 out of 5 stars on Google Play and costs $9.99 to download. It requires Android 3.0 or higher and 2.6 GB of storage space.</p> <h3>Dungeon Quest</h3>
67
- <p>If you are a fan of hack and slash games, you will love this game offline RPG APK. Dungeon Quest is a fast-paced RPG that lets you loot and fight your way through endless dungeons full of monsters, traps, and bosses. You can choose from four different classes: Warrior, Rogue, Mage, or Shaman, and customize your character with various skills, weapons, and armor.</p>
68
- <p>The game has a simple and addictive gameplay, with randomly generated levels and loot. It also has a lot of challenge modes, such as Arena, Survival, and Daily Dungeon. You can play this game offline RPG APK alone or with friends via local co-op.</p>
69
- <p>Dungeon Quest has a rating of 4.5 out of 5 stars on Google Play and is free to download. It requires Android 4.0 or higher and 46 MB of storage space.</p>
70
- <h3>Eternium</h3>
71
- <p>If you are a fan of Diablo, you will love this game offline RPG APK. Eternium is a stylish RPG that lets you battle against evil forces in a dark fantasy world. You can choose from three different classes: Mage, Warrior, or Bounty Hunter, and use gestures to cast spells or attack enemies.</p>
72
- <p>The game has a rich and immersive story, with over 90 levels and 10 worlds to explore. It also has a lot of gameplay features, such as crafting, fishing, mining, companions, and pets. You can play this game offline RPG APK without any restrictions or penalties.</p>
73
- <p>Eternium has a rating of 4.8 out of 5 stars on Google Play and is free to download. It requires Android 4.0 or higher and 116 MB of storage space.</p>
74
- <h3>Soul Knight</h3>
75
- <p>If you are a fan of roguelike games, you will love this game offline RPG APK. Soul Knight is a fun and quirky RPG that lets you shoot your way through randomly generated dungeons full of aliens, robots, and magic. You can choose from over 170 different characters, each with their own unique abilities and weapons.</p>
76
- <p>The game has a simple and smooth gameplay, with easy controls and colorful graphics. It also has a lot of content to unlock, such as new characters, weapons, pets, and items. You can play this game offline RPG APK solo or with friends via local multiplayer.</p>
77
- <p>Soul Knight has a rating of 4.6 out of 5 stars on Google Play and is free to download. It requires Android 4.1 or higher and 100 MB of storage space.</p>
78
- <h2>How to download and install game offline RPG APKs</h2>
79
- <h3>Find a reliable source</h3>
80
- <p>Before you can download and install game offline RPG APKs on your device, you need to find a reliable source that offers them for download. There are many websites and app stores that claim to provide game offline RPG APKs, but not all of them are trustworthy or safe.</p>
81
- <p>Some sources might offer fake or modified game offline RPG APKs that contain malware or viruses that can harm your device or steal your personal information. Some sources might also offer outdated or incompatible game offline RPG APKs that do not work properly on your device.</p>
82
- <p>To avoid these risks, you should only download game offline RPG APKs from reputable sources that have positive reviews and ratings from other users. You can also check the authenticity and quality of the game offline RPG APKs by looking at their file size, permissions, developer name, and version number.</p>
83
- <h3>Download the APK file</h3>
84
- <p>Once you have found a reliable source for the game offline RPG APK that you want to play, you need to download the APK file to your device. The APK file is the application package that contains all the data and code needed to run the app on your device.</p>
85
- <p>To download the APK file, you need to click on the download link or button provided by the source and wait for the file to be downloaded to your device. Depending on the size of the file and the speed of your internet connection, this might take a few minutes or longer.</p>
86
- <p>After the file is downloaded, you need to check its size and permissions before installing it on your device. The size of the file should match the size indicated by the source. The permissions of the file should match the functions of the app. If the file size or permissions are different from what you expected, you should delete the file and find another source.</p>
87
- <h3>Enable unknown sources</h3>
88
- <p>By default, Android devices do not allow users to install apps from unknown sources that are not verified by Google Play. This is a security measure that prevents users from installing malicious or harmful apps on their devices.</p>
89
- <p>However, if you want to install game offline RPG APKs on your device, you need to enable the option to install apps from unknown sources in your device settings. This will allow you to install game offline RPG APKs that are not available on Google Play or that are not compatible with your device.</p>
90
- <p>To enable unknown sources, you need to follow these steps:</p>
91
- <ol>
92
- <li>Go to your device settings and tap on Security or Privacy.</li>
93
- <li>Find the option that says Unknown sources or Install unknown apps and toggle it on.</li>
94
- <li>A warning message will appear, telling you the risks of installing apps from unknown sources. Tap on OK or Allow to confirm.</li>
95
- </ol>
96
- <p>Once you have enabled unknown sources, you can proceed to install the game offline RPG APK on your device.</p>
97
- <h3>Install the APK file</h3>
98
- <p>After you have downloaded and checked the game offline RPG APK file and enabled unknown sources, you can install the game offline RPG APK on your device. To install the game offline RPG APK, you need to follow these steps:</p>
99
- <ol>
100
- <li>Locate the game offline RPG APK file on your device using a file manager app or your device's Downloads folder.</li>
101
- <li>Tap on the game offline RPG APK file and a prompt will appear, asking you if you want to install the app.</li>
102
- <li>Tap on Install and wait for the installation process to complete.</li>
103
- <li>Once the installation is done, you can tap on Open to launch the game or Done to exit the prompt.</li>
104
- </ol>
105
- <p>Congratulations! You have successfully installed a game offline RPG APK on your device. You can now enjoy playing your game offline RPG without any internet connection or data usage.</p>
106
- <h2>Conclusion</h2>
107
- <p>Game offline RPG APKs are games that you can download and install on your Android device as APK files, which are application packages that contain all the data and code to run an app. Game offline RPG APKs do not require an internet connection to play, so you can enjoy them anytime and anywhere.</p>
108
- <p>Game offline RPG APKs offer a variety of benefits for gamers who want to enjoy immersive role-playing games without internet connection or data usage. Some of these benefits are:</p>
109
- <ul>
110
- <li>No internet connection required. You can play game offline RPG APKs whenever and wherever you want, without worrying about WiFi or cellular data availability or costs.</li>
111
- <li>No ads or in-app purchases. You can enjoy game offline RPG APKs without being interrupted by ads or tempted by in-app purchases that can ruin the gaming experience.</li>
112
- <li>No updates or downloads. You can play game offline RPG APKs without having to update them or download extra content that can take up storage space or consume data.</li>
113
- </ul>
114
- <p>Some of the best game offline RPG APKs for Android are:</p>
115
- <ul>
116
- <li>Star Wars: Knights of the Old Republic. A classic RPG that lets you create your own character and choose your path in the Star Wars universe.</li>
117
- <li>Baldur's Gate. A legendary RPG that is based on the Dungeons & Dragons tabletop game and set in the Forgotten Realms fantasy world.</li>
118
- <li>Dungeon Quest. A fast-paced RPG that lets you loot and fight your way through endless dungeons full of monsters, traps, and bosses.</li>
119
- <li>Eternium. A stylish RPG that lets you battle against evil forces in a dark fantasy world.</li>
120
- <li>Soul Knight. A fun and quirky RPG that lets you shoot your way through randomly generated dungeons full of aliens, robots, and magic.</li>
121
- </ul>
122
- <p>To download and install game offline RPG APKs on your device, you need to find a reliable source that offers them for download, download the APK file to your device and check its size and permissions, enable unknown sources in your device settings, and install the APK file on your device.</p>
123
- <p>If you are looking for some great game offline RPG APKs to play on your Android device, we hope this article has helped you find some of them. Why not give them a try and see for yourself how much fun they are? You might be surprised by how much you enjoy playing game offline RPG APKs without any internet connection or data usage.</p>
124
- <h2>Frequently Asked Questions</h2>
125
- <h4>What is an APK file?</h4>
126
- <p>An APK file is an application package that contains all the data and code needed to run an app on an Android device. It is similar to an EXE file for Windows or a DMG file for Mac. You can download and install APK files from various sources, such as websites or app stores, as long as they are compatible with your device and trustworthy.</p>
127
- <h4>What is an RPG?</h4>
128
- <p>An RPG is a role-playing game, which is a type of video game that lets you create your own character and immerse yourself in a fictional world where you can interact with other characters, complete quests, and fight enemies. RPGs are usually divided into two categories: online RPGs, which require an internet connection to play and offer online features, such as multiplayer, chat, or leaderboards; and offline RPGs, which do not require an internet connection to play and offer offline features, such as single-player, customization, or replayability.</p>
129
- <h4>What are some of the disadvantages of game offline RPG APKs?</h4>
130
- <p>Game offline RPG APKs are not perfect and have some disadvantages that you should be aware of before playing them. Some of these disadvantages are:</p>
131
- <ul>
132
- <li>Limited content. Game offline RPG APKs usually have less content than online RPGs, as they do not have access to online features or updates that can add new content or fix bugs.</li>
133
- <li>Potential security risks. Game offline RPG APKs can pose security risks for your device or personal information if they are downloaded from untrustworthy sources or contain malware or viruses.</li>
134
- <li>Possible compatibility issues. Game offline RPG APKs might not be compatible with your device or operating system if they are outdated or modified.</li>
135
- </ul>
136
- <p>To avoid these disadvantages, you should only download game offline RPG APKs from reliable sources, check their file size and permissions before installing them, and update your device and operating system regularly.</p>
137
- <h4>How can I delete game offline RPG APKs from my device?</h4>
138
- <p>If you want to delete game offline RPG APKs from your device, you can follow these steps:</p>
139
- <ol>
140
- <li>Go to your device settings and tap on Apps or Applications.</li>
141
- <li>Find the game offline RPG APK that you want to delete and tap on it.</li>
142
- <li>Tap on Uninstall and confirm your choice.</li>
143
- <li>The game offline RPG APK will be deleted from your device and its storage space will be freed up.</li>
144
- </ol>
145
- <h4>Can I play game offline RPG APKs on other devices?</h4>
146
- <p>Yes, you can play game offline RPG APKs on other devices as long as they are Android devices that support the game offline RPG APK that you want to play. You can transfer the game offline RPG APK file from one device to another using a USB cable, Bluetooth, Wi-Fi, or cloud storage. You can also download the game offline RPG APK file again from the same source that you used before. However, you might lose your game progress or data if you switch devices or delete the game offline RPG APK from your device.</p> 401be4b1e0<br />
147
- <br />
148
- <br />
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/1toTree/lora_test/ppdiffusers/schedulers/scheduling_euler_ancestral_discrete.py DELETED
@@ -1,233 +0,0 @@
1
- # Copyright (c) 2022 PaddlePaddle Authors. All Rights Reserved.
2
- # Copyright 2022 Katherine Crowson and The HuggingFace Team. All rights reserved.
3
- #
4
- # Licensed under the Apache License, Version 2.0 (the "License");
5
- # you may not use this file except in compliance with the License.
6
- # You may obtain a copy of the License at
7
- #
8
- # http://www.apache.org/licenses/LICENSE-2.0
9
- #
10
- # Unless required by applicable law or agreed to in writing, software
11
- # distributed under the License is distributed on an "AS IS" BASIS,
12
- # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13
- # See the License for the specific language governing permissions and
14
- # limitations under the License.
15
-
16
- from dataclasses import dataclass
17
- from typing import List, Optional, Tuple, Union
18
-
19
- import numpy as np
20
- import paddle
21
-
22
- from ..configuration_utils import ConfigMixin, register_to_config
23
- from ..utils import _COMPATIBLE_STABLE_DIFFUSION_SCHEDULERS, BaseOutput, logging
24
- from .scheduling_utils import SchedulerMixin
25
-
26
- logger = logging.get_logger(__name__) # pylint: disable=invalid-name
27
-
28
-
29
- @dataclass
30
- # Copied from diffusers.schedulers.scheduling_ddpm.DDPMSchedulerOutput with DDPM->EulerAncestralDiscrete
31
- class EulerAncestralDiscreteSchedulerOutput(BaseOutput):
32
- """
33
- Output class for the scheduler's step function output.
34
-
35
- Args:
36
- prev_sample (`paddle.Tensor` of shape `(batch_size, num_channels, height, width)` for images):
37
- Computed sample (x_{t-1}) of previous timestep. `prev_sample` should be used as next model input in the
38
- denoising loop.
39
- pred_original_sample (`paddle.Tensor` of shape `(batch_size, num_channels, height, width)` for images):
40
- The predicted denoised sample (x_{0}) based on the model output from the current timestep.
41
- `pred_original_sample` can be used to preview progress or for guidance.
42
- """
43
-
44
- prev_sample: paddle.Tensor
45
- pred_original_sample: Optional[paddle.Tensor] = None
46
-
47
-
48
- class EulerAncestralDiscreteScheduler(SchedulerMixin, ConfigMixin):
49
- """
50
- Ancestral sampling with Euler method steps. Based on the original k-diffusion implementation by Katherine Crowson:
51
- https://github.com/crowsonkb/k-diffusion/blob/481677d114f6ea445aa009cf5bd7a9cdee909e47/k_diffusion/sampling.py#L72
52
-
53
- [`~ConfigMixin`] takes care of storing all config attributes that are passed in the scheduler's `__init__`
54
- function, such as `num_train_timesteps`. They can be accessed via `scheduler.config.num_train_timesteps`.
55
- [`SchedulerMixin`] provides general loading and saving functionality via the [`SchedulerMixin.save_pretrained`] and
56
- [`~SchedulerMixin.from_pretrained`] functions.
57
-
58
- Args:
59
- num_train_timesteps (`int`): number of diffusion steps used to train the model.
60
- beta_start (`float`): the starting `beta` value of inference.
61
- beta_end (`float`): the final `beta` value.
62
- beta_schedule (`str`):
63
- the beta schedule, a mapping from a beta range to a sequence of betas for stepping the model. Choose from
64
- `linear` or `scaled_linear`.
65
- trained_betas (`np.ndarray`, optional):
66
- option to pass an array of betas directly to the constructor to bypass `beta_start`, `beta_end` etc.
67
- prediction_type (`str`, default `epsilon`, optional):
68
- prediction type of the scheduler function, one of `epsilon` (predicting the noise of the diffusion
69
- process), `sample` (directly predicting the noisy sample`) or `v_prediction` (see section 2.4
70
- https://imagen.research.google/video/paper.pdf)
71
- """
72
-
73
- _compatibles = _COMPATIBLE_STABLE_DIFFUSION_SCHEDULERS.copy()
74
- order = 1
75
-
76
- @register_to_config
77
- def __init__(
78
- self,
79
- num_train_timesteps: int = 1000,
80
- beta_start: float = 0.0001,
81
- beta_end: float = 0.02,
82
- beta_schedule: str = "linear",
83
- trained_betas: Optional[Union[np.ndarray, List[float]]] = None,
84
- prediction_type: str = "epsilon",
85
- ):
86
- if trained_betas is not None:
87
- self.betas = paddle.to_tensor(trained_betas, dtype="float32")
88
- elif beta_schedule == "linear":
89
- self.betas = paddle.linspace(beta_start, beta_end, num_train_timesteps, dtype="float32")
90
- elif beta_schedule == "scaled_linear":
91
- # this schedule is very specific to the latent diffusion model.
92
- self.betas = paddle.linspace(beta_start**0.5, beta_end**0.5, num_train_timesteps, dtype="float32") ** 2
93
- else:
94
- raise NotImplementedError(f"{beta_schedule} does is not implemented for {self.__class__}")
95
-
96
- self.alphas = 1.0 - self.betas
97
- self.alphas_cumprod = paddle.cumprod(self.alphas, 0)
98
-
99
- sigmas = np.array(((1 - self.alphas_cumprod) / self.alphas_cumprod) ** 0.5)
100
- sigmas = np.concatenate([sigmas[::-1], [0.0]]).astype(np.float32)
101
- self.sigmas = paddle.to_tensor(sigmas)
102
-
103
- # standard deviation of the initial noise distribution
104
- self.init_noise_sigma = self.sigmas.max()
105
-
106
- # setable values
107
- self.num_inference_steps = None
108
- timesteps = np.linspace(0, num_train_timesteps - 1, num_train_timesteps, dtype=float)[::-1].copy()
109
- self.timesteps = paddle.to_tensor(timesteps, dtype="float32")
110
- self.is_scale_input_called = False
111
-
112
- def scale_model_input(self, sample: paddle.Tensor, timestep: Union[float, paddle.Tensor]) -> paddle.Tensor:
113
- """
114
- Scales the denoising model input by `(sigma**2 + 1) ** 0.5` to match the Euler algorithm.
115
-
116
- Args:
117
- sample (`paddle.Tensor`): input sample
118
- timestep (`float` or `paddle.Tensor`): the current timestep in the diffusion chain
119
-
120
- Returns:
121
- `paddle.Tensor`: scaled input sample
122
- """
123
- step_index = (self.timesteps == timestep).nonzero().item()
124
- sigma = self.sigmas[step_index]
125
- sample = sample / ((sigma**2 + 1) ** 0.5)
126
- self.is_scale_input_called = True
127
- return sample
128
-
129
- def set_timesteps(self, num_inference_steps: int):
130
- """
131
- Sets the timesteps used for the diffusion chain. Supporting function to be run before inference.
132
-
133
- Args:
134
- num_inference_steps (`int`):
135
- the number of diffusion steps used when generating samples with a pre-trained model.
136
- """
137
- self.num_inference_steps = num_inference_steps
138
-
139
- timesteps = np.linspace(0, self.config.num_train_timesteps - 1, num_inference_steps, dtype=float)[::-1].copy()
140
- sigmas = np.array(((1 - self.alphas_cumprod) / self.alphas_cumprod) ** 0.5)
141
- sigmas = np.interp(timesteps, np.arange(0, len(sigmas)), sigmas)
142
- sigmas = np.concatenate([sigmas, [0.0]]).astype(np.float32)
143
- self.sigmas = paddle.to_tensor(sigmas)
144
- self.timesteps = paddle.to_tensor(timesteps, dtype="float32")
145
-
146
- def step(
147
- self,
148
- model_output: paddle.Tensor,
149
- timestep: Union[float, paddle.Tensor],
150
- sample: paddle.Tensor,
151
- generator: Optional[Union[paddle.Generator, List[paddle.Generator]]] = None,
152
- return_dict: bool = True,
153
- ) -> Union[EulerAncestralDiscreteSchedulerOutput, Tuple]:
154
- """
155
- Predict the sample at the previous timestep by reversing the SDE. Core function to propagate the diffusion
156
- process from the learned model outputs (most often the predicted noise).
157
-
158
- Args:
159
- model_output (`paddle.Tensor`): direct output from learned diffusion model.
160
- timestep (`float`): current timestep in the diffusion chain.
161
- sample (`paddle.Tensor`):
162
- current instance of sample being created by diffusion process.
163
- generator (`paddle.Generator`, optional): Random number generator.
164
- return_dict (`bool`): option for returning tuple rather than EulerAncestralDiscreteSchedulerOutput class
165
-
166
- Returns:
167
- [`~schedulers.scheduling_utils.EulerAncestralDiscreteSchedulerOutput`] or `tuple`:
168
- [`~schedulers.scheduling_utils.EulerAncestralDiscreteSchedulerOutput`] if `return_dict` is True, otherwise
169
- a `tuple`. When returning a tuple, the first element is the sample tensor.
170
-
171
- """
172
- if not self.is_scale_input_called:
173
- logger.warning(
174
- "The `scale_model_input` function should be called before `step` to ensure correct denoising. "
175
- "See `StableDiffusionPipeline` for a usage example."
176
- )
177
- step_index = (self.timesteps == timestep).nonzero().item()
178
- sigma = self.sigmas[step_index]
179
-
180
- # 1. compute predicted original sample (x_0) from sigma-scaled predicted noise
181
- if self.config.prediction_type == "epsilon":
182
- pred_original_sample = sample - sigma * model_output
183
- elif self.config.prediction_type == "v_prediction":
184
- # * c_out + input * c_skip
185
- pred_original_sample = model_output * (-sigma / (sigma**2 + 1) ** 0.5) + (sample / (sigma**2 + 1))
186
- else:
187
- raise ValueError(
188
- f"prediction_type given as {self.config.prediction_type} must be one of `epsilon`, or `v_prediction`"
189
- )
190
- sigma_from = self.sigmas[step_index]
191
- sigma_to = self.sigmas[step_index + 1]
192
- sigma_up = (sigma_to**2 * (sigma_from**2 - sigma_to**2) / sigma_from**2) ** 0.5
193
- sigma_down = (sigma_to**2 - sigma_up**2) ** 0.5
194
-
195
- # 2. Convert to an ODE derivative
196
- derivative = (sample - pred_original_sample) / sigma
197
-
198
- dt = sigma_down - sigma
199
-
200
- prev_sample = sample + derivative * dt
201
-
202
- noise = paddle.randn(model_output.shape, dtype=model_output.dtype, generator=generator)
203
-
204
- prev_sample = prev_sample + noise * sigma_up
205
-
206
- if not return_dict:
207
- return (prev_sample,)
208
-
209
- return EulerAncestralDiscreteSchedulerOutput(
210
- prev_sample=prev_sample, pred_original_sample=pred_original_sample
211
- )
212
-
213
- def add_noise(
214
- self,
215
- original_samples: paddle.Tensor,
216
- noise: paddle.Tensor,
217
- timesteps: paddle.Tensor,
218
- ) -> paddle.Tensor:
219
- # Make sure sigmas and timesteps have the same dtype as original_samples
220
- self.sigmas = self.sigmas.cast(original_samples.dtype)
221
-
222
- schedule_timesteps = self.timesteps
223
- step_indices = [(schedule_timesteps == t).nonzero().item() for t in timesteps]
224
-
225
- sigma = self.sigmas[step_indices].flatten()
226
- while len(sigma.shape) < len(original_samples.shape):
227
- sigma = sigma.unsqueeze(-1)
228
-
229
- noisy_samples = original_samples + noise * sigma
230
- return noisy_samples
231
-
232
- def __len__(self):
233
- return self.config.num_train_timesteps
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/7hao/bingo/src/pages/api/image.ts DELETED
@@ -1,40 +0,0 @@
1
- 'use server'
2
-
3
- import { NextApiRequest, NextApiResponse } from 'next'
4
- import { debug } from '@/lib/isomorphic'
5
- import { createHeaders } from '@/lib/utils'
6
- import { createImage } from '@/lib/bots/bing/utils'
7
-
8
- export default async function handler(req: NextApiRequest, res: NextApiResponse) {
9
- const { prompt, id } = req.query
10
- if (!prompt) {
11
- return res.json({
12
- result: {
13
- value: 'Image',
14
- message: 'No Prompt'
15
- }
16
- })
17
- }
18
- try {
19
- const headers = createHeaders(req.cookies, {
20
- IMAGE_BING_COOKIE: process.env.IMAGE_BING_COOKIE
21
- })
22
-
23
- debug('headers', headers)
24
- const response = await createImage(String(prompt), String(id), {
25
- ...headers,
26
- 'x-ms-useragent': 'azsdk-js-api-client-factory/1.0.0-beta.1 core-rest-pipeline/1.10.0 OS/Win32',
27
- })
28
- res.writeHead(200, {
29
- 'Content-Type': 'text/plain; charset=UTF-8',
30
- })
31
- return res.end(response)
32
- } catch (e) {
33
- return res.json({
34
- result: {
35
- value: 'Error',
36
- message: `${e}`
37
- }
38
- })
39
- }
40
- }
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/AIFILMS/generate_human_motion/VQ-Trans/render_final.py DELETED
@@ -1,194 +0,0 @@
1
- from models.rotation2xyz import Rotation2xyz
2
- import numpy as np
3
- from trimesh import Trimesh
4
- import os
5
- os.environ['PYOPENGL_PLATFORM'] = "osmesa"
6
-
7
- import torch
8
- from visualize.simplify_loc2rot import joints2smpl
9
- import pyrender
10
- import matplotlib.pyplot as plt
11
-
12
- import io
13
- import imageio
14
- from shapely import geometry
15
- import trimesh
16
- from pyrender.constants import RenderFlags
17
- import math
18
- # import ffmpeg
19
- from PIL import Image
20
-
21
- class WeakPerspectiveCamera(pyrender.Camera):
22
- def __init__(self,
23
- scale,
24
- translation,
25
- znear=pyrender.camera.DEFAULT_Z_NEAR,
26
- zfar=None,
27
- name=None):
28
- super(WeakPerspectiveCamera, self).__init__(
29
- znear=znear,
30
- zfar=zfar,
31
- name=name,
32
- )
33
- self.scale = scale
34
- self.translation = translation
35
-
36
- def get_projection_matrix(self, width=None, height=None):
37
- P = np.eye(4)
38
- P[0, 0] = self.scale[0]
39
- P[1, 1] = self.scale[1]
40
- P[0, 3] = self.translation[0] * self.scale[0]
41
- P[1, 3] = -self.translation[1] * self.scale[1]
42
- P[2, 2] = -1
43
- return P
44
-
45
- def render(motions, outdir='test_vis', device_id=0, name=None, pred=True):
46
- frames, njoints, nfeats = motions.shape
47
- MINS = motions.min(axis=0).min(axis=0)
48
- MAXS = motions.max(axis=0).max(axis=0)
49
-
50
- height_offset = MINS[1]
51
- motions[:, :, 1] -= height_offset
52
- trajec = motions[:, 0, [0, 2]]
53
-
54
- j2s = joints2smpl(num_frames=frames, device_id=0, cuda=True)
55
- rot2xyz = Rotation2xyz(device=torch.device("cuda:0"))
56
- faces = rot2xyz.smpl_model.faces
57
-
58
- if (not os.path.exists(outdir + name+'_pred.pt') and pred) or (not os.path.exists(outdir + name+'_gt.pt') and not pred):
59
- print(f'Running SMPLify, it may take a few minutes.')
60
- motion_tensor, opt_dict = j2s.joint2smpl(motions) # [nframes, njoints, 3]
61
-
62
- vertices = rot2xyz(torch.tensor(motion_tensor).clone(), mask=None,
63
- pose_rep='rot6d', translation=True, glob=True,
64
- jointstype='vertices',
65
- vertstrans=True)
66
-
67
- if pred:
68
- torch.save(vertices, outdir + name+'_pred.pt')
69
- else:
70
- torch.save(vertices, outdir + name+'_gt.pt')
71
- else:
72
- if pred:
73
- vertices = torch.load(outdir + name+'_pred.pt')
74
- else:
75
- vertices = torch.load(outdir + name+'_gt.pt')
76
- frames = vertices.shape[3] # shape: 1, nb_frames, 3, nb_joints
77
- print (vertices.shape)
78
- MINS = torch.min(torch.min(vertices[0], axis=0)[0], axis=1)[0]
79
- MAXS = torch.max(torch.max(vertices[0], axis=0)[0], axis=1)[0]
80
- # vertices[:,:,1,:] -= MINS[1] + 1e-5
81
-
82
-
83
- out_list = []
84
-
85
- minx = MINS[0] - 0.5
86
- maxx = MAXS[0] + 0.5
87
- minz = MINS[2] - 0.5
88
- maxz = MAXS[2] + 0.5
89
- polygon = geometry.Polygon([[minx, minz], [minx, maxz], [maxx, maxz], [maxx, minz]])
90
- polygon_mesh = trimesh.creation.extrude_polygon(polygon, 1e-5)
91
-
92
- vid = []
93
- for i in range(frames):
94
- if i % 10 == 0:
95
- print(i)
96
-
97
- mesh = Trimesh(vertices=vertices[0, :, :, i].squeeze().tolist(), faces=faces)
98
-
99
- base_color = (0.11, 0.53, 0.8, 0.5)
100
- ## OPAQUE rendering without alpha
101
- ## BLEND rendering consider alpha
102
- material = pyrender.MetallicRoughnessMaterial(
103
- metallicFactor=0.7,
104
- alphaMode='OPAQUE',
105
- baseColorFactor=base_color
106
- )
107
-
108
-
109
- mesh = pyrender.Mesh.from_trimesh(mesh, material=material)
110
-
111
- polygon_mesh.visual.face_colors = [0, 0, 0, 0.21]
112
- polygon_render = pyrender.Mesh.from_trimesh(polygon_mesh, smooth=False)
113
-
114
- bg_color = [1, 1, 1, 0.8]
115
- scene = pyrender.Scene(bg_color=bg_color, ambient_light=(0.4, 0.4, 0.4))
116
-
117
- sx, sy, tx, ty = [0.75, 0.75, 0, 0.10]
118
-
119
- camera = pyrender.PerspectiveCamera(yfov=(np.pi / 3.0))
120
-
121
- light = pyrender.DirectionalLight(color=[1,1,1], intensity=300)
122
-
123
- scene.add(mesh)
124
-
125
- c = np.pi / 2
126
-
127
- scene.add(polygon_render, pose=np.array([[ 1, 0, 0, 0],
128
-
129
- [ 0, np.cos(c), -np.sin(c), MINS[1].cpu().numpy()],
130
-
131
- [ 0, np.sin(c), np.cos(c), 0],
132
-
133
- [ 0, 0, 0, 1]]))
134
-
135
- light_pose = np.eye(4)
136
- light_pose[:3, 3] = [0, -1, 1]
137
- scene.add(light, pose=light_pose.copy())
138
-
139
- light_pose[:3, 3] = [0, 1, 1]
140
- scene.add(light, pose=light_pose.copy())
141
-
142
- light_pose[:3, 3] = [1, 1, 2]
143
- scene.add(light, pose=light_pose.copy())
144
-
145
-
146
- c = -np.pi / 6
147
-
148
- scene.add(camera, pose=[[ 1, 0, 0, (minx+maxx).cpu().numpy()/2],
149
-
150
- [ 0, np.cos(c), -np.sin(c), 1.5],
151
-
152
- [ 0, np.sin(c), np.cos(c), max(4, minz.cpu().numpy()+(1.5-MINS[1].cpu().numpy())*2, (maxx-minx).cpu().numpy())],
153
-
154
- [ 0, 0, 0, 1]
155
- ])
156
-
157
- # render scene
158
- r = pyrender.OffscreenRenderer(960, 960)
159
-
160
- color, _ = r.render(scene, flags=RenderFlags.RGBA)
161
- # Image.fromarray(color).save(outdir+'/'+name+'_'+str(i)+'.png')
162
-
163
- vid.append(color)
164
-
165
- r.delete()
166
-
167
- out = np.stack(vid, axis=0)
168
- if pred:
169
- imageio.mimsave(outdir + name+'_pred.gif', out, fps=20)
170
- else:
171
- imageio.mimsave(outdir + name+'_gt.gif', out, fps=20)
172
-
173
-
174
-
175
-
176
-
177
- if __name__ == "__main__":
178
- import argparse
179
- parser = argparse.ArgumentParser()
180
- parser.add_argument("--filedir", type=str, default=None, help='motion npy file dir')
181
- parser.add_argument('--motion-list', default=None, nargs="+", type=str, help="motion name list")
182
- args = parser.parse_args()
183
-
184
- filename_list = args.motion_list
185
- filedir = args.filedir
186
-
187
- for filename in filename_list:
188
- motions = np.load(filedir + filename+'_pred.npy')
189
- print('pred', motions.shape, filename)
190
- render(motions[0], outdir=filedir, device_id=0, name=filename, pred=True)
191
-
192
- motions = np.load(filedir + filename+'_gt.npy')
193
- print('gt', motions.shape, filename)
194
- render(motions[0], outdir=filedir, device_id=0, name=filename, pred=False)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/AIFILMS/scene-edit-detection/app.py DELETED
@@ -1,154 +0,0 @@
1
- # Dependencies, see also requirement.txt ;)
2
- import gradio as gr
3
- import cv2
4
- import numpy as np
5
- import os
6
-
7
- from scenedetect import open_video, SceneManager
8
- from scenedetect.detectors import ContentDetector
9
-
10
- from moviepy.video.io.ffmpeg_tools import ffmpeg_extract_subclip
11
-
12
- # —————————————————————————————————————————————————
13
-
14
- title = "Scene Edit Detection"
15
- description = "<p style='text-align: center'>Gradio demo of PySceneDetect. <br />Automatically find every shots in a video sequence</p><p style='text-align: center'> 1. gives you timecode in/out for each shot. 2. saves each shot as a splitted mp4 video chunk for you to download. 3. diplays a thumbnail for each shot as a gallery output.<br /> <img id='visitor-badge' alt='visitor badge' src='https://visitor-badge.glitch.me/badge?page_id=gradio-blocks.scene-edit-detection' style='display: inline-block'/></b></p>"
16
- article = "<p style='text-align: center'><a href='http://scenedetect.com/en/latest/' target='_blank'>PySceneDetect website</a> | <a href='https://github.com/Breakthrough/PySceneDetect' target='_blank'>Github Repo</a></p>"
17
-
18
- # —————————————————————————————————————————————————
19
-
20
- # SET INPUTS
21
- video_input = gr.Video(source="upload", format="mp4", label="Video Sequence", mirror_webcam=False)
22
- threshold = gr.Slider(label="Threshold pixel comparison: if exceeded, triggers a scene cut. Default: 27.0", minimum=15.0, maximum=40.0, value=27.0)
23
-
24
- # —————————————————————————————————————————————————
25
-
26
- def convert_to_tuple(list):
27
- return tuple(list);
28
-
29
-
30
- def find_scenes(video_path, threshold):
31
- # file name without extension
32
- filename = os.path.splitext(os.path.basename(video_path))[0]
33
- # Open our video, create a scene manager, and add a detector.
34
- video = open_video(video_path)
35
- scene_manager = SceneManager()
36
- scene_manager.add_detector(
37
- ContentDetector(threshold=threshold))
38
-
39
- # Start detection
40
- scene_manager.detect_scenes(video, show_progress=True)
41
- scene_list = scene_manager.get_scene_list()
42
-
43
- # Push the list of scenes into data_outputs
44
- data_outputs.append(scene_list)
45
- gradio_components_outputs.append("json")
46
- #print(scene_list)
47
-
48
- timecodes = []
49
- timecodes.append({"title": filename + ".mp4", "fps": scene_list[0][0].get_framerate()})
50
-
51
- shots = []
52
- stills = []
53
-
54
- # For each shot found, set entry and exit points as seconds from frame number
55
- # Then split video into chunks and store them into shots List
56
- # Then extract first frame of each shot as thumbnail for the gallery
57
- for i, shot in enumerate(scene_list):
58
-
59
- # STEP 1
60
- # Get timecode in seconds
61
- framerate = shot[0].get_framerate()
62
- shot_in = shot[0].get_frames() / framerate
63
- shot_out = shot[1].get_frames() / framerate
64
-
65
- tc_in = shot[0].get_timecode()
66
- tc_out = shot[1].get_timecode()
67
-
68
- frame_in = shot[0].get_frames()
69
- frame_out = shot[1].get_frames()
70
-
71
- timecode = {"tc_in": tc_in, "tc_out": tc_out, "frame_in": frame_in, "frame_out": frame_out}
72
- timecodes.append(timecode)
73
-
74
- # Set name template for each shot
75
- target_name = "shot_" + str(i+1) + "_" + str(filename) + ".mp4"
76
-
77
- # Split chunk
78
- ffmpeg_extract_subclip(video_path, shot_in, shot_out, targetname=target_name)
79
-
80
- # Push chunk into shots List
81
- shots.append(target_name)
82
-
83
- # Push each chunk into data_outputs
84
- data_outputs.append(target_name)
85
- gradio_components_outputs.append("video")
86
-
87
- # —————————————————————————————————————————————————
88
-
89
- # STEP 2
90
- # extract first frame of each shot with cv2
91
- vid = cv2.VideoCapture(video_path)
92
- fps = vid.get(cv2.CAP_PROP_FPS)
93
- print('frames per second =',fps)
94
-
95
- frame_id = shot[0].get_frames() # value from scene_list from step 1
96
-
97
- vid.set(cv2.CAP_PROP_POS_FRAMES, frame_id)
98
- ret, frame = vid.read()
99
-
100
- # Save frame as PNG file
101
- img = str(frame_id) + '_screenshot.png'
102
- cv2.imwrite(img,frame)
103
-
104
- # Push image into stills List
105
- stills.append((img, 'shot ' + str(i+1)))
106
-
107
- # Push the list of video shots into data_outputs for Gradio file component
108
- data_outputs.append(shots)
109
- gradio_components_outputs.append("file")
110
-
111
- # Push the list of still images into data_outputs
112
- data_outputs.append(stills)
113
- gradio_components_outputs.append("gallery")
114
-
115
- # This would have been used as gradio outputs,
116
- # if we could set number of outputs after the interface launch
117
- # That's not (yet ?) possible
118
- results = convert_to_tuple(data_outputs)
119
- print(results)
120
-
121
- # return List of shots as JSON, List of video chunks, List of still images
122
- # *
123
- # Would be nice to be able to return my results tuple as outputs,
124
- # while number of chunks found is not fixed:
125
- # return results
126
- return timecodes, shots, stills
127
-
128
- # —————————————————————————————————————————————————
129
-
130
- # SET DATA AND COMPONENTS OUTPUTS
131
-
132
- # This would be filled like this:
133
- # data_outputs = [ [List from detection], "video_chunk_n0.mp4", "video_chunk_n1.mp4", ... , "video_chunk_n.mp4", [List of video filepath to download], [List of still images from each shot found] ]
134
- data_outputs = []
135
-
136
- # This would be filled like this:
137
- # gradio_components_outputs = [ "json", "video", "video", ... , "video", "file", "gallery" ]
138
- gradio_components_outputs = []
139
-
140
-
141
- #SET OUTPUTS
142
-
143
- # This would be nice if number of outputs could be set after Interface Launch:
144
- # because we do not know how many shots will be detected
145
- # gradio_components_outputs = [ "json", "video", "video", ... , "video", "file", "gallery" ]
146
- # outputs = gradio_components_outputs
147
-
148
- # ANOTHER SOLUTION WOULD BE USING A (FUTURE ?) "VIDEO GALLERY" GRADIO COMPONENT FROM LIST :)
149
-
150
- outputs = [gr.JSON(label="Shots detected"), gr.File(label="Downloadable Shots"), gr.Gallery(label="Still Images from each shot").style(grid=3)]
151
-
152
- # —————————————————————————————————————————————————
153
- print('Hello Sylvain')
154
- gr.Interface(fn=find_scenes, inputs=[video_input, threshold], outputs=outputs, title=title, description=description, article=article).launch()
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/AIGC-Audio/AudioGPT/text_to_speech/modules/vocoder/parallel_wavegan/models/source.py DELETED
@@ -1,538 +0,0 @@
1
- import torch
2
- import numpy as np
3
- import sys
4
- import torch.nn.functional as torch_nn_func
5
-
6
-
7
- class SineGen(torch.nn.Module):
8
- """ Definition of sine generator
9
- SineGen(samp_rate, harmonic_num = 0,
10
- sine_amp = 0.1, noise_std = 0.003,
11
- voiced_threshold = 0,
12
- flag_for_pulse=False)
13
-
14
- samp_rate: sampling rate in Hz
15
- harmonic_num: number of harmonic overtones (default 0)
16
- sine_amp: amplitude of sine-wavefrom (default 0.1)
17
- noise_std: std of Gaussian noise (default 0.003)
18
- voiced_thoreshold: F0 threshold for U/V classification (default 0)
19
- flag_for_pulse: this SinGen is used inside PulseGen (default False)
20
-
21
- Note: when flag_for_pulse is True, the first time step of a voiced
22
- segment is always sin(np.pi) or cos(0)
23
- """
24
-
25
- def __init__(self, samp_rate, harmonic_num=0,
26
- sine_amp=0.1, noise_std=0.003,
27
- voiced_threshold=0,
28
- flag_for_pulse=False):
29
- super(SineGen, self).__init__()
30
- self.sine_amp = sine_amp
31
- self.noise_std = noise_std
32
- self.harmonic_num = harmonic_num
33
- self.dim = self.harmonic_num + 1
34
- self.sampling_rate = samp_rate
35
- self.voiced_threshold = voiced_threshold
36
- self.flag_for_pulse = flag_for_pulse
37
-
38
- def _f02uv(self, f0):
39
- # generate uv signal
40
- uv = torch.ones_like(f0)
41
- uv = uv * (f0 > self.voiced_threshold)
42
- return uv
43
-
44
- def _f02sine(self, f0_values):
45
- """ f0_values: (batchsize, length, dim)
46
- where dim indicates fundamental tone and overtones
47
- """
48
- # convert to F0 in rad. The interger part n can be ignored
49
- # because 2 * np.pi * n doesn't affect phase
50
- rad_values = (f0_values / self.sampling_rate) % 1
51
-
52
- # initial phase noise (no noise for fundamental component)
53
- rand_ini = torch.rand(f0_values.shape[0], f0_values.shape[2], \
54
- device=f0_values.device)
55
- rand_ini[:, 0] = 0
56
- rad_values[:, 0, :] = rad_values[:, 0, :] + rand_ini
57
-
58
- # instantanouse phase sine[t] = sin(2*pi \sum_i=1 ^{t} rad)
59
- if not self.flag_for_pulse:
60
- # for normal case
61
-
62
- # To prevent torch.cumsum numerical overflow,
63
- # it is necessary to add -1 whenever \sum_k=1^n rad_value_k > 1.
64
- # Buffer tmp_over_one_idx indicates the time step to add -1.
65
- # This will not change F0 of sine because (x-1) * 2*pi = x * 2*pi
66
- tmp_over_one = torch.cumsum(rad_values, 1) % 1
67
- tmp_over_one_idx = (tmp_over_one[:, 1:, :] -
68
- tmp_over_one[:, :-1, :]) < 0
69
- cumsum_shift = torch.zeros_like(rad_values)
70
- cumsum_shift[:, 1:, :] = tmp_over_one_idx * -1.0
71
-
72
- sines = torch.sin(torch.cumsum(rad_values + cumsum_shift, dim=1)
73
- * 2 * np.pi)
74
- else:
75
- # If necessary, make sure that the first time step of every
76
- # voiced segments is sin(pi) or cos(0)
77
- # This is used for pulse-train generation
78
-
79
- # identify the last time step in unvoiced segments
80
- uv = self._f02uv(f0_values)
81
- uv_1 = torch.roll(uv, shifts=-1, dims=1)
82
- uv_1[:, -1, :] = 1
83
- u_loc = (uv < 1) * (uv_1 > 0)
84
-
85
- # get the instantanouse phase
86
- tmp_cumsum = torch.cumsum(rad_values, dim=1)
87
- # different batch needs to be processed differently
88
- for idx in range(f0_values.shape[0]):
89
- temp_sum = tmp_cumsum[idx, u_loc[idx, :, 0], :]
90
- temp_sum[1:, :] = temp_sum[1:, :] - temp_sum[0:-1, :]
91
- # stores the accumulation of i.phase within
92
- # each voiced segments
93
- tmp_cumsum[idx, :, :] = 0
94
- tmp_cumsum[idx, u_loc[idx, :, 0], :] = temp_sum
95
-
96
- # rad_values - tmp_cumsum: remove the accumulation of i.phase
97
- # within the previous voiced segment.
98
- i_phase = torch.cumsum(rad_values - tmp_cumsum, dim=1)
99
-
100
- # get the sines
101
- sines = torch.cos(i_phase * 2 * np.pi)
102
- return sines
103
-
104
- def forward(self, f0):
105
- """ sine_tensor, uv = forward(f0)
106
- input F0: tensor(batchsize=1, length, dim=1)
107
- f0 for unvoiced steps should be 0
108
- output sine_tensor: tensor(batchsize=1, length, dim)
109
- output uv: tensor(batchsize=1, length, 1)
110
- """
111
- with torch.no_grad():
112
- f0_buf = torch.zeros(f0.shape[0], f0.shape[1], self.dim,
113
- device=f0.device)
114
- # fundamental component
115
- f0_buf[:, :, 0] = f0[:, :, 0]
116
- for idx in np.arange(self.harmonic_num):
117
- # idx + 2: the (idx+1)-th overtone, (idx+2)-th harmonic
118
- f0_buf[:, :, idx + 1] = f0_buf[:, :, 0] * (idx + 2)
119
-
120
- # generate sine waveforms
121
- sine_waves = self._f02sine(f0_buf) * self.sine_amp
122
-
123
- # generate uv signal
124
- # uv = torch.ones(f0.shape)
125
- # uv = uv * (f0 > self.voiced_threshold)
126
- uv = self._f02uv(f0)
127
-
128
- # noise: for unvoiced should be similar to sine_amp
129
- # std = self.sine_amp/3 -> max value ~ self.sine_amp
130
- # . for voiced regions is self.noise_std
131
- noise_amp = uv * self.noise_std + (1 - uv) * self.sine_amp / 3
132
- noise = noise_amp * torch.randn_like(sine_waves)
133
-
134
- # first: set the unvoiced part to 0 by uv
135
- # then: additive noise
136
- sine_waves = sine_waves * uv + noise
137
- return sine_waves, uv, noise
138
-
139
-
140
- class PulseGen(torch.nn.Module):
141
- """ Definition of Pulse train generator
142
-
143
- There are many ways to implement pulse generator.
144
- Here, PulseGen is based on SinGen. For a perfect
145
- """
146
- def __init__(self, samp_rate, pulse_amp = 0.1,
147
- noise_std = 0.003, voiced_threshold = 0):
148
- super(PulseGen, self).__init__()
149
- self.pulse_amp = pulse_amp
150
- self.sampling_rate = samp_rate
151
- self.voiced_threshold = voiced_threshold
152
- self.noise_std = noise_std
153
- self.l_sinegen = SineGen(self.sampling_rate, harmonic_num=0, \
154
- sine_amp=self.pulse_amp, noise_std=0, \
155
- voiced_threshold=self.voiced_threshold, \
156
- flag_for_pulse=True)
157
-
158
- def forward(self, f0):
159
- """ Pulse train generator
160
- pulse_train, uv = forward(f0)
161
- input F0: tensor(batchsize=1, length, dim=1)
162
- f0 for unvoiced steps should be 0
163
- output pulse_train: tensor(batchsize=1, length, dim)
164
- output uv: tensor(batchsize=1, length, 1)
165
-
166
- Note: self.l_sine doesn't make sure that the initial phase of
167
- a voiced segment is np.pi, the first pulse in a voiced segment
168
- may not be at the first time step within a voiced segment
169
- """
170
- with torch.no_grad():
171
- sine_wav, uv, noise = self.l_sinegen(f0)
172
-
173
- # sine without additive noise
174
- pure_sine = sine_wav - noise
175
-
176
- # step t corresponds to a pulse if
177
- # sine[t] > sine[t+1] & sine[t] > sine[t-1]
178
- # & sine[t-1], sine[t+1], and sine[t] are voiced
179
- # or
180
- # sine[t] is voiced, sine[t-1] is unvoiced
181
- # we use torch.roll to simulate sine[t+1] and sine[t-1]
182
- sine_1 = torch.roll(pure_sine, shifts=1, dims=1)
183
- uv_1 = torch.roll(uv, shifts=1, dims=1)
184
- uv_1[:, 0, :] = 0
185
- sine_2 = torch.roll(pure_sine, shifts=-1, dims=1)
186
- uv_2 = torch.roll(uv, shifts=-1, dims=1)
187
- uv_2[:, -1, :] = 0
188
-
189
- loc = (pure_sine > sine_1) * (pure_sine > sine_2) \
190
- * (uv_1 > 0) * (uv_2 > 0) * (uv > 0) \
191
- + (uv_1 < 1) * (uv > 0)
192
-
193
- # pulse train without noise
194
- pulse_train = pure_sine * loc
195
-
196
- # additive noise to pulse train
197
- # note that noise from sinegen is zero in voiced regions
198
- pulse_noise = torch.randn_like(pure_sine) * self.noise_std
199
-
200
- # with additive noise on pulse, and unvoiced regions
201
- pulse_train += pulse_noise * loc + pulse_noise * (1 - uv)
202
- return pulse_train, sine_wav, uv, pulse_noise
203
-
204
-
205
- class SignalsConv1d(torch.nn.Module):
206
- """ Filtering input signal with time invariant filter
207
- Note: FIRFilter conducted filtering given fixed FIR weight
208
- SignalsConv1d convolves two signals
209
- Note: this is based on torch.nn.functional.conv1d
210
-
211
- """
212
-
213
- def __init__(self):
214
- super(SignalsConv1d, self).__init__()
215
-
216
- def forward(self, signal, system_ir):
217
- """ output = forward(signal, system_ir)
218
-
219
- signal: (batchsize, length1, dim)
220
- system_ir: (length2, dim)
221
-
222
- output: (batchsize, length1, dim)
223
- """
224
- if signal.shape[-1] != system_ir.shape[-1]:
225
- print("Error: SignalsConv1d expects shape:")
226
- print("signal (batchsize, length1, dim)")
227
- print("system_id (batchsize, length2, dim)")
228
- print("But received signal: {:s}".format(str(signal.shape)))
229
- print(" system_ir: {:s}".format(str(system_ir.shape)))
230
- sys.exit(1)
231
- padding_length = system_ir.shape[0] - 1
232
- groups = signal.shape[-1]
233
-
234
- # pad signal on the left
235
- signal_pad = torch_nn_func.pad(signal.permute(0, 2, 1), \
236
- (padding_length, 0))
237
- # prepare system impulse response as (dim, 1, length2)
238
- # also flip the impulse response
239
- ir = torch.flip(system_ir.unsqueeze(1).permute(2, 1, 0), \
240
- dims=[2])
241
- # convolute
242
- output = torch_nn_func.conv1d(signal_pad, ir, groups=groups)
243
- return output.permute(0, 2, 1)
244
-
245
-
246
- class CyclicNoiseGen_v1(torch.nn.Module):
247
- """ CyclicnoiseGen_v1
248
- Cyclic noise with a single parameter of beta.
249
- Pytorch v1 implementation assumes f_t is also fixed
250
- """
251
-
252
- def __init__(self, samp_rate,
253
- noise_std=0.003, voiced_threshold=0):
254
- super(CyclicNoiseGen_v1, self).__init__()
255
- self.samp_rate = samp_rate
256
- self.noise_std = noise_std
257
- self.voiced_threshold = voiced_threshold
258
-
259
- self.l_pulse = PulseGen(samp_rate, pulse_amp=1.0,
260
- noise_std=noise_std,
261
- voiced_threshold=voiced_threshold)
262
- self.l_conv = SignalsConv1d()
263
-
264
- def noise_decay(self, beta, f0mean):
265
- """ decayed_noise = noise_decay(beta, f0mean)
266
- decayed_noise = n[t]exp(-t * f_mean / beta / samp_rate)
267
-
268
- beta: (dim=1) or (batchsize=1, 1, dim=1)
269
- f0mean (batchsize=1, 1, dim=1)
270
-
271
- decayed_noise (batchsize=1, length, dim=1)
272
- """
273
- with torch.no_grad():
274
- # exp(-1.0 n / T) < 0.01 => n > -log(0.01)*T = 4.60*T
275
- # truncate the noise when decayed by -40 dB
276
- length = 4.6 * self.samp_rate / f0mean
277
- length = length.int()
278
- time_idx = torch.arange(0, length, device=beta.device)
279
- time_idx = time_idx.unsqueeze(0).unsqueeze(2)
280
- time_idx = time_idx.repeat(beta.shape[0], 1, beta.shape[2])
281
-
282
- noise = torch.randn(time_idx.shape, device=beta.device)
283
-
284
- # due to Pytorch implementation, use f0_mean as the f0 factor
285
- decay = torch.exp(-time_idx * f0mean / beta / self.samp_rate)
286
- return noise * self.noise_std * decay
287
-
288
- def forward(self, f0s, beta):
289
- """ Producde cyclic-noise
290
- """
291
- # pulse train
292
- pulse_train, sine_wav, uv, noise = self.l_pulse(f0s)
293
- pure_pulse = pulse_train - noise
294
-
295
- # decayed_noise (length, dim=1)
296
- if (uv < 1).all():
297
- # all unvoiced
298
- cyc_noise = torch.zeros_like(sine_wav)
299
- else:
300
- f0mean = f0s[uv > 0].mean()
301
-
302
- decayed_noise = self.noise_decay(beta, f0mean)[0, :, :]
303
- # convolute
304
- cyc_noise = self.l_conv(pure_pulse, decayed_noise)
305
-
306
- # add noise in invoiced segments
307
- cyc_noise = cyc_noise + noise * (1.0 - uv)
308
- return cyc_noise, pulse_train, sine_wav, uv, noise
309
-
310
-
311
- class SineGen(torch.nn.Module):
312
- """ Definition of sine generator
313
- SineGen(samp_rate, harmonic_num = 0,
314
- sine_amp = 0.1, noise_std = 0.003,
315
- voiced_threshold = 0,
316
- flag_for_pulse=False)
317
-
318
- samp_rate: sampling rate in Hz
319
- harmonic_num: number of harmonic overtones (default 0)
320
- sine_amp: amplitude of sine-wavefrom (default 0.1)
321
- noise_std: std of Gaussian noise (default 0.003)
322
- voiced_thoreshold: F0 threshold for U/V classification (default 0)
323
- flag_for_pulse: this SinGen is used inside PulseGen (default False)
324
-
325
- Note: when flag_for_pulse is True, the first time step of a voiced
326
- segment is always sin(np.pi) or cos(0)
327
- """
328
-
329
- def __init__(self, samp_rate, harmonic_num=0,
330
- sine_amp=0.1, noise_std=0.003,
331
- voiced_threshold=0,
332
- flag_for_pulse=False):
333
- super(SineGen, self).__init__()
334
- self.sine_amp = sine_amp
335
- self.noise_std = noise_std
336
- self.harmonic_num = harmonic_num
337
- self.dim = self.harmonic_num + 1
338
- self.sampling_rate = samp_rate
339
- self.voiced_threshold = voiced_threshold
340
- self.flag_for_pulse = flag_for_pulse
341
-
342
- def _f02uv(self, f0):
343
- # generate uv signal
344
- uv = torch.ones_like(f0)
345
- uv = uv * (f0 > self.voiced_threshold)
346
- return uv
347
-
348
- def _f02sine(self, f0_values):
349
- """ f0_values: (batchsize, length, dim)
350
- where dim indicates fundamental tone and overtones
351
- """
352
- # convert to F0 in rad. The interger part n can be ignored
353
- # because 2 * np.pi * n doesn't affect phase
354
- rad_values = (f0_values / self.sampling_rate) % 1
355
-
356
- # initial phase noise (no noise for fundamental component)
357
- rand_ini = torch.rand(f0_values.shape[0], f0_values.shape[2], \
358
- device=f0_values.device)
359
- rand_ini[:, 0] = 0
360
- rad_values[:, 0, :] = rad_values[:, 0, :] + rand_ini
361
-
362
- # instantanouse phase sine[t] = sin(2*pi \sum_i=1 ^{t} rad)
363
- if not self.flag_for_pulse:
364
- # for normal case
365
-
366
- # To prevent torch.cumsum numerical overflow,
367
- # it is necessary to add -1 whenever \sum_k=1^n rad_value_k > 1.
368
- # Buffer tmp_over_one_idx indicates the time step to add -1.
369
- # This will not change F0 of sine because (x-1) * 2*pi = x * 2*pi
370
- tmp_over_one = torch.cumsum(rad_values, 1) % 1
371
- tmp_over_one_idx = (tmp_over_one[:, 1:, :] -
372
- tmp_over_one[:, :-1, :]) < 0
373
- cumsum_shift = torch.zeros_like(rad_values)
374
- cumsum_shift[:, 1:, :] = tmp_over_one_idx * -1.0
375
-
376
- sines = torch.sin(torch.cumsum(rad_values + cumsum_shift, dim=1)
377
- * 2 * np.pi)
378
- else:
379
- # If necessary, make sure that the first time step of every
380
- # voiced segments is sin(pi) or cos(0)
381
- # This is used for pulse-train generation
382
-
383
- # identify the last time step in unvoiced segments
384
- uv = self._f02uv(f0_values)
385
- uv_1 = torch.roll(uv, shifts=-1, dims=1)
386
- uv_1[:, -1, :] = 1
387
- u_loc = (uv < 1) * (uv_1 > 0)
388
-
389
- # get the instantanouse phase
390
- tmp_cumsum = torch.cumsum(rad_values, dim=1)
391
- # different batch needs to be processed differently
392
- for idx in range(f0_values.shape[0]):
393
- temp_sum = tmp_cumsum[idx, u_loc[idx, :, 0], :]
394
- temp_sum[1:, :] = temp_sum[1:, :] - temp_sum[0:-1, :]
395
- # stores the accumulation of i.phase within
396
- # each voiced segments
397
- tmp_cumsum[idx, :, :] = 0
398
- tmp_cumsum[idx, u_loc[idx, :, 0], :] = temp_sum
399
-
400
- # rad_values - tmp_cumsum: remove the accumulation of i.phase
401
- # within the previous voiced segment.
402
- i_phase = torch.cumsum(rad_values - tmp_cumsum, dim=1)
403
-
404
- # get the sines
405
- sines = torch.cos(i_phase * 2 * np.pi)
406
- return sines
407
-
408
- def forward(self, f0):
409
- """ sine_tensor, uv = forward(f0)
410
- input F0: tensor(batchsize=1, length, dim=1)
411
- f0 for unvoiced steps should be 0
412
- output sine_tensor: tensor(batchsize=1, length, dim)
413
- output uv: tensor(batchsize=1, length, 1)
414
- """
415
- with torch.no_grad():
416
- f0_buf = torch.zeros(f0.shape[0], f0.shape[1], self.dim, \
417
- device=f0.device)
418
- # fundamental component
419
- f0_buf[:, :, 0] = f0[:, :, 0]
420
- for idx in np.arange(self.harmonic_num):
421
- # idx + 2: the (idx+1)-th overtone, (idx+2)-th harmonic
422
- f0_buf[:, :, idx + 1] = f0_buf[:, :, 0] * (idx + 2)
423
-
424
- # generate sine waveforms
425
- sine_waves = self._f02sine(f0_buf) * self.sine_amp
426
-
427
- # generate uv signal
428
- # uv = torch.ones(f0.shape)
429
- # uv = uv * (f0 > self.voiced_threshold)
430
- uv = self._f02uv(f0)
431
-
432
- # noise: for unvoiced should be similar to sine_amp
433
- # std = self.sine_amp/3 -> max value ~ self.sine_amp
434
- # . for voiced regions is self.noise_std
435
- noise_amp = uv * self.noise_std + (1 - uv) * self.sine_amp / 3
436
- noise = noise_amp * torch.randn_like(sine_waves)
437
-
438
- # first: set the unvoiced part to 0 by uv
439
- # then: additive noise
440
- sine_waves = sine_waves * uv + noise
441
- return sine_waves, uv, noise
442
-
443
-
444
- class SourceModuleCycNoise_v1(torch.nn.Module):
445
- """ SourceModuleCycNoise_v1
446
- SourceModule(sampling_rate, noise_std=0.003, voiced_threshod=0)
447
- sampling_rate: sampling_rate in Hz
448
-
449
- noise_std: std of Gaussian noise (default: 0.003)
450
- voiced_threshold: threshold to set U/V given F0 (default: 0)
451
-
452
- cyc, noise, uv = SourceModuleCycNoise_v1(F0_upsampled, beta)
453
- F0_upsampled (batchsize, length, 1)
454
- beta (1)
455
- cyc (batchsize, length, 1)
456
- noise (batchsize, length, 1)
457
- uv (batchsize, length, 1)
458
- """
459
-
460
- def __init__(self, sampling_rate, noise_std=0.003, voiced_threshod=0):
461
- super(SourceModuleCycNoise_v1, self).__init__()
462
- self.sampling_rate = sampling_rate
463
- self.noise_std = noise_std
464
- self.l_cyc_gen = CyclicNoiseGen_v1(sampling_rate, noise_std,
465
- voiced_threshod)
466
-
467
- def forward(self, f0_upsamped, beta):
468
- """
469
- cyc, noise, uv = SourceModuleCycNoise_v1(F0, beta)
470
- F0_upsampled (batchsize, length, 1)
471
- beta (1)
472
- cyc (batchsize, length, 1)
473
- noise (batchsize, length, 1)
474
- uv (batchsize, length, 1)
475
- """
476
- # source for harmonic branch
477
- cyc, pulse, sine, uv, add_noi = self.l_cyc_gen(f0_upsamped, beta)
478
-
479
- # source for noise branch, in the same shape as uv
480
- noise = torch.randn_like(uv) * self.noise_std / 3
481
- return cyc, noise, uv
482
-
483
-
484
- class SourceModuleHnNSF(torch.nn.Module):
485
- """ SourceModule for hn-nsf
486
- SourceModule(sampling_rate, harmonic_num=0, sine_amp=0.1,
487
- add_noise_std=0.003, voiced_threshod=0)
488
- sampling_rate: sampling_rate in Hz
489
- harmonic_num: number of harmonic above F0 (default: 0)
490
- sine_amp: amplitude of sine source signal (default: 0.1)
491
- add_noise_std: std of additive Gaussian noise (default: 0.003)
492
- note that amplitude of noise in unvoiced is decided
493
- by sine_amp
494
- voiced_threshold: threhold to set U/V given F0 (default: 0)
495
-
496
- Sine_source, noise_source = SourceModuleHnNSF(F0_sampled)
497
- F0_sampled (batchsize, length, 1)
498
- Sine_source (batchsize, length, 1)
499
- noise_source (batchsize, length 1)
500
- uv (batchsize, length, 1)
501
- """
502
-
503
- def __init__(self, sampling_rate, harmonic_num=0, sine_amp=0.1,
504
- add_noise_std=0.003, voiced_threshod=0):
505
- super(SourceModuleHnNSF, self).__init__()
506
-
507
- self.sine_amp = sine_amp
508
- self.noise_std = add_noise_std
509
-
510
- # to produce sine waveforms
511
- self.l_sin_gen = SineGen(sampling_rate, harmonic_num,
512
- sine_amp, add_noise_std, voiced_threshod)
513
-
514
- # to merge source harmonics into a single excitation
515
- self.l_linear = torch.nn.Linear(harmonic_num + 1, 1)
516
- self.l_tanh = torch.nn.Tanh()
517
-
518
- def forward(self, x):
519
- """
520
- Sine_source, noise_source = SourceModuleHnNSF(F0_sampled)
521
- F0_sampled (batchsize, length, 1)
522
- Sine_source (batchsize, length, 1)
523
- noise_source (batchsize, length 1)
524
- """
525
- # source for harmonic branch
526
- sine_wavs, uv, _ = self.l_sin_gen(x)
527
- sine_merge = self.l_tanh(self.l_linear(sine_wavs))
528
-
529
- # source for noise branch, in the same shape as uv
530
- noise = torch.randn_like(uv) * self.sine_amp / 3
531
- return sine_merge, noise, uv
532
-
533
-
534
- if __name__ == '__main__':
535
- source = SourceModuleCycNoise_v1(24000)
536
- x = torch.randn(16, 25600, 1)
537
-
538
-
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/AIWaves/Software_Company/gradio_base.py DELETED
@@ -1,574 +0,0 @@
1
- # coding=utf-8
2
- # Copyright 2023 The AIWaves Inc. team.
3
-
4
- #
5
- # Licensed under the Apache License, Version 2.0 (the "License");
6
- # you may not use this file except in compliance with the License.
7
- # You may obtain a copy of the License at
8
- #
9
- # http://www.apache.org/licenses/LICENSE-2.0
10
- #
11
- # Unless required by applicable law or agreed to in writing, software
12
- # distributed under the License is distributed on an "AS IS" BASIS,
13
- # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
14
- # See the License for the specific language governing permissions and
15
- # limitations under the License.
16
-
17
- # Emoji comes from this website:
18
- # https://emojipedia.org/
19
- import subprocess
20
- from gradio_config import GradioConfig as gc
21
- import gradio as gr
22
- from typing import List, Tuple, Any
23
- import time
24
- import socket
25
- import psutil
26
- import os
27
- from abc import abstractmethod
28
- import openai
29
-
30
- def test_apikey_connection(api_key=None, model="gpt-3.5-turbo"):
31
- openai.api_key = api_key if api_key is not None else os.environ["API_KEY"]
32
- if "PROXY" in os.environ:
33
- openai.proxy = os.environ["PROXY"]
34
- messages = [{"role": "user", "content": "what's your name?"}]
35
- try:
36
- response = openai.ChatCompletion.create(
37
- model=model,
38
- messages=messages,
39
- )
40
- return True
41
- except:
42
- return False
43
-
44
- def convert2list4agentname(sop):
45
- """
46
- Extract the agent names of all states
47
- return:
48
- only name: [name1, name2, ...]
49
- agent_name: [name1(role1), name2(role2), ...]
50
- """
51
- only_name = []
52
- agent_name = []
53
- roles_to_names = sop.roles_to_names
54
- for state_name,roles_names in roles_to_names.items():
55
- for role,name in roles_names.items():
56
- agent_name.append(f"{name}({role})")
57
- only_name.append(name)
58
- agent_name = list(set(agent_name))
59
- agent_name.sort()
60
- return agent_name, only_name
61
-
62
- def is_port_in_use(port):
63
- """Check if the port is available"""
64
- for conn in psutil.net_connections():
65
- if conn.laddr.port == port:
66
- return True
67
- return False
68
-
69
- def check_port(port):
70
- """Determine available ports"""
71
- if os.path.isfile("PORT.txt"):
72
- port = int(open("PORT.txt","r",encoding='utf-8').readlines()[0])
73
- else:
74
- for i in range(10):
75
- if is_port_in_use(port+i) == False:
76
- port += i
77
- break
78
- with open("PORT.txt", "w") as f:
79
- f.writelines(str(port))
80
- return port
81
-
82
- # Determine some heads
83
- SPECIAL_SIGN = {
84
- "START": "<START>",
85
- "SPLIT": "<SELFDEFINESEP>",
86
- "END": "<ENDSEP>"
87
- }
88
- HOST = "127.0.0.1"
89
- # The starting port number for the search.
90
- PORT = 15000
91
- PORT = check_port(PORT)
92
-
93
- def print_log(message:str):
94
- print(f"[{time.ctime()}]{message}")
95
-
96
- global_dialog = {
97
- "user": [],
98
- "agent": {},
99
- "system": []
100
- }
101
-
102
- class UIHelper:
103
- """Static Class"""
104
-
105
- @classmethod
106
- def wrap_css(cls, content, name) -> str:
107
- """
108
- Description:
109
- Wrap CSS around each output, and return it in HTML format for rendering with Markdown.
110
- Input:
111
- content: Output content
112
- name: Whose output is it
113
- Output:
114
- HTML
115
- """
116
- assert name in gc.OBJECT_INFO, \
117
- f"The current name `{name}` is not registered with an image. The names of the currently registered agents are in `{gc.OBJECT_INFO.keys()}`. Please use `GradioConfig.add_agent()` from `Gradio_Config/gradio_config.py` to bind the name of the new agent."
118
- output = ""
119
- info = gc.OBJECT_INFO[name]
120
- if info["id"] == "USER":
121
- output = gc.BUBBLE_CSS["USER"].format(
122
- info["bubble_color"], # Background-color
123
- info["text_color"], # Color of the agent's name
124
- name, # Agent name
125
- info["text_color"], # Font color
126
- info["font_size"], # Font size
127
- content, # Content
128
- info["head_url"] # URL of the avatar
129
- )
130
- elif info["id"] == "SYSTEM":
131
- output = gc.BUBBLE_CSS["SYSTEM"].format(
132
- info["bubble_color"], # Background-color
133
- info["font_size"], # Font size
134
- info["text_color"], # Font color
135
- name, # Agent name
136
- content # Content
137
- )
138
- elif info["id"] == "AGENT":
139
- output = gc.BUBBLE_CSS["AGENT"].format(
140
- info["head_url"], # URL of the avatar
141
- info["bubble_color"], # Background-color
142
- info["text_color"], # Font color
143
- name, # Agent name
144
- info["text_color"], # Font color
145
- info["font_size"], # Font size
146
- content, # Content
147
- )
148
- else:
149
- assert False, f"Id `{info['id']}` is invalid. The valid id is in ['SYSTEM', 'AGENT', 'USER']"
150
- return output
151
-
152
- @classmethod
153
- def novel_filter(cls, content, agent_name):
154
-
155
- """比如<CONTENT>...</CONTENT>,就应该输出CONTENT:..."""
156
- IS_RECORDER = agent_name.lower() in ["recorder", "summary"]
157
- if IS_RECORDER:
158
- BOLD_FORMAT = """<div style="color: #000000; display:inline">
159
- <b>{}</b>
160
- </div>
161
- <span style="color: black;">
162
- """
163
- else:
164
- BOLD_FORMAT = "<b>{}</b>"
165
- CENTER_FORMAT = """<div style="background-color: #F0F0F0; text-align: center; padding: 5px; color: #000000">
166
- <b>{}</b>
167
- </div>
168
- """
169
- START_FORMAT = "<{}>"
170
- END_FORMAT = "</{}>"
171
- mapping = {
172
- "TARGET": "🎯 Current Target: ",
173
- "NUMBER": "🍖 Required Number: ",
174
- "THOUGHT": "🤔 Overall Thought: ",
175
- "FIRST NAME": "⚪ First Name: ",
176
- "LAST NAME": "⚪ Last Name: ",
177
- "ROLE": "🤠 Character Properties: ",
178
- "RATIONALES": "🤔 Design Rationale: ",
179
- "BACKGROUND": "🚊 Character Background: ",
180
- "ID": "🔴 ID: ",
181
- "TITLE": "🧩 Chapter Title: ",
182
- "ABSTRACT": "🎬 Abstract: ",
183
- "CHARACTER INVOLVED": "☃️ Character Involved: ",
184
- "ADVICE": "💬 Advice:",
185
- "NAME": "📛 Name: ",
186
- "GENDER": "👩‍👩‍👦‍👦 Gender: ",
187
- "AGE": "⏲️ Age: ",
188
- "WORK": "👨‍🔧 Work: ",
189
- "PERSONALITY": "🧲 Character Personality: ",
190
- "SPEECH STYLE": "🗣️ Speaking Style: ",
191
- "RELATION": "🏠 Relation with Others: ",
192
- "WORD COUNT": "🎰 Word Count: ",
193
- "CHARACTER DESIGN": "📈 Character Design: ",
194
- "CHARACTER REQUIRE": "📈 Character Require: ",
195
- "CHARACTER NAME": "📈 Character Naming Analysis: ",
196
- "CHARACTER NOW": "📈 Character Now: ",
197
- "OUTLINE DESIGN": "📈 Outline Design: ",
198
- "OUTLINE REQUIRE": "📈 Outline Require: ",
199
- "OUTLINE NOW": "📈 Outline Now: ",
200
- "SUB TASK": "🎯 Current Sub Task: ",
201
- "CHARACTER ADVICE": "💬 Character Design Advice: ",
202
- "OUTLINE ADVANTAGE": "📈 Outline Advantage: ",
203
- "OUTLINE DISADVANTAGE": "📈 Outline Disadvantage: ",
204
- "OUTLINE ADVICE": "💬 Outline Advice: ",
205
- "NEXT": "➡️ Next Advice: ",
206
- "TOTAL NUMBER": "🔢 Total Number: "
207
- }
208
- for i in range(1, 10):
209
- mapping[f"CHARACTER {i}"] = f"🦄 Character {i}"
210
- mapping[f"SECTION {i}"] = f"🏷️ Chapter {i}"
211
- for key in mapping:
212
- if key in [f"CHARACTER {i}" for i in range(1, 10)] \
213
- or key in [f"SECTION {i}" for i in range(1, 10)] \
214
- :
215
- content = content.replace(
216
- START_FORMAT.format(key), CENTER_FORMAT.format(mapping[key])
217
- )
218
- elif key in ["TOTAL NUMBER"]:
219
- content = content.replace(
220
- START_FORMAT.format(key), CENTER_FORMAT.format(mapping[key]) + """<span style="color: black;">"""
221
- )
222
- content = content.replace(
223
- END_FORMAT.format(key), "</span>"
224
- )
225
- else:
226
- content = content.replace(
227
- START_FORMAT.format(key), BOLD_FORMAT.format(mapping[key])
228
- )
229
-
230
- content = content.replace(
231
- END_FORMAT.format(key), "</span>" if IS_RECORDER else ""
232
- )
233
- return content
234
-
235
- @classmethod
236
- def singleagent_filter(cls, content, agent_name):
237
- return content
238
-
239
- @classmethod
240
- def debate_filter(cls, content, agent_name):
241
- return content
242
-
243
- @classmethod
244
- def code_filter(cls, content, agent_name):
245
- # return content.replace("```python", "<pre><code>").replace("```","</pre></code>")
246
- return content
247
-
248
- @classmethod
249
- def general_filter(cls, content, agent_name):
250
- return content
251
-
252
- @classmethod
253
- def filter(cls, content: str, agent_name: str, ui_name: str):
254
- """
255
- Description:
256
- Make certain modifications to the output content to enhance its aesthetics when content is showed in gradio.
257
- Input:
258
- content: output content
259
- agent_name: Whose output is it
260
- ui_name: What UI is currently launching
261
- Output:
262
- Modified content
263
- """
264
- mapping = {
265
- "SingleAgentUI": cls.singleagent_filter,
266
- "DebateUI": cls.debate_filter,
267
- "NovelUI": cls.novel_filter,
268
- "CodeUI": cls.code_filter,
269
- "GeneralUI": cls.general_filter
270
- }
271
- if ui_name in mapping:
272
- return mapping[ui_name](content, agent_name)
273
- else:
274
- return content
275
-
276
- class Client:
277
- """
278
- For inter-process communication, this is the client.
279
- `gradio_backend.PY` serves as the backend, while `run_gradio` is the frontend.
280
- Communication between the frontend and backend is accomplished using Sockets.
281
- """
282
- # =======================Radio Const String======================
283
- SINGLE_MODE = "Single Mode"
284
- AUTO_MODE = "Auto Mode"
285
- MODE_LABEL = "Select the execution mode"
286
- MODE_INFO = "Single mode refers to when the current agent output ends, it will stop running until you click to continue. Auto mode refers to when you complete the input, all agents will continue to output until the task ends."
287
- # ===============================================================
288
- mode = AUTO_MODE
289
- FIRST_RUN:bool = True
290
- # if last agent is user, then next agent will be executed automatically rather than click button
291
- LAST_USER:bool = False
292
-
293
- receive_server = None
294
- send_server = None
295
- current_node = None
296
- cache = {}
297
-
298
- def __init__(self, host=HOST, port=PORT, bufsize=1024):
299
- assert Client.mode in [Client.SINGLE_MODE, Client.AUTO_MODE]
300
- self.SIGN = SPECIAL_SIGN
301
- self.bufsize = bufsize
302
- assert bufsize > 0
303
- self.client_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
304
- self.client_socket.connect((host, port))
305
- while True:
306
- data = self.client_socket.recv(self.bufsize).decode('utf-8')
307
- if data == "hi":
308
- self.client_socket.send("hello agent".encode('utf-8'))
309
- time.sleep(1)
310
- elif data == "check":
311
- break
312
- print_log("Client: connecting successfully......")
313
-
314
- def start_server(self):
315
- while True:
316
- message = yield
317
- if message == 'exit':
318
- break
319
- self.send_message(message=message)
320
-
321
- def send_message(self, message):
322
- """Send the message to the server."""
323
- if isinstance(message, list) or isinstance(message, dict):
324
- message = str(message)
325
- assert isinstance(message, str)
326
- message = message + self.SIGN["SPLIT"]
327
- self.client_socket.send(message.encode('utf-8'))
328
-
329
- def receive_message(self, end_identifier: str = None, split_identifier: str = SPECIAL_SIGN["SPLIT"]) -> List:
330
- """Receive messages from the server, and it will block the process. Supports receiving long text."""
331
- remaining = ""
332
- while True:
333
- # receive message
334
- dataset = self.client_socket.recv(self.bufsize)
335
- try:
336
- # If decoding fails, it indicates that the current transmission is a long text.
337
- dataset = dataset.decode('utf-8')
338
- except UnicodeDecodeError:
339
- if not isinstance(remaining, bytes):
340
- remaining = remaining.encode('utf-8')
341
- assert isinstance(dataset, bytes)
342
- remaining += dataset
343
- try:
344
- dataset = remaining.decode('utf-8')
345
- remaining = ""
346
- except UnicodeDecodeError:
347
- continue
348
- assert isinstance(remaining, str)
349
- dataset = remaining + dataset
350
- list_dataset = dataset.split(split_identifier)
351
- if len(list_dataset) == 1:
352
- # If there is only one result from the split, it indicates that the current sequence itself has not yet ended.
353
- remaining = list_dataset[0]
354
- continue
355
- else:
356
- remaining = list_dataset[-1]
357
- # Receive successfully
358
- list_dataset = list_dataset[:-1]
359
- return_value = []
360
- for item in list_dataset:
361
- if end_identifier is not None and item == end_identifier:
362
- break
363
- return_value.append(item)
364
- identifier = yield return_value
365
- if identifier is not None:
366
- end_identifier, split_identifier = identifier
367
-
368
- def listening_for_start_(self):
369
- """
370
- When the server starts, the client is automatically launched.
371
- At this point, process synchronization is required,
372
- such as sending client data to the server for rendering,
373
- then the server sending the modified data back to the client,
374
- and simultaneously sending a startup command.
375
- Once the client receives the data, it will start running.
376
- """
377
- Client.receive_server = self.receive_message()
378
- # Waiting for information from the server.
379
- data: list = next(Client.receive_server)
380
- assert len(data) == 1
381
- data = eval(data[0])
382
- assert isinstance(data, dict)
383
- Client.cache.update(data)
384
- # Waiting for start command from the server.
385
- data:list = Client.receive_server.send(None)
386
- assert len(data) == 1
387
- assert data[0] == "<START>"
388
-
389
- class WebUI:
390
- """
391
- The base class for the frontend, which encapsulates some functions for process information synchronization.
392
- When a new frontend needs to be created, you should inherit from this class,
393
- then implement the `construct_ui()` method and set up event listeners.
394
- Finally, execute `run()` to load it.
395
- """
396
-
397
- def receive_message(
398
- self,
399
- end_identifier:str=None,
400
- split_identifier:str=SPECIAL_SIGN["SPLIT"]
401
- )->List:
402
- """This is the same as in Client class."""
403
- yield "hello"
404
- remaining = ""
405
- while True:
406
- dataset = self.client_socket.recv(self.bufsize)
407
- try:
408
- dataset = dataset.decode('utf-8')
409
- except UnicodeDecodeError:
410
- if not isinstance(remaining, bytes):
411
- remaining = remaining.encode('utf-8')
412
- assert isinstance(dataset, bytes)
413
- remaining += dataset
414
- try:
415
- dataset = remaining.decode('utf-8')
416
- remaining = ""
417
- except UnicodeDecodeError:
418
- continue
419
- assert isinstance(remaining, str)
420
- dataset = remaining + dataset
421
- list_dataset = dataset.split(split_identifier)
422
- if len(list_dataset) == 1:
423
- remaining = list_dataset[0]
424
- continue
425
- else:
426
- remaining = list_dataset[-1]
427
- list_dataset = list_dataset[:-1]
428
- return_value = []
429
- for item in list_dataset:
430
- if end_identifier is not None and item == end_identifier:
431
- break
432
- return_value.append(item)
433
- identifier = yield return_value
434
- if identifier is not None:
435
- end_identifier, split_identifier = identifier
436
-
437
- def send_message(self, message:str):
438
- """Send message to client."""
439
- SEP = self.SIGN["SPLIT"]
440
- self.client_socket.send(
441
- (message+SEP).encode("utf-8")
442
- )
443
-
444
- def _connect(self):
445
- # check
446
- if self.server_socket:
447
- self.server_socket.close()
448
- assert not os.path.isfile("PORT.txt")
449
- self.socket_port = check_port(PORT)
450
- # Step1. initialize
451
- self.server_socket = socket.socket(
452
- socket.AF_INET, socket.SOCK_STREAM
453
- )
454
- # Step2. binding ip and port
455
- self.server_socket.bind((self.socket_host, self.socket_port))
456
- # Step3. run client
457
- self._start_client()
458
-
459
- # Step4. listening for connect
460
- self.server_socket.listen(1)
461
-
462
- # Step5. test connection
463
- client_socket, client_address = self.server_socket.accept()
464
- print_log("server: establishing connection......")
465
- self.client_socket = client_socket
466
- while True:
467
- client_socket.send("hi".encode('utf-8'))
468
- time.sleep(1)
469
- data = client_socket.recv(self.bufsize).decode('utf-8')
470
- if data == "hello agent":
471
- client_socket.send("check".encode('utf-8'))
472
- print_log("server: connect successfully")
473
- break
474
- assert os.path.isfile("PORT.txt")
475
- os.remove("PORT.txt")
476
- if self.receive_server:
477
- del self.receive_server
478
- self.receive_server = self.receive_message()
479
- assert next(self.receive_server) == "hello"
480
-
481
- @abstractmethod
482
- def render_and_register_ui(self):
483
- # You need to implement this function.
484
- # The function's purpose is to bind the name of the agent with an image.
485
- # The name of the agent is stored in `self.cache[]`,
486
- # and the function for binding is in the method `add_agents` of the class `GradioConfig` in `Gradio_Config/gradio_config.py``.
487
- # This function will be executed in `self.first_recieve_from_client()`
488
- pass
489
-
490
- def first_recieve_from_client(self, reset_mode:bool=False):
491
- """
492
- This function is used to receive information from the client and is typically executed during the initialization of the class.
493
- If `reset_mode` is False, it will bind the name of the agent with an image.
494
- """
495
- self.FIRST_RECIEVE_FROM_CLIENT = True
496
- data_list:List = self.receive_server.send(None)
497
- assert len(data_list) == 1
498
- data = eval(data_list[0])
499
- assert isinstance(data, dict)
500
- self.cache.update(data)
501
- if not reset_mode:
502
- self.render_and_register_ui()
503
-
504
- def _second_send(self, message:dict):
505
- # Send the modified message.
506
- # It will be executed in `self.send_start_cmd()` automatically.
507
- self.send_message(str(message))
508
-
509
- def _third_send(self):
510
- # Send start command.
511
- # It will be executed in `self.send_start_cmd()` automatically.
512
- self.send_message(self.SIGN['START'])
513
-
514
- def send_start_cmd(self, message:dict={"hello":"hello"}):
515
- # If you have no message to send, you can ignore the args `message`.
516
- assert self.FIRST_RECIEVE_FROM_CLIENT, "Please make sure you have executed `self.first_recieve_from_client()` manually."
517
- self._second_send(message=message)
518
- time.sleep(1)
519
- self._third_send()
520
- self.FIRST_RECIEVE_FROM_CLIENT = False
521
-
522
- def __init__(
523
- self,
524
- client_cmd: list, # ['python','test.py','--a','b','--c','d']
525
- socket_host: str = HOST,
526
- socket_port: int = PORT,
527
- bufsize: int = 1024,
528
- ui_name: str = ""
529
- ):
530
- self.ui_name = ui_name
531
- self.server_socket = None
532
- self.SIGN = SPECIAL_SIGN
533
- self.socket_host = socket_host
534
- self.socket_port = socket_port
535
- self.bufsize = bufsize
536
- self.client_cmd = client_cmd
537
-
538
- self.receive_server = None
539
- self.cache = {}
540
- assert self.bufsize > 0
541
- self._connect()
542
-
543
- def _start_client(self):
544
- print(f"server: executing `{' '.join(self.client_cmd)}` ...")
545
- self.backend = subprocess.Popen(self.client_cmd)
546
-
547
- def _close_client(self):
548
- print(f"server: killing `{' '.join(self.client_cmd)}` ...")
549
- self.backend.terminate()
550
-
551
- def reset(self):
552
- print("server: restarting ...")
553
- self._close_client()
554
- time.sleep(1)
555
- self._connect()
556
-
557
- def render_bubble(self, rendered_data, agent_response, node_name, render_node_name:bool=True):
558
- # Rendered bubbles (HTML format) are used for gradio output.
559
- output = f"**{node_name}**<br>" if render_node_name else ""
560
- for item in agent_response:
561
- for agent_name in item:
562
- content = item[agent_name].replace("\n", "<br>")
563
- content = UIHelper.filter(content, agent_name, self.ui_name)
564
- output = f"{output}<br>{UIHelper.wrap_css(content, agent_name)}"
565
- rendered_data[-1] = [rendered_data[-1][0], output]
566
- return rendered_data
567
-
568
- def run(self,share: bool = True):
569
- self.demo.queue()
570
- self.demo.launch()
571
-
572
-
573
- if __name__ == '__main__':
574
- pass
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/ATang0729/Forecast4Muses/Model/Model6/Model6_2_ProfileRecogition/mmpretrain/configs/_base_/models/resnet34_gem.py DELETED
@@ -1,17 +0,0 @@
1
- # model settings
2
- model = dict(
3
- type='ImageClassifier',
4
- backbone=dict(
5
- type='ResNet',
6
- depth=34,
7
- num_stages=4,
8
- out_indices=(3, ),
9
- style='pytorch'),
10
- neck=dict(type='GeneralizedMeanPooling'),
11
- head=dict(
12
- type='LinearClsHead',
13
- num_classes=1000,
14
- in_channels=512,
15
- loss=dict(type='CrossEntropyLoss', loss_weight=1.0),
16
- topk=(1, 5),
17
- ))
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Accel/media-converter/app.py DELETED
@@ -1,168 +0,0 @@
1
- import logging
2
- import subprocess
3
- from pprint import pprint
4
- from tempfile import _TemporaryFileWrapper
5
-
6
- from ffmpy import FFmpeg
7
-
8
- import gradio as gr
9
- from functions import (Clear, CommandBuilder, audio_channels, audio_codecs,
10
- audio_quality, audio_sample_rates,
11
- change_clipbox, containers, customBitrate, mediaChange, presets, supported_codecs, supported_presets, video_codecs, video_containers,
12
- vf)
13
-
14
- logging.basicConfig(level=logging.INFO)
15
-
16
-
17
- logging.info(msg=f"{video_containers}")
18
-
19
-
20
- def convert(file: _TemporaryFileWrapper, options: str,state):
21
- stderr=""
22
- stdout=""
23
- output_file=""
24
- video=""
25
- ffmpeg=FFmpeg()
26
- try:
27
- logging.info(f"File name: {file.name}")
28
- new_name, _ = file.name.split(".")
29
- logging.info(f"New filename:{new_name}")
30
- output_file = f"{new_name}1.{options.lower()}"
31
- ffmpeg = FFmpeg(inputs={file.name: None}, outputs={
32
- output_file: ffmpeg_commands.commands.split()}, global_options=["-y", "-hide_banner"])
33
- print(ffmpeg)
34
- print(ffmpeg.cmd)
35
-
36
- ffmpeg.run(stderr=subprocess.PIPE)
37
- # pprint(f"{stdout} {stderr}")
38
- output=f"{ffmpeg.cmd}"
39
- # video=gr.update(label=output_file,value=output_file)
40
-
41
- except Exception as e:
42
- stderr=e
43
- output=f"{stderr}"
44
- return [None,None,None,output]
45
-
46
- state=output_file
47
-
48
- return [output_file,output_file,output_file,output,state]
49
-
50
-
51
- with gr.Blocks(css="./styles.css") as dm:
52
- with gr.Tabs():
53
- with gr.TabItem("Format"):
54
- # Input Buttons
55
- with gr.Row():
56
- with gr.Column() as inputs:
57
- file_input = gr.File()
58
- options = gr.Radio(
59
- label="options", choices=containers,value=containers[0])
60
- with gr.Row():
61
- with gr.Row() as inputs_clip:
62
- clip = gr.Dropdown(
63
- choices=["None", "Enabled"], label="Clip:", value="None")
64
- start_time = gr.Textbox(
65
- label="Start Time:", placeholder="00:00", visible=False,interactive=True)
66
- stop_time = gr.Textbox(
67
- label="Stop Time:", placeholder="00:00", visible=False)
68
- with gr.Row():
69
- clearBtn = gr.Button("Clear")
70
- convertBtn = gr.Button("Convert", variant="primary")
71
-
72
- # Output Buttons
73
- with gr.Column():
74
- # media_output = gr.Audio(label="Output")
75
- with gr.Row():
76
- video_button=gr.Button("Video")
77
- audio_button=gr.Button("Audio")
78
- file_button=gr.Button("File")
79
- media_output_audio = gr.Audio(type="filepath",label="Output",visible=True,interactive=False,source="filepath")
80
- media_output_video = gr.Video(label="Output",visible=False)
81
- media_output_file = gr.File(label="Output",visible=False)
82
- with gr.Row() as command_output:
83
- output_textbox = gr.Textbox(label="command",elem_id="outputtext")
84
-
85
- resetFormat=Clear(inputs,inputs_clip)
86
- print(inputs_clip.children)
87
- print(resetFormat)
88
- state=gr.Variable()
89
- clearBtn.click(resetFormat.clear, inputs=resetFormat(), outputs=resetFormat())
90
- convertBtn.click(convert, inputs=[file_input, options,state], outputs=[
91
- media_output_audio,media_output_file,media_output_video, output_textbox,state])
92
-
93
- with gr.TabItem("Video"):
94
- with gr.Row() as video_inputs:
95
- video_options = gr.Dropdown(
96
- label="video", choices=video_codecs,value=video_codecs[-1])
97
- preset_options = gr.Dropdown(choices=presets, label="presets",value=presets[-1])
98
-
99
-
100
- with gr.Row(elem_id="button"):
101
- with gr.Column():
102
- clearBtn = gr.Button("Clear")
103
- videoReset=Clear(video_inputs)
104
- clearBtn.click(videoReset.clear, videoReset(), videoReset())
105
-
106
- with gr.TabItem("Audio"):
107
- with gr.Row() as audio_inputs:
108
- # print(names[0])
109
- audio_options = gr.Dropdown(
110
- label="audio", choices=audio_codecs, value=audio_codecs[-1])
111
- audio_bitrate=gr.Dropdown(choices=audio_quality, label="Audio Qualities",
112
- value=audio_quality[0])
113
- custom_bitrate=gr.Number(label="Audio Qualities",visible=False)
114
- gr.Dropdown(choices=audio_channels,
115
- label="Audio Channels", value=audio_channels[0])
116
- gr.Dropdown(choices=audio_sample_rates,
117
- label="Sample Rates", value=audio_sample_rates[0])
118
-
119
-
120
- with gr.Column(elem_id="button"):
121
- clearBtn = gr.Button("Clear")
122
- audioReset=Clear(audio_inputs)
123
- clearBtn.click(audioReset.clear, audioReset(), audioReset())
124
-
125
- with gr.TabItem("Filters") as filter_inputs:
126
- gr.Markdown("## Video")
127
- with gr.Row().style(equal_height=True) as filter_inputs:
128
- for i in vf:
129
- # print(i.values())
130
- # values = list(i.values())
131
- values=list(i.values())[0]
132
- choices=[j for lst in values for j in [lst.get("name")]]
133
- a=gr.Dropdown(label=list(i.keys()),
134
- choices=choices, value=choices[0])
135
- gr.Markdown("## Audio")
136
- with gr.Row(elem_id="acontrast") as filter_inputs_1:
137
- acontrastSlider=gr.Slider(label="Acontrast", elem_id="acontrast")
138
-
139
- with gr.Column(elem_id="button"):
140
- clearBtn = gr.Button("Clear")
141
-
142
- filterReset=Clear(filter_inputs,filter_inputs_1)
143
- clearBtn.click(filterReset.clear, filterReset(), filterReset())
144
-
145
- """ Format Tab change functions"""
146
- ffmpeg_commands=CommandBuilder(inputs_clip,video_inputs,audio_inputs,filter_inputs,filter_inputs_1)
147
- # ffmpeg_commands.do()
148
- dm.load(fn=ffmpeg_commands.reset,inputs=[],outputs=[])
149
- pprint(ffmpeg_commands.commands)
150
- ffmpeg_commands.update(output_textbox)
151
- # file_input.change(fn=updateOutput,inputs=file_input,outputs=output_textbox)
152
- clip.change(fn=change_clipbox, inputs=clip,
153
- outputs=[start_time, stop_time])
154
-
155
- options.change(supported_codecs,[options],[video_options,audio_options])
156
- # options.change(mediaChange,[options],[media_output_audio,media_output_video])
157
- # video_button.click(fn=videoChange,inputs=media_output_file,outputs=media_output_video)
158
- audio_button.click(mediaChange,[audio_button,state],[media_output_audio,media_output_video,media_output_file])
159
- video_button.click(mediaChange,[video_button,state],[media_output_audio,media_output_video,media_output_file])
160
- # media_output_audio.change(lambda x:gr.update(value=x),[media_output_audio],[media_output_video])
161
- file_button.click(mediaChange,[file_button,state],[media_output_audio,media_output_video,media_output_file])
162
- """Video Tab change functions"""
163
- video_options.change(supported_presets,[video_options],[preset_options])
164
- """Audio Tab change functions"""
165
- audio_bitrate.change(customBitrate,[audio_bitrate],[custom_bitrate])
166
-
167
- if __name__=='__main__':
168
- dm.launch()
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/AchyuthGamer/OpenGPT/g4f/Provider/Lockchat.py DELETED
@@ -1,64 +0,0 @@
1
- from __future__ import annotations
2
-
3
- import json
4
-
5
- import requests
6
-
7
- from ..typing import Any, CreateResult
8
- from .base_provider import BaseProvider
9
-
10
-
11
- class Lockchat(BaseProvider):
12
- url: str = "http://supertest.lockchat.app"
13
- supports_stream = True
14
- supports_gpt_35_turbo = True
15
- supports_gpt_4 = True
16
-
17
- @staticmethod
18
- def create_completion(
19
- model: str,
20
- messages: list[dict[str, str]],
21
- stream: bool, **kwargs: Any) -> CreateResult:
22
-
23
- temperature = float(kwargs.get("temperature", 0.7))
24
- payload = {
25
- "temperature": temperature,
26
- "messages" : messages,
27
- "model" : model,
28
- "stream" : True,
29
- }
30
-
31
- headers = {
32
- "user-agent": "ChatX/39 CFNetwork/1408.0.4 Darwin/22.5.0",
33
- }
34
- response = requests.post("http://supertest.lockchat.app/v1/chat/completions",
35
- json=payload, headers=headers, stream=True)
36
-
37
- response.raise_for_status()
38
- for token in response.iter_lines():
39
- if b"The model: `gpt-4` does not exist" in token:
40
- print("error, retrying...")
41
- Lockchat.create_completion(
42
- model = model,
43
- messages = messages,
44
- stream = stream,
45
- temperature = temperature,
46
- **kwargs)
47
-
48
- if b"content" in token:
49
- token = json.loads(token.decode("utf-8").split("data: ")[1])
50
- token = token["choices"][0]["delta"].get("content")
51
- if token:
52
- yield (token)
53
-
54
- @classmethod
55
- @property
56
- def params(cls):
57
- params = [
58
- ("model", "str"),
59
- ("messages", "list[dict[str, str]]"),
60
- ("stream", "bool"),
61
- ("temperature", "float"),
62
- ]
63
- param = ", ".join([": ".join(p) for p in params])
64
- return f"g4f.provider.{cls.__name__} supports: ({param})"
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/AgentVerse/agentVerse/agentverse/environments/simulation_env/rules/base.py DELETED
@@ -1,98 +0,0 @@
1
- from __future__ import annotations
2
-
3
- from abc import abstractmethod
4
- from typing import TYPE_CHECKING, Any, List, Optional
5
-
6
- from agentverse.environments.simulation_env.rules.describer import (
7
- BaseDescriber,
8
- describer_registry,
9
- )
10
- from agentverse.environments.simulation_env.rules.order import BaseOrder, order_registry
11
- from agentverse.environments.simulation_env.rules.selector import (
12
- BaseSelector,
13
- selector_registry,
14
- )
15
- from agentverse.environments.simulation_env.rules.updater import (
16
- BaseUpdater,
17
- updater_registry,
18
- )
19
- from agentverse.environments.simulation_env.rules.visibility import (
20
- BaseVisibility,
21
- visibility_registry,
22
- )
23
- from agentverse.environments import BaseRule
24
-
25
- if TYPE_CHECKING:
26
- from agentverse.environments.base import BaseEnvironment
27
-
28
- from agentverse.message import Message
29
-
30
-
31
- # class Rule(BaseModel):
32
- class SimulationRule(BaseRule):
33
- """
34
- Rule for the environment. It controls the speaking order of the agents
35
- and maintain the set of visible agents for each agent.
36
- """
37
-
38
- order: BaseOrder
39
- visibility: BaseVisibility
40
- selector: BaseSelector
41
- updater: BaseUpdater
42
- describer: BaseDescriber
43
-
44
- def __init__(
45
- self,
46
- order_config,
47
- visibility_config,
48
- selector_config,
49
- updater_config,
50
- describer_config,
51
- ):
52
- order = order_registry.build(**order_config)
53
- visibility = visibility_registry.build(**visibility_config)
54
- selector = selector_registry.build(**selector_config)
55
- updater = updater_registry.build(**updater_config)
56
- describer = describer_registry.build(**describer_config)
57
- super().__init__(
58
- order=order,
59
- visibility=visibility,
60
- selector=selector,
61
- updater=updater,
62
- describer=describer,
63
- )
64
-
65
- def get_next_agent_idx(
66
- self, environment: BaseEnvironment, *args, **kwargs
67
- ) -> List[int]:
68
- """Return the index of the next agent to speak"""
69
- return self.order.get_next_agent_idx(environment, *args, **kwargs)
70
-
71
- def update_visible_agents(
72
- self, environment: BaseEnvironment, *args, **kwargs
73
- ) -> None:
74
- """Update the set of visible agents for the agent"""
75
- self.visibility.update_visible_agents(environment, *args, **kwargs)
76
-
77
- def select_message(
78
- self, environment: BaseEnvironment, messages: List[Message], *args, **kwargs
79
- ) -> List[Message]:
80
- """Select a set of valid messages from all the generated messages"""
81
- return self.selector.select_message(environment, messages, *args, **kwargs)
82
-
83
- def update_memory(self, environment: BaseEnvironment, *args, **kwargs) -> None:
84
- """For each message, add it to the memory of the agent who is able to see that message"""
85
- self.updater.update_memory(environment, *args, **kwargs)
86
-
87
- def get_env_description(
88
- self, environment: BaseEnvironment, *args, **kwargs
89
- ) -> List[str]:
90
- """Return the description of the environment for each agent"""
91
- return self.describer.get_env_description(environment, *args, **kwargs)
92
-
93
- def reset(self) -> None:
94
- self.order.reset()
95
- self.visibility.reset()
96
- self.selector.reset()
97
- self.updater.reset()
98
- self.describer.reset()
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/AgentVerse/agentVerse/agentverse/environments/simulation_env/rules/selector/code_api.py DELETED
@@ -1,97 +0,0 @@
1
- import io
2
- import sys
3
- import ast
4
- import json
5
- import astunparse
6
- import concurrent.futures
7
- import traceback
8
-
9
-
10
- def get_call_str(assert_statement: str) -> str:
11
- call_str = ast.parse(assert_statement).body[0].test.left # type: ignore
12
- return astunparse.unparse(call_str).strip()
13
-
14
- def get_output(func: str, assert_statement: str) -> str:
15
- try:
16
- func_call = get_call_str(assert_statement)
17
- try:
18
- exec(func, globals())
19
- output = eval(func_call)
20
- return output
21
- except Exception as e:
22
- return str(e)
23
- except:
24
- return "get_call_str error"
25
-
26
- def worker(code, globals=None, locals=None):
27
- old_stdout = sys.stdout
28
- redirected_output = sys.stdout = io.StringIO()
29
- if locals is None:
30
- locals = {}
31
- try:
32
- # TODO: exec(code, globals, locals) could be buggy
33
- # In cases where both import statement and function exits in the code, if the locals are given,
34
- # the code will not find the imported package.
35
- # For example,
36
- # code = "import math\ndef f(x):\n\treturn math.pow(x, 2)\nassert f(2) == 4"
37
- # It will return "NameError: name 'math' is not defined"
38
- exec(code, locals, locals)
39
- stdout = redirected_output.getvalue()
40
- return stdout, globals, locals
41
- except Exception as e:
42
- trace_str = traceback.format_exc()
43
- return f"Error: {trace_str}", globals, locals
44
- finally:
45
- sys.stdout = old_stdout # restore the original stdout
46
-
47
- def execute_code(code: str) -> str:
48
- """Execute a snippet of python code and return the output or the error message.
49
- """
50
- timeout = 5
51
- try:
52
- with concurrent.futures.ThreadPoolExecutor() as executor:
53
- future = executor.submit(worker, code)
54
- result, _, _ = future.result(timeout)
55
- return result
56
- except concurrent.futures.TimeoutError:
57
- return "Timeout"
58
-
59
- def execute_unit_tests(func_impl: str, tests: str) -> str:
60
- """Run a python function on a bunch of unit tests tests and return detailed feedback.
61
- """
62
- # tests = eval(tests)
63
- # assert type(tests) == list
64
-
65
- # Combine function code and assert statement
66
- func_test_list = [f'{func_impl}\n{test}' for test in tests]
67
-
68
- # Run the tests and collect the results
69
- success_tests = []
70
- failed_tests = []
71
- is_passing = True
72
- num_tests = len(func_test_list)
73
- for i in range(num_tests):
74
- output = execute_code(func_test_list[i])
75
- if output == "Timeout":
76
- failed_tests += [f"{tests[i]} # output: Timeout"]
77
- is_passing = False
78
- elif output.startswith("Error: "):
79
- # print(output)
80
- func_output = get_output(func_impl, tests[i])
81
- if func_output == "get_call_str error":
82
- func_output = output
83
- failed_tests += [f"{tests[i]} # output: {func_output}"]
84
- is_passing = False
85
- else:
86
- success_tests += [tests[i]]
87
-
88
- feedback = "Tested passed:\n\n"
89
- for test in success_tests:
90
- feedback += f"{test}\n\n"
91
- feedback += "Tests failed:\n\n"
92
- for test in failed_tests:
93
- feedback += f"{test}\n\n"
94
-
95
- return json.dumps({"is_passing": is_passing,
96
- "feedback": feedback})
97
-
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/AgentVerse/agentVerse/agentverse/environments/simulation_env/rules/visibility/prisoner.py DELETED
@@ -1,48 +0,0 @@
1
- from __future__ import annotations
2
-
3
- import random
4
- from typing import TYPE_CHECKING, Any, List, Union
5
-
6
- from . import visibility_registry as VisibilityRegistry
7
- from .base import BaseVisibility
8
-
9
- if TYPE_CHECKING:
10
- from agentverse.environments import BaseEnvironment
11
-
12
-
13
- @VisibilityRegistry.register("prisoner")
14
- class PrisonerVisibility(BaseVisibility):
15
- """
16
- Visibility function for classroom, supports group discussion.
17
-
18
- Args:
19
- student_per_group:
20
- The number of students per group.
21
- num_discussion_turn:
22
- The number of turns for group discussion.
23
- grouping:
24
- The grouping information. If it is a string, then it should be a
25
- grouping method, options are ["random", "sequential"]. If it is a
26
- list of list of int, then it should be the grouping information.
27
- """
28
-
29
- current_turn: int = 0
30
-
31
- def update_visible_agents(self, environment: BaseEnvironment):
32
- self.update_receiver(environment, reset=False)
33
-
34
- def update_receiver(self, environment: BaseEnvironment, reset=False):
35
- if reset:
36
- for agent in environment.agents:
37
- agent.set_receiver(["all"])
38
- else:
39
- # 0:police 1: prisoner1 2: prisoner2
40
- # environment.agents[0].set_receiver({"Police", "Suspect1", "Suspect2"})
41
- # environment.agents[1].set_receiver({"Police", "Suspect1"})
42
- # environment.agents[2].set_receiver({"Police", "Suspect2"})
43
-
44
- # we update receiver in environment
45
- pass
46
-
47
- def reset(self):
48
- self.current_turn = 0
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/AgentVerse/agentVerse/ui/src/phaser3-rex-plugins/plugins/localstorage-data.js DELETED
@@ -1,2 +0,0 @@
1
- import DataManager from './storage/localstorage/data/DataManager.js';
2
- export default DataManager;
 
 
 
spaces/AgentVerse/agentVerse/ui/src/phaser3-rex-plugins/plugins/toucheventstop-plugin.d.ts DELETED
@@ -1,9 +0,0 @@
1
- import TouchEventStop from './toucheventstop';
2
-
3
- export default class TouchEventStopPlugin extends Phaser.Plugins.BasePlugin {
4
- add(
5
- gameObject: Phaser.GameObjects.GameObject,
6
- config?: TouchEventStop.IConfig
7
- ): TouchEventStop;
8
-
9
- }
 
 
 
 
 
 
 
 
 
 
spaces/AgentVerse/agentVerse/ui/src/phaser3-rex-plugins/templates/spinner/spinner-plugin.js DELETED
@@ -1,35 +0,0 @@
1
- import ObjectFactory from './ObjectFactory.js';
2
-
3
- import AudioFactory from './audio/Factory.js';
4
- import BallFactory from './ball/Factory.js';
5
- import BarsFactory from './bars/Factory.js';
6
- import BoxFactory from './box/Factory.js';
7
- import ClockFactory from './clock/Factory.js';
8
- import CubeFactory from './cube/Factory.js';
9
- import CustomFactory from './custom/Factory.js';
10
- import DotsFactory from './dots/Factory.js';
11
- import FacebookFactory from './facebook/Factory.js';
12
- import GridFactory from './grid/Factory.js';
13
- import LosFactory from './los/Factory.js';
14
- import OrbitFactory from './orbit/Factory.js';
15
- import OvalFactory from './oval/Factory.js';
16
- import PieFactory from './pie/Factory.js';
17
- import PuffFactory from './puff/Factory.js';
18
- import RadioFactory from './radio/Factory.js';
19
- import RingsFactory from './rings/Factory.js';
20
- import SpinnerFactory from './spinner/Factory.js';
21
-
22
-
23
- class SpinnerPlugin extends Phaser.Plugins.ScenePlugin {
24
- constructor(scene, pluginManager) {
25
- super(scene, pluginManager);
26
-
27
- this.add = new ObjectFactory(scene);
28
- }
29
-
30
- start() {
31
- var eventEmitter = this.scene.events;
32
- eventEmitter.on('destroy', this.destroy, this);
33
- }
34
- }
35
- export default SpinnerPlugin;
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/AgentVerse/agentVerse/ui/src/phaser3-rex-plugins/templates/ui/fixwidthsizer/Factory.js DELETED
@@ -1,13 +0,0 @@
1
- import FixWidthSizer from './FixWidthSizer.js';
2
- import ObjectFactory from '../ObjectFactory.js';
3
- import SetValue from '../../../plugins/utils/object/SetValue.js';
4
-
5
- ObjectFactory.register('fixWidthSizer', function (x, y, minWidth, minHeight, config) {
6
- var gameObject = new FixWidthSizer(this.scene, x, y, minWidth, minHeight, config);
7
- this.scene.add.existing(gameObject);
8
- return gameObject;
9
- });
10
-
11
- SetValue(window, 'RexPlugins.UI.FixWidthSizer', FixWidthSizer);
12
-
13
- export default FixWidthSizer;
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/AgentVerse/agentVerse/ui/src/phaser3-rex-plugins/templates/ui/perspectivecard/PerspectiveCard.js DELETED
@@ -1,161 +0,0 @@
1
- import OverlapSizer from '../overlapsizer/OverlapSizer.js';
2
- import CreatePerspectiveCardMesh from './CreatePerspectiveCardMesh.js';
3
- import PerspectiveMethods from './PerspectiveMethods.js';
4
-
5
- const GetValue = Phaser.Utils.Objects.GetValue;
6
-
7
- class PerspectiveCard extends OverlapSizer {
8
- constructor(scene, config) {
9
- super(scene, config);
10
- this.type = 'rexPerspectiveCard';
11
-
12
- // Layout faces
13
- var backFace = config.back;
14
- var backFaceExpand = GetValue(config, 'expand.back', true);
15
- this.add(
16
- backFace,
17
- { key: 'back', expand: backFaceExpand }
18
- );
19
-
20
- var frontFace = config.front;
21
- var frontFaceExpand = GetValue(config, 'expand.front', true);
22
- this.add(
23
- frontFace,
24
- { key: 'front', expand: frontFaceExpand }
25
- );
26
-
27
- // Add PerspectiveCardMesh
28
- this.perspectiveCard = CreatePerspectiveCardMesh.call(this, config);
29
- this.pin(this.perspectiveCard);
30
-
31
- this.exitPerspectiveMode(false);
32
- }
33
-
34
- get flip() {
35
- return this.perspectiveCard.flip;
36
- }
37
-
38
- get face() {
39
- return this.perspectiveCard.face;
40
- }
41
-
42
- set face(index) {
43
- // Can't set face during flipping
44
- if (this.flip && this.flip.isRunning) {
45
- return;
46
- }
47
- this.perspectiveCard.face = index;
48
-
49
- var isFrontFace = (index === 0);
50
- var frontFace = this.childrenMap.front;
51
- var backFace = this.childrenMap.back;
52
- this.setChildVisible(frontFace, isFrontFace);
53
- this.setChildVisible(backFace, !isFrontFace);
54
- }
55
-
56
- setFace(face) {
57
- this.face = face;
58
- return this;
59
- }
60
-
61
- toggleFace() {
62
- var newFace = (this.face === 0) ? 1 : 0;
63
- this.setFace(newFace);
64
- return this;
65
- }
66
-
67
- get isInPerspectiveMode() {
68
- return this.perspectiveCard.visible;
69
- }
70
-
71
- get rotationX() {
72
- return this.perspectiveCard.rotationX;
73
- }
74
-
75
- set rotationX(value) {
76
- this.enterPerspectiveMode();
77
- this.perspectiveCard.rotationX = value;
78
- }
79
-
80
- get angleX() {
81
- return this.perspectiveCard.angleX;
82
- }
83
-
84
- set angleX(value) {
85
- this.enterPerspectiveMode();
86
- this.perspectiveCard.angleX = value;
87
- }
88
-
89
- get rotationY() {
90
- return this.perspectiveCard.rotationY;
91
- }
92
-
93
- set rotationY(value) {
94
- this.enterPerspectiveMode();
95
- this.perspectiveCard.rotationY = value;
96
- }
97
-
98
- get angleY() {
99
- return this.perspectiveCard.angleY;
100
- }
101
-
102
- set angleY(value) {
103
- this.enterPerspectiveMode();
104
- this.perspectiveCard.angleY = value;
105
- }
106
-
107
- get rotationZ() {
108
- return this.perspectiveCard.rotationZ;
109
- }
110
-
111
- set rotationZ(value) {
112
- this.enterPerspectiveMode();
113
- this.perspectiveCard.rotationZ = value;
114
- }
115
-
116
- get angleZ() {
117
- return this.perspectiveCard.angleZ;
118
- }
119
-
120
- set angleZ(value) {
121
- this.enterPerspectiveMode();
122
- this.perspectiveCard.angleZ = value;
123
- }
124
-
125
- panX(v) {
126
- this.enterPerspectiveMode();
127
- this.perspectiveCard.panX(v);
128
- return this;
129
- }
130
-
131
- panY(v) {
132
- this.enterPerspectiveMode();
133
- this.perspectiveCard.panY(v);
134
- return this;
135
- }
136
-
137
- panZ(v) {
138
- this.enterPerspectiveMode();
139
- this.perspectiveCard.panZ(v);
140
- return this;
141
- }
142
-
143
- transformVerts(x, y, z, rotateX, rotateY, rotateZ) {
144
- this.enterPerspectiveMode();
145
- this.perspectiveCard.transformVerts(x, y, z, rotateX, rotateY, rotateZ);
146
- return this;
147
- }
148
-
149
- forEachFace(callback, scope, ignoreInvalid) {
150
- this.enterPerspectiveMode();
151
- this.perspectiveCard.forEachFace(callback, scope, ignoreInvalid);
152
- return this;
153
- }
154
- }
155
-
156
- Object.assign(
157
- PerspectiveCard.prototype,
158
- PerspectiveMethods
159
- )
160
-
161
- export default PerspectiveCard;
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Akmyradov/TurkmenTTSweSTT/vits/utils.py DELETED
@@ -1,258 +0,0 @@
1
- import os
2
- import glob
3
- import sys
4
- import argparse
5
- import logging
6
- import json
7
- import subprocess
8
- import numpy as np
9
- from scipy.io.wavfile import read
10
- import torch
11
-
12
- MATPLOTLIB_FLAG = False
13
-
14
- logging.basicConfig(stream=sys.stdout, level=logging.DEBUG)
15
- logger = logging
16
-
17
-
18
- def load_checkpoint(checkpoint_path, model, optimizer=None):
19
- assert os.path.isfile(checkpoint_path)
20
- checkpoint_dict = torch.load(checkpoint_path, map_location='cpu')
21
- iteration = checkpoint_dict['iteration']
22
- learning_rate = checkpoint_dict['learning_rate']
23
- if optimizer is not None:
24
- optimizer.load_state_dict(checkpoint_dict['optimizer'])
25
- saved_state_dict = checkpoint_dict['model']
26
- if hasattr(model, 'module'):
27
- state_dict = model.module.state_dict()
28
- else:
29
- state_dict = model.state_dict()
30
- new_state_dict= {}
31
- for k, v in state_dict.items():
32
- try:
33
- new_state_dict[k] = saved_state_dict[k]
34
- except:
35
- logger.info("%s is not in the checkpoint" % k)
36
- new_state_dict[k] = v
37
- if hasattr(model, 'module'):
38
- model.module.load_state_dict(new_state_dict)
39
- else:
40
- model.load_state_dict(new_state_dict)
41
- logger.info("Loaded checkpoint '{}' (iteration {})" .format(
42
- checkpoint_path, iteration))
43
- return model, optimizer, learning_rate, iteration
44
-
45
-
46
- def save_checkpoint(model, optimizer, learning_rate, iteration, checkpoint_path):
47
- logger.info("Saving model and optimizer state at iteration {} to {}".format(
48
- iteration, checkpoint_path))
49
- if hasattr(model, 'module'):
50
- state_dict = model.module.state_dict()
51
- else:
52
- state_dict = model.state_dict()
53
- torch.save({'model': state_dict,
54
- 'iteration': iteration,
55
- 'optimizer': optimizer.state_dict(),
56
- 'learning_rate': learning_rate}, checkpoint_path)
57
-
58
-
59
- def summarize(writer, global_step, scalars={}, histograms={}, images={}, audios={}, audio_sampling_rate=22050):
60
- for k, v in scalars.items():
61
- writer.add_scalar(k, v, global_step)
62
- for k, v in histograms.items():
63
- writer.add_histogram(k, v, global_step)
64
- for k, v in images.items():
65
- writer.add_image(k, v, global_step, dataformats='HWC')
66
- for k, v in audios.items():
67
- writer.add_audio(k, v, global_step, audio_sampling_rate)
68
-
69
-
70
- def latest_checkpoint_path(dir_path, regex="G_*.pth"):
71
- f_list = glob.glob(os.path.join(dir_path, regex))
72
- f_list.sort(key=lambda f: int("".join(filter(str.isdigit, f))))
73
- x = f_list[-1]
74
- print(x)
75
- return x
76
-
77
-
78
- def plot_spectrogram_to_numpy(spectrogram):
79
- global MATPLOTLIB_FLAG
80
- if not MATPLOTLIB_FLAG:
81
- import matplotlib
82
- matplotlib.use("Agg")
83
- MATPLOTLIB_FLAG = True
84
- mpl_logger = logging.getLogger('matplotlib')
85
- mpl_logger.setLevel(logging.WARNING)
86
- import matplotlib.pylab as plt
87
- import numpy as np
88
-
89
- fig, ax = plt.subplots(figsize=(10,2))
90
- im = ax.imshow(spectrogram, aspect="auto", origin="lower",
91
- interpolation='none')
92
- plt.colorbar(im, ax=ax)
93
- plt.xlabel("Frames")
94
- plt.ylabel("Channels")
95
- plt.tight_layout()
96
-
97
- fig.canvas.draw()
98
- data = np.fromstring(fig.canvas.tostring_rgb(), dtype=np.uint8, sep='')
99
- data = data.reshape(fig.canvas.get_width_height()[::-1] + (3,))
100
- plt.close()
101
- return data
102
-
103
-
104
- def plot_alignment_to_numpy(alignment, info=None):
105
- global MATPLOTLIB_FLAG
106
- if not MATPLOTLIB_FLAG:
107
- import matplotlib
108
- matplotlib.use("Agg")
109
- MATPLOTLIB_FLAG = True
110
- mpl_logger = logging.getLogger('matplotlib')
111
- mpl_logger.setLevel(logging.WARNING)
112
- import matplotlib.pylab as plt
113
- import numpy as np
114
-
115
- fig, ax = plt.subplots(figsize=(6, 4))
116
- im = ax.imshow(alignment.transpose(), aspect='auto', origin='lower',
117
- interpolation='none')
118
- fig.colorbar(im, ax=ax)
119
- xlabel = 'Decoder timestep'
120
- if info is not None:
121
- xlabel += '\n\n' + info
122
- plt.xlabel(xlabel)
123
- plt.ylabel('Encoder timestep')
124
- plt.tight_layout()
125
-
126
- fig.canvas.draw()
127
- data = np.fromstring(fig.canvas.tostring_rgb(), dtype=np.uint8, sep='')
128
- data = data.reshape(fig.canvas.get_width_height()[::-1] + (3,))
129
- plt.close()
130
- return data
131
-
132
-
133
- def load_wav_to_torch(full_path):
134
- sampling_rate, data = read(full_path)
135
- return torch.FloatTensor(data.astype(np.float32)), sampling_rate
136
-
137
-
138
- def load_filepaths_and_text(filename, split="|"):
139
- with open(filename, encoding='utf-8') as f:
140
- filepaths_and_text = [line.strip().split(split) for line in f]
141
- return filepaths_and_text
142
-
143
-
144
- def get_hparams(init=True):
145
- parser = argparse.ArgumentParser()
146
- parser.add_argument('-c', '--config', type=str, default="./configs/base.json",
147
- help='JSON file for configuration')
148
- parser.add_argument('-m', '--model', type=str, required=True,
149
- help='Model name')
150
-
151
- args = parser.parse_args()
152
- model_dir = os.path.join("./logs", args.model)
153
-
154
- if not os.path.exists(model_dir):
155
- os.makedirs(model_dir)
156
-
157
- config_path = args.config
158
- config_save_path = os.path.join(model_dir, "config.json")
159
- if init:
160
- with open(config_path, "r") as f:
161
- data = f.read()
162
- with open(config_save_path, "w") as f:
163
- f.write(data)
164
- else:
165
- with open(config_save_path, "r") as f:
166
- data = f.read()
167
- config = json.loads(data)
168
-
169
- hparams = HParams(**config)
170
- hparams.model_dir = model_dir
171
- return hparams
172
-
173
-
174
- def get_hparams_from_dir(model_dir):
175
- config_save_path = os.path.join(model_dir, "config.json")
176
- with open(config_save_path, "r") as f:
177
- data = f.read()
178
- config = json.loads(data)
179
-
180
- hparams =HParams(**config)
181
- hparams.model_dir = model_dir
182
- return hparams
183
-
184
-
185
- def get_hparams_from_file(config_path):
186
- with open(config_path, "r") as f:
187
- data = f.read()
188
- config = json.loads(data)
189
-
190
- hparams =HParams(**config)
191
- return hparams
192
-
193
-
194
- def check_git_hash(model_dir):
195
- source_dir = os.path.dirname(os.path.realpath(__file__))
196
- if not os.path.exists(os.path.join(source_dir, ".git")):
197
- logger.warn("{} is not a git repository, therefore hash value comparison will be ignored.".format(
198
- source_dir
199
- ))
200
- return
201
-
202
- cur_hash = subprocess.getoutput("git rev-parse HEAD")
203
-
204
- path = os.path.join(model_dir, "githash")
205
- if os.path.exists(path):
206
- saved_hash = open(path).read()
207
- if saved_hash != cur_hash:
208
- logger.warn("git hash values are different. {}(saved) != {}(current)".format(
209
- saved_hash[:8], cur_hash[:8]))
210
- else:
211
- open(path, "w").write(cur_hash)
212
-
213
-
214
- def get_logger(model_dir, filename="train.log"):
215
- global logger
216
- logger = logging.getLogger(os.path.basename(model_dir))
217
- logger.setLevel(logging.DEBUG)
218
-
219
- formatter = logging.Formatter("%(asctime)s\t%(name)s\t%(levelname)s\t%(message)s")
220
- if not os.path.exists(model_dir):
221
- os.makedirs(model_dir)
222
- h = logging.FileHandler(os.path.join(model_dir, filename))
223
- h.setLevel(logging.DEBUG)
224
- h.setFormatter(formatter)
225
- logger.addHandler(h)
226
- return logger
227
-
228
-
229
- class HParams():
230
- def __init__(self, **kwargs):
231
- for k, v in kwargs.items():
232
- if type(v) == dict:
233
- v = HParams(**v)
234
- self[k] = v
235
-
236
- def keys(self):
237
- return self.__dict__.keys()
238
-
239
- def items(self):
240
- return self.__dict__.items()
241
-
242
- def values(self):
243
- return self.__dict__.values()
244
-
245
- def __len__(self):
246
- return len(self.__dict__)
247
-
248
- def __getitem__(self, key):
249
- return getattr(self, key)
250
-
251
- def __setitem__(self, key, value):
252
- return setattr(self, key, value)
253
-
254
- def __contains__(self, key):
255
- return key in self.__dict__
256
-
257
- def __repr__(self):
258
- return self.__dict__.__repr__()
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Al-Chan/Vits_League_of_Legends_Yuumi_TTS/models_infer.py DELETED
@@ -1,402 +0,0 @@
1
- import math
2
- import torch
3
- from torch import nn
4
- from torch.nn import functional as F
5
-
6
- import commons
7
- import modules
8
- import attentions
9
-
10
- from torch.nn import Conv1d, ConvTranspose1d, AvgPool1d, Conv2d
11
- from torch.nn.utils import weight_norm, remove_weight_norm, spectral_norm
12
- from commons import init_weights, get_padding
13
-
14
-
15
- class StochasticDurationPredictor(nn.Module):
16
- def __init__(self, in_channels, filter_channels, kernel_size, p_dropout, n_flows=4, gin_channels=0):
17
- super().__init__()
18
- filter_channels = in_channels # it needs to be removed from future version.
19
- self.in_channels = in_channels
20
- self.filter_channels = filter_channels
21
- self.kernel_size = kernel_size
22
- self.p_dropout = p_dropout
23
- self.n_flows = n_flows
24
- self.gin_channels = gin_channels
25
-
26
- self.log_flow = modules.Log()
27
- self.flows = nn.ModuleList()
28
- self.flows.append(modules.ElementwiseAffine(2))
29
- for i in range(n_flows):
30
- self.flows.append(modules.ConvFlow(2, filter_channels, kernel_size, n_layers=3))
31
- self.flows.append(modules.Flip())
32
-
33
- self.post_pre = nn.Conv1d(1, filter_channels, 1)
34
- self.post_proj = nn.Conv1d(filter_channels, filter_channels, 1)
35
- self.post_convs = modules.DDSConv(filter_channels, kernel_size, n_layers=3, p_dropout=p_dropout)
36
- self.post_flows = nn.ModuleList()
37
- self.post_flows.append(modules.ElementwiseAffine(2))
38
- for i in range(4):
39
- self.post_flows.append(modules.ConvFlow(2, filter_channels, kernel_size, n_layers=3))
40
- self.post_flows.append(modules.Flip())
41
-
42
- self.pre = nn.Conv1d(in_channels, filter_channels, 1)
43
- self.proj = nn.Conv1d(filter_channels, filter_channels, 1)
44
- self.convs = modules.DDSConv(filter_channels, kernel_size, n_layers=3, p_dropout=p_dropout)
45
- if gin_channels != 0:
46
- self.cond = nn.Conv1d(gin_channels, filter_channels, 1)
47
-
48
- def forward(self, x, x_mask, w=None, g=None, reverse=False, noise_scale=1.0):
49
- x = torch.detach(x)
50
- x = self.pre(x)
51
- if g is not None:
52
- g = torch.detach(g)
53
- x = x + self.cond(g)
54
- x = self.convs(x, x_mask)
55
- x = self.proj(x) * x_mask
56
-
57
- if not reverse:
58
- flows = self.flows
59
- assert w is not None
60
-
61
- logdet_tot_q = 0
62
- h_w = self.post_pre(w)
63
- h_w = self.post_convs(h_w, x_mask)
64
- h_w = self.post_proj(h_w) * x_mask
65
- e_q = torch.randn(w.size(0), 2, w.size(2)).to(device=x.device, dtype=x.dtype) * x_mask
66
- z_q = e_q
67
- for flow in self.post_flows:
68
- z_q, logdet_q = flow(z_q, x_mask, g=(x + h_w))
69
- logdet_tot_q += logdet_q
70
- z_u, z1 = torch.split(z_q, [1, 1], 1)
71
- u = torch.sigmoid(z_u) * x_mask
72
- z0 = (w - u) * x_mask
73
- logdet_tot_q += torch.sum((F.logsigmoid(z_u) + F.logsigmoid(-z_u)) * x_mask, [1,2])
74
- logq = torch.sum(-0.5 * (math.log(2*math.pi) + (e_q**2)) * x_mask, [1,2]) - logdet_tot_q
75
-
76
- logdet_tot = 0
77
- z0, logdet = self.log_flow(z0, x_mask)
78
- logdet_tot += logdet
79
- z = torch.cat([z0, z1], 1)
80
- for flow in flows:
81
- z, logdet = flow(z, x_mask, g=x, reverse=reverse)
82
- logdet_tot = logdet_tot + logdet
83
- nll = torch.sum(0.5 * (math.log(2*math.pi) + (z**2)) * x_mask, [1,2]) - logdet_tot
84
- return nll + logq # [b]
85
- else:
86
- flows = list(reversed(self.flows))
87
- flows = flows[:-2] + [flows[-1]] # remove a useless vflow
88
- z = torch.randn(x.size(0), 2, x.size(2)).to(device=x.device, dtype=x.dtype) * noise_scale
89
- for flow in flows:
90
- z = flow(z, x_mask, g=x, reverse=reverse)
91
- z0, z1 = torch.split(z, [1, 1], 1)
92
- logw = z0
93
- return logw
94
-
95
-
96
- class DurationPredictor(nn.Module):
97
- def __init__(self, in_channels, filter_channels, kernel_size, p_dropout, gin_channels=0):
98
- super().__init__()
99
-
100
- self.in_channels = in_channels
101
- self.filter_channels = filter_channels
102
- self.kernel_size = kernel_size
103
- self.p_dropout = p_dropout
104
- self.gin_channels = gin_channels
105
-
106
- self.drop = nn.Dropout(p_dropout)
107
- self.conv_1 = nn.Conv1d(in_channels, filter_channels, kernel_size, padding=kernel_size//2)
108
- self.norm_1 = modules.LayerNorm(filter_channels)
109
- self.conv_2 = nn.Conv1d(filter_channels, filter_channels, kernel_size, padding=kernel_size//2)
110
- self.norm_2 = modules.LayerNorm(filter_channels)
111
- self.proj = nn.Conv1d(filter_channels, 1, 1)
112
-
113
- if gin_channels != 0:
114
- self.cond = nn.Conv1d(gin_channels, in_channels, 1)
115
-
116
- def forward(self, x, x_mask, g=None):
117
- x = torch.detach(x)
118
- if g is not None:
119
- g = torch.detach(g)
120
- x = x + self.cond(g)
121
- x = self.conv_1(x * x_mask)
122
- x = torch.relu(x)
123
- x = self.norm_1(x)
124
- x = self.drop(x)
125
- x = self.conv_2(x * x_mask)
126
- x = torch.relu(x)
127
- x = self.norm_2(x)
128
- x = self.drop(x)
129
- x = self.proj(x * x_mask)
130
- return x * x_mask
131
-
132
-
133
- class TextEncoder(nn.Module):
134
- def __init__(self,
135
- n_vocab,
136
- out_channels,
137
- hidden_channels,
138
- filter_channels,
139
- n_heads,
140
- n_layers,
141
- kernel_size,
142
- p_dropout):
143
- super().__init__()
144
- self.n_vocab = n_vocab
145
- self.out_channels = out_channels
146
- self.hidden_channels = hidden_channels
147
- self.filter_channels = filter_channels
148
- self.n_heads = n_heads
149
- self.n_layers = n_layers
150
- self.kernel_size = kernel_size
151
- self.p_dropout = p_dropout
152
-
153
- self.emb = nn.Embedding(n_vocab, hidden_channels)
154
- nn.init.normal_(self.emb.weight, 0.0, hidden_channels**-0.5)
155
-
156
- self.encoder = attentions.Encoder(
157
- hidden_channels,
158
- filter_channels,
159
- n_heads,
160
- n_layers,
161
- kernel_size,
162
- p_dropout)
163
- self.proj= nn.Conv1d(hidden_channels, out_channels * 2, 1)
164
-
165
- def forward(self, x, x_lengths):
166
- x = self.emb(x) * math.sqrt(self.hidden_channels) # [b, t, h]
167
- x = torch.transpose(x, 1, -1) # [b, h, t]
168
- x_mask = torch.unsqueeze(commons.sequence_mask(x_lengths, x.size(2)), 1).to(x.dtype)
169
-
170
- x = self.encoder(x * x_mask, x_mask)
171
- stats = self.proj(x) * x_mask
172
-
173
- m, logs = torch.split(stats, self.out_channels, dim=1)
174
- return x, m, logs, x_mask
175
-
176
-
177
- class ResidualCouplingBlock(nn.Module):
178
- def __init__(self,
179
- channels,
180
- hidden_channels,
181
- kernel_size,
182
- dilation_rate,
183
- n_layers,
184
- n_flows=4,
185
- gin_channels=0):
186
- super().__init__()
187
- self.channels = channels
188
- self.hidden_channels = hidden_channels
189
- self.kernel_size = kernel_size
190
- self.dilation_rate = dilation_rate
191
- self.n_layers = n_layers
192
- self.n_flows = n_flows
193
- self.gin_channels = gin_channels
194
-
195
- self.flows = nn.ModuleList()
196
- for i in range(n_flows):
197
- self.flows.append(modules.ResidualCouplingLayer(channels, hidden_channels, kernel_size, dilation_rate, n_layers, gin_channels=gin_channels, mean_only=True))
198
- self.flows.append(modules.Flip())
199
-
200
- def forward(self, x, x_mask, g=None, reverse=False):
201
- if not reverse:
202
- for flow in self.flows:
203
- x, _ = flow(x, x_mask, g=g, reverse=reverse)
204
- else:
205
- for flow in reversed(self.flows):
206
- x = flow(x, x_mask, g=g, reverse=reverse)
207
- return x
208
-
209
-
210
- class PosteriorEncoder(nn.Module):
211
- def __init__(self,
212
- in_channels,
213
- out_channels,
214
- hidden_channels,
215
- kernel_size,
216
- dilation_rate,
217
- n_layers,
218
- gin_channels=0):
219
- super().__init__()
220
- self.in_channels = in_channels
221
- self.out_channels = out_channels
222
- self.hidden_channels = hidden_channels
223
- self.kernel_size = kernel_size
224
- self.dilation_rate = dilation_rate
225
- self.n_layers = n_layers
226
- self.gin_channels = gin_channels
227
-
228
- self.pre = nn.Conv1d(in_channels, hidden_channels, 1)
229
- self.enc = modules.WN(hidden_channels, kernel_size, dilation_rate, n_layers, gin_channels=gin_channels)
230
- self.proj = nn.Conv1d(hidden_channels, out_channels * 2, 1)
231
-
232
- def forward(self, x, x_lengths, g=None):
233
- x_mask = torch.unsqueeze(commons.sequence_mask(x_lengths, x.size(2)), 1).to(x.dtype)
234
- x = self.pre(x) * x_mask
235
- x = self.enc(x, x_mask, g=g)
236
- stats = self.proj(x) * x_mask
237
- m, logs = torch.split(stats, self.out_channels, dim=1)
238
- z = (m + torch.randn_like(m) * torch.exp(logs)) * x_mask
239
- return z, m, logs, x_mask
240
-
241
-
242
- class Generator(torch.nn.Module):
243
- def __init__(self, initial_channel, resblock, resblock_kernel_sizes, resblock_dilation_sizes, upsample_rates, upsample_initial_channel, upsample_kernel_sizes, gin_channels=0):
244
- super(Generator, self).__init__()
245
- self.num_kernels = len(resblock_kernel_sizes)
246
- self.num_upsamples = len(upsample_rates)
247
- self.conv_pre = Conv1d(initial_channel, upsample_initial_channel, 7, 1, padding=3)
248
- resblock = modules.ResBlock1 if resblock == '1' else modules.ResBlock2
249
-
250
- self.ups = nn.ModuleList()
251
- for i, (u, k) in enumerate(zip(upsample_rates, upsample_kernel_sizes)):
252
- self.ups.append(weight_norm(
253
- ConvTranspose1d(upsample_initial_channel//(2**i), upsample_initial_channel//(2**(i+1)),
254
- k, u, padding=(k-u)//2)))
255
-
256
- self.resblocks = nn.ModuleList()
257
- for i in range(len(self.ups)):
258
- ch = upsample_initial_channel//(2**(i+1))
259
- for j, (k, d) in enumerate(zip(resblock_kernel_sizes, resblock_dilation_sizes)):
260
- self.resblocks.append(resblock(ch, k, d))
261
-
262
- self.conv_post = Conv1d(ch, 1, 7, 1, padding=3, bias=False)
263
- self.ups.apply(init_weights)
264
-
265
- if gin_channels != 0:
266
- self.cond = nn.Conv1d(gin_channels, upsample_initial_channel, 1)
267
-
268
- def forward(self, x, g=None):
269
- x = self.conv_pre(x)
270
- if g is not None:
271
- x = x + self.cond(g)
272
-
273
- for i in range(self.num_upsamples):
274
- x = F.leaky_relu(x, modules.LRELU_SLOPE)
275
- x = self.ups[i](x)
276
- xs = None
277
- for j in range(self.num_kernels):
278
- if xs is None:
279
- xs = self.resblocks[i*self.num_kernels+j](x)
280
- else:
281
- xs += self.resblocks[i*self.num_kernels+j](x)
282
- x = xs / self.num_kernels
283
- x = F.leaky_relu(x)
284
- x = self.conv_post(x)
285
- x = torch.tanh(x)
286
-
287
- return x
288
-
289
- def remove_weight_norm(self):
290
- print('Removing weight norm...')
291
- for l in self.ups:
292
- remove_weight_norm(l)
293
- for l in self.resblocks:
294
- l.remove_weight_norm()
295
-
296
-
297
-
298
- class SynthesizerTrn(nn.Module):
299
- """
300
- Synthesizer for Training
301
- """
302
-
303
- def __init__(self,
304
- n_vocab,
305
- spec_channels,
306
- segment_size,
307
- inter_channels,
308
- hidden_channels,
309
- filter_channels,
310
- n_heads,
311
- n_layers,
312
- kernel_size,
313
- p_dropout,
314
- resblock,
315
- resblock_kernel_sizes,
316
- resblock_dilation_sizes,
317
- upsample_rates,
318
- upsample_initial_channel,
319
- upsample_kernel_sizes,
320
- n_speakers=0,
321
- gin_channels=0,
322
- use_sdp=True,
323
- **kwargs):
324
-
325
- super().__init__()
326
- self.n_vocab = n_vocab
327
- self.spec_channels = spec_channels
328
- self.inter_channels = inter_channels
329
- self.hidden_channels = hidden_channels
330
- self.filter_channels = filter_channels
331
- self.n_heads = n_heads
332
- self.n_layers = n_layers
333
- self.kernel_size = kernel_size
334
- self.p_dropout = p_dropout
335
- self.resblock = resblock
336
- self.resblock_kernel_sizes = resblock_kernel_sizes
337
- self.resblock_dilation_sizes = resblock_dilation_sizes
338
- self.upsample_rates = upsample_rates
339
- self.upsample_initial_channel = upsample_initial_channel
340
- self.upsample_kernel_sizes = upsample_kernel_sizes
341
- self.segment_size = segment_size
342
- self.n_speakers = n_speakers
343
- self.gin_channels = gin_channels
344
-
345
- self.use_sdp = use_sdp
346
-
347
- self.enc_p = TextEncoder(n_vocab,
348
- inter_channels,
349
- hidden_channels,
350
- filter_channels,
351
- n_heads,
352
- n_layers,
353
- kernel_size,
354
- p_dropout)
355
- self.dec = Generator(inter_channels, resblock, resblock_kernel_sizes, resblock_dilation_sizes, upsample_rates, upsample_initial_channel, upsample_kernel_sizes, gin_channels=gin_channels)
356
- self.enc_q = PosteriorEncoder(spec_channels, inter_channels, hidden_channels, 5, 1, 16, gin_channels=gin_channels)
357
- self.flow = ResidualCouplingBlock(inter_channels, hidden_channels, 5, 1, 4, gin_channels=gin_channels)
358
-
359
- if use_sdp:
360
- self.dp = StochasticDurationPredictor(hidden_channels, 192, 3, 0.5, 4, gin_channels=gin_channels)
361
- else:
362
- self.dp = DurationPredictor(hidden_channels, 256, 3, 0.5, gin_channels=gin_channels)
363
-
364
- if n_speakers > 1:
365
- self.emb_g = nn.Embedding(n_speakers, gin_channels)
366
-
367
- def infer(self, x, x_lengths, sid=None, noise_scale=1, length_scale=1, noise_scale_w=1., max_len=None):
368
- x, m_p, logs_p, x_mask = self.enc_p(x, x_lengths)
369
- if self.n_speakers > 0:
370
- g = self.emb_g(sid).unsqueeze(-1) # [b, h, 1]
371
- else:
372
- g = None
373
-
374
- if self.use_sdp:
375
- logw = self.dp(x, x_mask, g=g, reverse=True, noise_scale=noise_scale_w)
376
- else:
377
- logw = self.dp(x, x_mask, g=g)
378
- w = torch.exp(logw) * x_mask * length_scale
379
- w_ceil = torch.ceil(w)
380
- y_lengths = torch.clamp_min(torch.sum(w_ceil, [1, 2]), 1).long()
381
- y_mask = torch.unsqueeze(commons.sequence_mask(y_lengths, None), 1).to(x_mask.dtype)
382
- attn_mask = torch.unsqueeze(x_mask, 2) * torch.unsqueeze(y_mask, -1)
383
- attn = commons.generate_path(w_ceil, attn_mask)
384
-
385
- m_p = torch.matmul(attn.squeeze(1), m_p.transpose(1, 2)).transpose(1, 2) # [b, t', t], [b, t, d] -> [b, d, t']
386
- logs_p = torch.matmul(attn.squeeze(1), logs_p.transpose(1, 2)).transpose(1, 2) # [b, t', t], [b, t, d] -> [b, d, t']
387
-
388
- z_p = m_p + torch.randn_like(m_p) * torch.exp(logs_p) * noise_scale
389
- z = self.flow(z_p, y_mask, g=g, reverse=True)
390
- o = self.dec((z * y_mask)[:,:,:max_len], g=g)
391
- return o, attn, y_mask, (z, z_p, m_p, logs_p)
392
-
393
- def voice_conversion(self, y, y_lengths, sid_src, sid_tgt):
394
- assert self.n_speakers > 0, "n_speakers have to be larger than 0."
395
- g_src = self.emb_g(sid_src).unsqueeze(-1)
396
- g_tgt = self.emb_g(sid_tgt).unsqueeze(-1)
397
- z, m_q, logs_q, y_mask = self.enc_q(y, y_lengths, g=g_src)
398
- z_p = self.flow(z, y_mask, g=g_src)
399
- z_hat = self.flow(z_p, y_mask, g=g_tgt, reverse=True)
400
- o_hat = self.dec(z_hat * y_mask, g=g_tgt)
401
- return o_hat, y_mask, (z, z_p, z_hat)
402
-
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Alichuan/VITS-Umamusume-voice-synthesizer/text/symbols.py DELETED
@@ -1,76 +0,0 @@
1
- '''
2
- Defines the set of symbols used in text input to the model.
3
- '''
4
-
5
- # japanese_cleaners
6
- _pad = '_'
7
- _punctuation = ',.!?-'
8
- _letters = 'AEINOQUabdefghijkmnoprstuvwyzʃʧ↓↑ '
9
-
10
-
11
- '''# japanese_cleaners2
12
- _pad = '_'
13
- _punctuation = ',.!?-~…'
14
- _letters = 'AEINOQUabdefghijkmnoprstuvwyzʃʧʦ↓↑ '
15
- '''
16
-
17
-
18
- '''# korean_cleaners
19
- _pad = '_'
20
- _punctuation = ',.!?…~'
21
- _letters = 'ㄱㄴㄷㄹㅁㅂㅅㅇㅈㅊㅋㅌㅍㅎㄲㄸㅃㅆㅉㅏㅓㅗㅜㅡㅣㅐㅔ '
22
- '''
23
-
24
- '''# chinese_cleaners
25
- _pad = '_'
26
- _punctuation = ',。!?—…'
27
- _letters = 'ㄅㄆㄇㄈㄉㄊㄋㄌㄍㄎㄏㄐㄑㄒㄓㄔㄕㄖㄗㄘㄙㄚㄛㄜㄝㄞㄟㄠㄡㄢㄣㄤㄥㄦㄧㄨㄩˉˊˇˋ˙ '
28
- '''
29
-
30
- '''# zh_ja_mixture_cleaners
31
- _pad = '_'
32
- _punctuation = ',.!?-~…'
33
- _letters = 'AEINOQUabdefghijklmnoprstuvwyzʃʧʦɯɹəɥ⁼ʰ`→↓↑ '
34
- '''
35
-
36
- '''# sanskrit_cleaners
37
- _pad = '_'
38
- _punctuation = '।'
39
- _letters = 'ँंःअआइईउऊऋएऐओऔकखगघङचछजझञटठडढणतथदधनपफबभमयरलळवशषसहऽािीुूृॄेैोौ्ॠॢ '
40
- '''
41
-
42
- '''# cjks_cleaners
43
- _pad = '_'
44
- _punctuation = ',.!?-~…'
45
- _letters = 'NQabdefghijklmnopstuvwxyzʃʧʥʦɯɹəɥçɸɾβŋɦː⁼ʰ`^#*=→↓↑ '
46
- '''
47
-
48
- '''# thai_cleaners
49
- _pad = '_'
50
- _punctuation = '.!? '
51
- _letters = 'กขฃคฆงจฉชซฌญฎฏฐฑฒณดตถทธนบปผฝพฟภมยรฤลวศษสหฬอฮฯะัาำิีึืุูเแโใไๅๆ็่้๊๋์'
52
- '''
53
-
54
- '''# cjke_cleaners2
55
- _pad = '_'
56
- _punctuation = ',.!?-~…'
57
- _letters = 'NQabdefghijklmnopstuvwxyzɑæʃʑçɯɪɔɛɹðəɫɥɸʊɾʒθβŋɦ⁼ʰ`^#*=ˈˌ→↓↑ '
58
- '''
59
-
60
- '''# shanghainese_cleaners
61
- _pad = '_'
62
- _punctuation = ',.!?…'
63
- _letters = 'abdfghiklmnopstuvyzøŋȵɑɔɕəɤɦɪɿʑʔʰ̩̃ᴀᴇ15678 '
64
- '''
65
-
66
- '''# chinese_dialect_cleaners
67
- _pad = '_'
68
- _punctuation = ',.!?~…─'
69
- _letters = '#Nabdefghijklmnoprstuvwxyzæçøŋœȵɐɑɒɓɔɕɗɘəɚɛɜɣɤɦɪɭɯɵɷɸɻɾɿʂʅʊʋʌʏʑʔʦʮʰʷˀː˥˦˧˨˩̥̩̃̚ᴀᴇ↑↓∅ⱼ '
70
- '''
71
-
72
- # Export all symbols:
73
- symbols = [_pad] + list(_punctuation) + list(_letters)
74
-
75
- # Special symbol ids
76
- SPACE_ID = symbols.index(" ")
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Aloento/9Nine-PITS/analysis.py DELETED
@@ -1,141 +0,0 @@
1
- # modified from https://github.com/dhchoi99/NANSY
2
- # We have modified the implementation of dhchoi99 to be fully differentiable.
3
- import math
4
-
5
- from yin import *
6
-
7
-
8
- class Pitch(torch.nn.Module):
9
-
10
- def __init__(
11
- self,
12
- sr=22050,
13
- w_step=256,
14
- W=2048,
15
- tau_max=2048,
16
- midi_start=5,
17
- midi_end=85,
18
- octave_range=12):
19
- super(Pitch, self).__init__()
20
- self.sr = sr
21
- self.w_step = w_step
22
- self.W = W
23
- self.tau_max = tau_max
24
- self.unfold = torch.nn.Unfold((1, self.W),
25
- 1,
26
- 0,
27
- stride=(1, self.w_step))
28
- midis = list(range(midi_start, midi_end))
29
- self.len_midis = len(midis)
30
- c_ms = torch.tensor([self.midi_to_lag(m, octave_range) for m in midis])
31
- self.register_buffer('c_ms', c_ms)
32
- self.register_buffer('c_ms_ceil', torch.ceil(self.c_ms).long())
33
- self.register_buffer('c_ms_floor', torch.floor(self.c_ms).long())
34
-
35
- def midi_to_lag(self, m: int, octave_range: float = 12):
36
- """converts midi-to-lag, eq. (4)
37
-
38
- Args:
39
- m: midi
40
- sr: sample_rate
41
- octave_range:
42
-
43
- Returns:
44
- lag: time lag(tau, c(m)) calculated from midi, eq. (4)
45
-
46
- """
47
- f = 440 * math.pow(2, (m - 69) / octave_range)
48
- lag = self.sr / f
49
- return lag
50
-
51
- def yingram_from_cmndf(self, cmndfs: torch.Tensor) -> torch.Tensor:
52
- """ yingram calculator from cMNDFs(cumulative Mean Normalized Difference Functions)
53
-
54
- Args:
55
- cmndfs: torch.Tensor
56
- calculated cumulative mean normalized difference function
57
- for details, see models/yin.py or eq. (1) and (2)
58
- ms: list of midi(int)
59
- sr: sampling rate
60
-
61
- Returns:
62
- y:
63
- calculated batch yingram
64
-
65
-
66
- """
67
- # c_ms = np.asarray([Pitch.midi_to_lag(m, sr) for m in ms])
68
- # c_ms = torch.from_numpy(c_ms).to(cmndfs.device)
69
-
70
- y = (cmndfs[:, self.c_ms_ceil] -
71
- cmndfs[:, self.c_ms_floor]) / (self.c_ms_ceil - self.c_ms_floor).unsqueeze(0) * (
72
- self.c_ms - self.c_ms_floor).unsqueeze(0) + cmndfs[:, self.c_ms_floor]
73
- return y
74
-
75
- def yingram(self, x: torch.Tensor):
76
- """calculates yingram from raw audio (multi segment)
77
-
78
- Args:
79
- x: raw audio, torch.Tensor of shape (t)
80
- W: yingram Window Size
81
- tau_max:
82
- sr: sampling rate
83
- w_step: yingram bin step size
84
-
85
- Returns:
86
- yingram: yingram. torch.Tensor of shape (80 x t')
87
-
88
- """
89
- # x.shape: t -> B,T, B,T = x.shape
90
- B, T = x.shape
91
- w_len = self.W
92
-
93
- frames = self.unfold(x.view(B, 1, 1, T))
94
- frames = frames.permute(0, 2,
95
- 1).contiguous().view(-1,
96
- self.W) # [B* frames, W]
97
- # If not using gpu, or torch not compatible, implemented numpy batch function is still fine
98
- dfs = differenceFunctionTorch(frames, frames.shape[-1], self.tau_max)
99
- cmndfs = cumulativeMeanNormalizedDifferenceFunctionTorch(
100
- dfs, self.tau_max)
101
- yingram = self.yingram_from_cmndf(cmndfs) # [B*frames,F]
102
- yingram = yingram.view(B, -1, self.len_midis).permute(0, 2,
103
- 1) # [B,F,T]
104
- return yingram
105
-
106
- def crop_scope(self, x, yin_start,
107
- scope_shift): # x: tensor [B,C,T] #scope_shift: tensor [B]
108
- return torch.stack([
109
- x[i, yin_start + scope_shift[i]:yin_start + self.yin_scope +
110
- scope_shift[i], :] for i in range(x.shape[0])
111
- ],
112
- dim=0)
113
-
114
-
115
- if __name__ == '__main__':
116
- import torch
117
- import librosa as rosa
118
- import matplotlib.pyplot as plt
119
-
120
- wav = torch.tensor(rosa.load('LJ001-0002.wav', sr=22050,
121
- mono=True)[0]).unsqueeze(0)
122
- # wav = torch.randn(1,40965)
123
-
124
- wav = torch.nn.functional.pad(wav, (0, (-wav.shape[1]) % 256))
125
- # wav = wav[#:,:8096]
126
- print(wav.shape)
127
- pitch = Pitch()
128
-
129
- with torch.no_grad():
130
- ps = pitch.yingram(torch.nn.functional.pad(wav, (1024, 1024)))
131
- ps = torch.nn.functional.pad(ps, (0, 0, 8, 8), mode='replicate')
132
- print(ps.shape)
133
- spec = torch.stft(wav, 1024, 256, return_complex=False)
134
- print(spec.shape)
135
- plt.subplot(2, 1, 1)
136
- plt.pcolor(ps[0].numpy(), cmap='magma')
137
- plt.colorbar()
138
- plt.subplot(2, 1, 2)
139
- plt.pcolor(ps[0][15:65, :].numpy(), cmap='magma')
140
- plt.colorbar()
141
- plt.show()
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Amrrs/portfolio/style.css DELETED
@@ -1,190 +0,0 @@
1
- html {
2
- margin: 0;
3
- padding: 0;
4
- }
5
-
6
- body {
7
- font-family: 'Bellota', cursive;
8
- font-size: 26pt;
9
- background-color: #f2f2f2;
10
- padding: 20px;
11
- margin: 0;
12
- }
13
-
14
- h1 {
15
- font-size: 15pt;
16
- color: #ffffff;
17
- text-align: center;
18
- padding: 18px 0 18px 0;
19
- margin: 0 0 10px 0;
20
- }
21
-
22
- h1 span {
23
- border: 8px solid #666666;
24
- border-radius: 8px;
25
- background-image: url("https://media.giphy.com/media/KVZWZQoS0yqfIiTAKq/giphy.gif");
26
- padding: 12px;
27
- }
28
-
29
- p {
30
- padding: 0;
31
- margin: 0;
32
- color: #000000;
33
- }
34
-
35
- .img-circle {
36
- border: 8px solid white;
37
- border-radius: 50%;
38
- }
39
-
40
- .section {
41
- background-color: #fff;
42
- padding: 20px;
43
- margin-bottom: 10px;
44
- border-radius: 30px;
45
- }
46
-
47
- #header {
48
- background-image: url("https://media.giphy.com/media/KVZWZQoS0yqfIiTAKq/giphy.gif");
49
- background-size: cover;
50
- }
51
-
52
- #header img {
53
- display: block;
54
- width: 500px;
55
- height: 500px;
56
- margin: auto;
57
- }
58
-
59
- #header p {
60
- font-size: 60pt;
61
- color: #ffffff;
62
- padding-top: 8px;
63
- margin: 0;
64
- font-weight: bold;
65
- text-align: center;
66
- }
67
-
68
- .quote {
69
- font-size: 12pt;
70
- text-align: right;
71
- margin-top: 10px;
72
- color: grey;
73
- }
74
-
75
- #res {
76
- text-align: center;
77
- margin: 50px auto;
78
- }
79
-
80
- #res a {
81
- margin: 20px 20px;
82
- display: inline-block;
83
- text-decoration: none;
84
- color: black;
85
- }
86
-
87
- .selected {
88
- background-color: #f36f48;
89
- font-weight: bold;
90
- color: white;
91
- }
92
-
93
- li {
94
- margin-bottom: 15px;
95
- font-weight: bold;
96
- }
97
-
98
- progress {
99
- width: 70%;
100
- height: 20px;
101
- color: #3fb6b2;
102
- background: #efefef;
103
- }
104
-
105
- progress::-webkit-progress-bar {
106
- background: #efefef;
107
- }
108
-
109
- progress::-webkit-progress-value {
110
- background: #3fb6b2;
111
- }
112
-
113
- progress::-moz-progress-bar {
114
- color: #3fb6b2;
115
- background: #efefef;
116
- }
117
-
118
- iframe,
119
- audio {
120
- display: block;
121
- margin: 0 auto;
122
- border: 3px solid #3fb6b2;
123
- border-radius: 10px;
124
- }
125
-
126
- hr {
127
- border: 0;
128
- height: 1px;
129
- background: #f36f48;
130
- }
131
-
132
- input {
133
- text-align: center;
134
- font-size: 25pt;
135
- border: none;
136
- border-radius: 12px;
137
- padding: 30px 8%;
138
- margin: 20px 5px 10px 5px;
139
- background-color: #d7d7d7;
140
- }
141
-
142
- input:focus {
143
- background-color: #2f2f2f;
144
- color: white;
145
- }
146
-
147
- form {
148
- text-align: center;
149
- font-size: 30pt;
150
- font-family: Helvetica;
151
- font-weight: 500;
152
- margin: 10% 15% 8% 15%;
153
- border-radius: 12px;
154
- }
155
-
156
- #insta-image {
157
- display: block;
158
- width: 100px;
159
- height: 100px;
160
- border: 5px solid #d7d7d7;
161
- border-radius: 50%;
162
- margin: auto;
163
- margin-top: -75px;
164
- }
165
-
166
- #contacts img {
167
- height: 150px;
168
- width: 150px;
169
- margin-left: 7px;
170
- margin-right: 7px;
171
- }
172
-
173
- #contacts a {
174
- text-decoration: none;
175
- }
176
-
177
- #contacts img:hover {
178
- opacity: 0.8;
179
- }
180
-
181
- #contacts {
182
- text-align: center;
183
- }
184
-
185
- .copyright {
186
- font-size: 8pt;
187
- text-align: right;
188
- padding-bottom: 10px;
189
- color: grey;
190
- }
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Androidonnxfork/CivitAi-to-Diffusers/diffusers/examples/controlnet/README_sdxl.md DELETED
@@ -1,131 +0,0 @@
1
- # DreamBooth training example for Stable Diffusion XL (SDXL)
2
-
3
- The `train_controlnet_sdxl.py` script shows how to implement the training procedure and adapt it for [Stable Diffusion XL](https://huggingface.co/papers/2307.01952).
4
-
5
- ## Running locally with PyTorch
6
-
7
- ### Installing the dependencies
8
-
9
- Before running the scripts, make sure to install the library's training dependencies:
10
-
11
- **Important**
12
-
13
- To make sure you can successfully run the latest versions of the example scripts, we highly recommend **installing from source** and keeping the install up to date as we update the example scripts frequently and install some example-specific requirements. To do this, execute the following steps in a new virtual environment:
14
-
15
- ```bash
16
- git clone https://github.com/huggingface/diffusers
17
- cd diffusers
18
- pip install -e .
19
- ```
20
-
21
- Then cd in the `examples/controlnet` folder and run
22
- ```bash
23
- pip install -r requirements_sdxl.txt
24
- ```
25
-
26
- And initialize an [🤗Accelerate](https://github.com/huggingface/accelerate/) environment with:
27
-
28
- ```bash
29
- accelerate config
30
- ```
31
-
32
- Or for a default accelerate configuration without answering questions about your environment
33
-
34
- ```bash
35
- accelerate config default
36
- ```
37
-
38
- Or if your environment doesn't support an interactive shell (e.g., a notebook)
39
-
40
- ```python
41
- from accelerate.utils import write_basic_config
42
- write_basic_config()
43
- ```
44
-
45
- When running `accelerate config`, if we specify torch compile mode to True there can be dramatic speedups.
46
-
47
- ## Circle filling dataset
48
-
49
- The original dataset is hosted in the [ControlNet repo](https://huggingface.co/lllyasviel/ControlNet/blob/main/training/fill50k.zip). We re-uploaded it to be compatible with `datasets` [here](https://huggingface.co/datasets/fusing/fill50k). Note that `datasets` handles dataloading within the training script.
50
-
51
- ## Training
52
-
53
- Our training examples use two test conditioning images. They can be downloaded by running
54
-
55
- ```sh
56
- wget https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/diffusers/controlnet_training/conditioning_image_1.png
57
-
58
- wget https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/diffusers/controlnet_training/conditioning_image_2.png
59
- ```
60
-
61
- Then run `huggingface-cli login` to log into your Hugging Face account. This is needed to be able to push the trained ControlNet parameters to Hugging Face Hub.
62
-
63
- ```bash
64
- export MODEL_DIR="stabilityai/stable-diffusion-xl-base-1.0"
65
- export OUTPUT_DIR="path to save model"
66
-
67
- accelerate launch train_controlnet_sdxl.py \
68
- --pretrained_model_name_or_path=$MODEL_DIR \
69
- --output_dir=$OUTPUT_DIR \
70
- --dataset_name=fusing/fill50k \
71
- --mixed_precision="fp16" \
72
- --resolution=1024 \
73
- --learning_rate=1e-5 \
74
- --max_train_steps=15000 \
75
- --validation_image "./conditioning_image_1.png" "./conditioning_image_2.png" \
76
- --validation_prompt "red circle with blue background" "cyan circle with brown floral background" \
77
- --validation_steps=100 \
78
- --train_batch_size=1 \
79
- --gradient_accumulation_steps=4 \
80
- --report_to="wandb" \
81
- --seed=42 \
82
- --push_to_hub
83
- ```
84
-
85
- To better track our training experiments, we're using the following flags in the command above:
86
-
87
- * `report_to="wandb` will ensure the training runs are tracked on Weights and Biases. To use it, be sure to install `wandb` with `pip install wandb`.
88
- * `validation_image`, `validation_prompt`, and `validation_steps` to allow the script to do a few validation inference runs. This allows us to qualitatively check if the training is progressing as expected.
89
-
90
- Our experiments were conducted on a single 40GB A100 GPU.
91
-
92
- ### Inference
93
-
94
- Once training is done, we can perform inference like so:
95
-
96
- ```python
97
- from diffusers import StableDiffusionXLControlNetPipeline, ControlNetModel, UniPCMultistepScheduler
98
- from diffusers.utils import load_image
99
- import torch
100
-
101
- base_model_path = "stabilityai/stable-diffusion-xl-base-1.0"
102
- controlnet_path = "path to controlnet"
103
-
104
- controlnet = ControlNetModel.from_pretrained(controlnet_path, torch_dtype=torch.float16)
105
- pipe = StableDiffusionXLControlNetPipeline.from_pretrained(
106
- base_model_path, controlnet=controlnet, torch_dtype=torch.float16
107
- )
108
-
109
- # speed up diffusion process with faster scheduler and memory optimization
110
- pipe.scheduler = UniPCMultistepScheduler.from_config(pipe.scheduler.config)
111
- # remove following line if xformers is not installed or when using Torch 2.0.
112
- pipe.enable_xformers_memory_efficient_attention()
113
- # memory optimization.
114
- pipe.enable_model_cpu_offload()
115
-
116
- control_image = load_image("./conditioning_image_1.png")
117
- prompt = "pale golden rod circle with old lace background"
118
-
119
- # generate image
120
- generator = torch.manual_seed(0)
121
- image = pipe(
122
- prompt, num_inference_steps=20, generator=generator, image=control_image
123
- ).images[0]
124
- image.save("./output.png")
125
- ```
126
-
127
- ## Notes
128
-
129
- ### Specifying a better VAE
130
-
131
- SDXL's VAE is known to suffer from numerical instability issues. This is why we also expose a CLI argument namely `--pretrained_vae_model_name_or_path` that lets you specify the location of a better VAE (such as [this one](https://huggingface.co/madebyollin/sdxl-vae-fp16-fix)).
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Andy1621/uniformer_image_detection/configs/cascade_rcnn/cascade_mask_rcnn_x101_64x4d_fpn_1x_coco.py DELETED
@@ -1,13 +0,0 @@
1
- _base_ = './cascade_mask_rcnn_r50_fpn_1x_coco.py'
2
- model = dict(
3
- pretrained='open-mmlab://resnext101_64x4d',
4
- backbone=dict(
5
- type='ResNeXt',
6
- depth=101,
7
- groups=64,
8
- base_width=4,
9
- num_stages=4,
10
- out_indices=(0, 1, 2, 3),
11
- frozen_stages=1,
12
- norm_cfg=dict(type='BN', requires_grad=True),
13
- style='pytorch'))
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Andy1621/uniformer_image_detection/configs/deepfashion/README.md DELETED
@@ -1,56 +0,0 @@
1
- # DeepFashion
2
-
3
- [DATASET]
4
-
5
- [MMFashion](https://github.com/open-mmlab/mmfashion) develops "fashion parsing and segmentation" module
6
- based on the dataset
7
- [DeepFashion-Inshop](https://drive.google.com/drive/folders/0B7EVK8r0v71pVDZFQXRsMDZCX1E?usp=sharing).
8
- Its annotation follows COCO style.
9
- To use it, you need to first download the data. Note that we only use "img_highres" in this task.
10
- The file tree should be like this:
11
-
12
- ```sh
13
- mmdetection
14
- ├── mmdet
15
- ├── tools
16
- ├── configs
17
- ├── data
18
- │ ├── DeepFashion
19
- │ │ ├── In-shop
20
- │ │ ├── Anno
21
- │ │ │   ├── segmentation
22
- │ │ │   | ├── DeepFashion_segmentation_train.json
23
- │ │ │   | ├── DeepFashion_segmentation_query.json
24
- │ │ │   | ├── DeepFashion_segmentation_gallery.json
25
- │ │ │   ├── list_bbox_inshop.txt
26
- │ │ │   ├── list_description_inshop.json
27
- │ │ │   ├── list_item_inshop.txt
28
- │ │ │   └── list_landmarks_inshop.txt
29
- │ │ ├── Eval
30
- │ │ │ └── list_eval_partition.txt
31
- │ │ ├── Img
32
- │ │ │ ├── img
33
- │ │ │ │ ├──XXX.jpg
34
- │ │ │ ├── img_highres
35
- │ │ │ └── ├──XXX.jpg
36
-
37
- ```
38
-
39
- After that you can train the Mask RCNN r50 on DeepFashion-In-shop dataset by launching training with the `mask_rcnn_r50_fpn_1x.py` config
40
- or creating your own config file.
41
-
42
- ```
43
- @inproceedings{liuLQWTcvpr16DeepFashion,
44
- author = {Liu, Ziwei and Luo, Ping and Qiu, Shi and Wang, Xiaogang and Tang, Xiaoou},
45
- title = {DeepFashion: Powering Robust Clothes Recognition and Retrieval with Rich Annotations},
46
- booktitle = {Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},
47
- month = {June},
48
- year = {2016}
49
- }
50
- ```
51
-
52
- ## Model Zoo
53
-
54
- | Backbone | Model type | Dataset | bbox detection Average Precision | segmentation Average Precision | Config | Download (Google) |
55
- | :---------: | :----------: | :-----------------: | :--------------------------------: | :----------------------------: | :---------:| :-------------------------: |
56
- | ResNet50 | Mask RCNN | DeepFashion-In-shop | 0.599 | 0.584 |[config](https://github.com/open-mmlab/mmdetection/blob/master/configs/deepfashion/mask_rcnn_r50_fpn_15e_deepfashion.py)| [model](https://drive.google.com/open?id=1q6zF7J6Gb-FFgM87oIORIt6uBozaXp5r) &#124; [log](https://drive.google.com/file/d/1qTK4Dr4FFLa9fkdI6UVko408gkrfTRLP/view?usp=sharing) |
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Andy1621/uniformer_image_detection/mmdet/models/roi_heads/__init__.py DELETED
@@ -1,34 +0,0 @@
1
- from .base_roi_head import BaseRoIHead
2
- from .bbox_heads import (BBoxHead, ConvFCBBoxHead, DoubleConvFCBBoxHead,
3
- SCNetBBoxHead, Shared2FCBBoxHead,
4
- Shared4Conv1FCBBoxHead)
5
- from .cascade_roi_head import CascadeRoIHead
6
- from .double_roi_head import DoubleHeadRoIHead
7
- from .dynamic_roi_head import DynamicRoIHead
8
- from .grid_roi_head import GridRoIHead
9
- from .htc_roi_head import HybridTaskCascadeRoIHead
10
- from .mask_heads import (CoarseMaskHead, FCNMaskHead, FeatureRelayHead,
11
- FusedSemanticHead, GlobalContextHead, GridHead,
12
- HTCMaskHead, MaskIoUHead, MaskPointHead,
13
- SCNetMaskHead, SCNetSemanticHead)
14
- from .mask_scoring_roi_head import MaskScoringRoIHead
15
- from .pisa_roi_head import PISARoIHead
16
- from .point_rend_roi_head import PointRendRoIHead
17
- from .roi_extractors import SingleRoIExtractor
18
- from .scnet_roi_head import SCNetRoIHead
19
- from .shared_heads import ResLayer
20
- from .sparse_roi_head import SparseRoIHead
21
- from .standard_roi_head import StandardRoIHead
22
- from .trident_roi_head import TridentRoIHead
23
-
24
- __all__ = [
25
- 'BaseRoIHead', 'CascadeRoIHead', 'DoubleHeadRoIHead', 'MaskScoringRoIHead',
26
- 'HybridTaskCascadeRoIHead', 'GridRoIHead', 'ResLayer', 'BBoxHead',
27
- 'ConvFCBBoxHead', 'Shared2FCBBoxHead', 'StandardRoIHead',
28
- 'Shared4Conv1FCBBoxHead', 'DoubleConvFCBBoxHead', 'FCNMaskHead',
29
- 'HTCMaskHead', 'FusedSemanticHead', 'GridHead', 'MaskIoUHead',
30
- 'SingleRoIExtractor', 'PISARoIHead', 'PointRendRoIHead', 'MaskPointHead',
31
- 'CoarseMaskHead', 'DynamicRoIHead', 'SparseRoIHead', 'TridentRoIHead',
32
- 'SCNetRoIHead', 'SCNetMaskHead', 'SCNetSemanticHead', 'SCNetBBoxHead',
33
- 'FeatureRelayHead', 'GlobalContextHead'
34
- ]
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Andy1621/uniformer_image_segmentation/configs/_base_/models/danet_r50-d8.py DELETED
@@ -1,44 +0,0 @@
1
- # model settings
2
- norm_cfg = dict(type='SyncBN', requires_grad=True)
3
- model = dict(
4
- type='EncoderDecoder',
5
- pretrained='open-mmlab://resnet50_v1c',
6
- backbone=dict(
7
- type='ResNetV1c',
8
- depth=50,
9
- num_stages=4,
10
- out_indices=(0, 1, 2, 3),
11
- dilations=(1, 1, 2, 4),
12
- strides=(1, 2, 1, 1),
13
- norm_cfg=norm_cfg,
14
- norm_eval=False,
15
- style='pytorch',
16
- contract_dilation=True),
17
- decode_head=dict(
18
- type='DAHead',
19
- in_channels=2048,
20
- in_index=3,
21
- channels=512,
22
- pam_channels=64,
23
- dropout_ratio=0.1,
24
- num_classes=19,
25
- norm_cfg=norm_cfg,
26
- align_corners=False,
27
- loss_decode=dict(
28
- type='CrossEntropyLoss', use_sigmoid=False, loss_weight=1.0)),
29
- auxiliary_head=dict(
30
- type='FCNHead',
31
- in_channels=1024,
32
- in_index=2,
33
- channels=256,
34
- num_convs=1,
35
- concat_input=False,
36
- dropout_ratio=0.1,
37
- num_classes=19,
38
- norm_cfg=norm_cfg,
39
- align_corners=False,
40
- loss_decode=dict(
41
- type='CrossEntropyLoss', use_sigmoid=False, loss_weight=0.4)),
42
- # model training and testing settings
43
- train_cfg=dict(),
44
- test_cfg=dict(mode='whole'))
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Andy1621/uniformer_image_segmentation/configs/_base_/models/pointrend_r50.py DELETED
@@ -1,56 +0,0 @@
1
- # model settings
2
- norm_cfg = dict(type='SyncBN', requires_grad=True)
3
- model = dict(
4
- type='CascadeEncoderDecoder',
5
- num_stages=2,
6
- pretrained='open-mmlab://resnet50_v1c',
7
- backbone=dict(
8
- type='ResNetV1c',
9
- depth=50,
10
- num_stages=4,
11
- out_indices=(0, 1, 2, 3),
12
- dilations=(1, 1, 1, 1),
13
- strides=(1, 2, 2, 2),
14
- norm_cfg=norm_cfg,
15
- norm_eval=False,
16
- style='pytorch',
17
- contract_dilation=True),
18
- neck=dict(
19
- type='FPN',
20
- in_channels=[256, 512, 1024, 2048],
21
- out_channels=256,
22
- num_outs=4),
23
- decode_head=[
24
- dict(
25
- type='FPNHead',
26
- in_channels=[256, 256, 256, 256],
27
- in_index=[0, 1, 2, 3],
28
- feature_strides=[4, 8, 16, 32],
29
- channels=128,
30
- dropout_ratio=-1,
31
- num_classes=19,
32
- norm_cfg=norm_cfg,
33
- align_corners=False,
34
- loss_decode=dict(
35
- type='CrossEntropyLoss', use_sigmoid=False, loss_weight=1.0)),
36
- dict(
37
- type='PointHead',
38
- in_channels=[256],
39
- in_index=[0],
40
- channels=256,
41
- num_fcs=3,
42
- coarse_pred_each_layer=True,
43
- dropout_ratio=-1,
44
- num_classes=19,
45
- align_corners=False,
46
- loss_decode=dict(
47
- type='CrossEntropyLoss', use_sigmoid=False, loss_weight=1.0))
48
- ],
49
- # model training and testing settings
50
- train_cfg=dict(
51
- num_points=2048, oversample_ratio=3, importance_sample_ratio=0.75),
52
- test_cfg=dict(
53
- mode='whole',
54
- subdivision_steps=2,
55
- subdivision_num_points=8196,
56
- scale_factor=2))
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Anonymous-sub/Rerender/ControlNet/annotator/uniformer/configs/_base_/schedules/schedule_80k.py DELETED
@@ -1,9 +0,0 @@
1
- # optimizer
2
- optimizer = dict(type='SGD', lr=0.01, momentum=0.9, weight_decay=0.0005)
3
- optimizer_config = dict()
4
- # learning policy
5
- lr_config = dict(policy='poly', power=0.9, min_lr=1e-4, by_epoch=False)
6
- # runtime settings
7
- runner = dict(type='IterBasedRunner', max_iters=80000)
8
- checkpoint_config = dict(by_epoch=False, interval=8000)
9
- evaluation = dict(interval=8000, metric='mIoU')
 
 
 
 
 
 
 
 
 
 
spaces/Anonymous-sub/Rerender/ControlNet/annotator/uniformer/mmseg/ops/wrappers.py DELETED
@@ -1,50 +0,0 @@
1
- import warnings
2
-
3
- import torch.nn as nn
4
- import torch.nn.functional as F
5
-
6
-
7
- def resize(input,
8
- size=None,
9
- scale_factor=None,
10
- mode='nearest',
11
- align_corners=None,
12
- warning=True):
13
- if warning:
14
- if size is not None and align_corners:
15
- input_h, input_w = tuple(int(x) for x in input.shape[2:])
16
- output_h, output_w = tuple(int(x) for x in size)
17
- if output_h > input_h or output_w > output_h:
18
- if ((output_h > 1 and output_w > 1 and input_h > 1
19
- and input_w > 1) and (output_h - 1) % (input_h - 1)
20
- and (output_w - 1) % (input_w - 1)):
21
- warnings.warn(
22
- f'When align_corners={align_corners}, '
23
- 'the output would more aligned if '
24
- f'input size {(input_h, input_w)} is `x+1` and '
25
- f'out size {(output_h, output_w)} is `nx+1`')
26
- return F.interpolate(input, size, scale_factor, mode, align_corners)
27
-
28
-
29
- class Upsample(nn.Module):
30
-
31
- def __init__(self,
32
- size=None,
33
- scale_factor=None,
34
- mode='nearest',
35
- align_corners=None):
36
- super(Upsample, self).__init__()
37
- self.size = size
38
- if isinstance(scale_factor, tuple):
39
- self.scale_factor = tuple(float(factor) for factor in scale_factor)
40
- else:
41
- self.scale_factor = float(scale_factor) if scale_factor else None
42
- self.mode = mode
43
- self.align_corners = align_corners
44
-
45
- def forward(self, x):
46
- if not self.size:
47
- size = [int(t * self.scale_factor) for t in x.shape[-2:]]
48
- else:
49
- size = self.size
50
- return resize(x, size, None, self.mode, self.align_corners)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/AnthonyTruchetPoC/persistent-docker/README.md DELETED
@@ -1,192 +0,0 @@
1
- ---
2
- title: Jupyter and Streamlit Docker Template
3
- emoji: 📉
4
- colorFrom: blue
5
- colorTo: green
6
- sdk: docker
7
- python_version: "3.10"
8
- app_port: 7860
9
- app_file: src/app.py
10
- suggested_storage: small
11
- pinned: false
12
- duplicated_from: SpacesExamples/streamlit-docker-example
13
- ---
14
-
15
- # 🧠 Persistent Jupyter and Streamlit Docker Template 🔎
16
-
17
- Streamlit Docker Template is a template for creating a Streamlit app with Docker and Hugging Face Spaces.
18
-
19
- Code from https://docs.streamlit.io/library/get-started/create-an-app
20
-
21
- ## Local execution ##
22
-
23
- You need *Docker* installed.
24
- On MacOSX we recommand using *colima* if you do not want to use *Docker Desktop*
25
- for licensing reasons.
26
-
27
- * https://docs.docker.com/desktop/install/mac-install/
28
- * https://github.com/abiosoft/colima
29
-
30
- ```shell
31
- $ colima start --cpu 4 --memory 16 --network-address # Adjust ressources as you wish
32
- $ docker build -t persistent-docker-space .
33
- $ docker run -it -p 8501:8501 persistent-docker-space:latest
34
-
35
- ```
36
-
37
- ## Setting-up the developpers'tooling
38
-
39
- ### Install `poetry`
40
-
41
- https://python-poetry.org/
42
-
43
- #### Linux and Mac
44
-
45
- It should be straightforward with the official documentation
46
-
47
- #### Windows (PowerShell)
48
-
49
- ```shell
50
- (Invoke-WebRequest -Uri https://install.python-poetry.org -UseBasicParsing).Content | py -
51
- ```
52
-
53
- The execution will probably be stored at the address: `C:\User\<myUserName>\AppData\Roaming\pypoetry\venv\Scripts` and this
54
- path should be included in the environment path of your machine in order to avoid typing it every time poetry is used.
55
- To do so you can execute the following commands:
56
-
57
- ```shell
58
- $Env:Path += ";C:\Users\YourUserName\AppData\Roaming\Python\Scripts"
59
- ```
60
-
61
- This will only make the change in the path temporarily. In order to do it permanently you can execute the following command
62
- ```shell
63
- setx PATH "$Env:Path"
64
- ```
65
-
66
- ### Configuration of the `poetry` environment
67
-
68
- After having installed poetry in your local machine, if there is already a `poetry.lock` file on your repository, you
69
- can execute
70
-
71
- ```shell
72
- poetry install
73
- ```
74
-
75
- If it is not the case you can
76
-
77
- ```shell
78
- poetry init
79
- poetry env use "whatever version of python you have in your local machine (compatible with the project)"
80
- poetry shell
81
- ```
82
-
83
- ### pre-commit
84
-
85
- https://pre-commit.com/
86
-
87
- If there is already a `poetry.lock` file with `pre-commit` present in it, you should activate your poetry environment
88
- and then install all the pre-commit hooks on your machine
89
-
90
- ```shell
91
- poetry shell
92
- pre-commit install
93
- pre-commit install --install-hooks
94
- ```
95
-
96
- If not, you should first add `pre-commit` to your poetry environment, and follow the steps above
97
-
98
- ```shell
99
- poetry add --group=dev pre-commit
100
- ```
101
-
102
- ### commitizen
103
-
104
- https://www.conventionalcommits.org/en/about/
105
-
106
- https://commitizen-tools.github.io/commitizen/
107
-
108
-
109
- Commitizen will be installed as a pre-commit hook. In order for it to be executed before committing
110
- you should run the following command (after activating your poetry environment)
111
-
112
- ```shell
113
- pre-commit install --hook-type commit-msg
114
- ```
115
-
116
- Finally, every time you will be committing, you should be places in your poetry environment and commitizen hooks
117
- should be applied
118
-
119
- ### testing
120
-
121
- There are two different kinds of tests that can be run when testing the scripts: unit tests or doctest
122
-
123
- These tests can be run by executing the following command:
124
-
125
- ```shell
126
- ./scripts/run-tests.sh
127
- ```
128
-
129
- #### pytest
130
-
131
- https://docs.pytest.org/en/7.2.x/
132
-
133
- These tests should be stored in the directory `tests` at the root of the project
134
-
135
- #### xdoctest (driven by pytest)
136
-
137
- These are the tests that are put in the docstrings of the functions accordingly to the following format:
138
-
139
- ```python
140
- def build_greetings(name: Optional[str] = None) -> str:
141
- """
142
- Return a greeting message, possibly customize with a name.
143
-
144
- >>> build_greetings()
145
- 'Hello, World!'
146
- >>> build_greetings('Toto')
147
- 'Nice to meet you, Toto!'
148
- """
149
- return name and f"Nice to meet you, {name}!" or "Hello, World!"
150
- ```
151
-
152
- The evaluated values would be the ones following the `>>>`
153
-
154
- ### documentation
155
-
156
- https://www.sphinx-doc.org/en/master/
157
-
158
- In order to create an automatic documentation of your code you should run the bash script
159
-
160
- ```shell
161
- ./scripts/build-clean-docs.sh
162
- ```
163
-
164
- And in order to create an interactive session (web-server hosted in your local machine), you can execute the
165
- following command
166
-
167
- ```shell
168
- ./scripts/interactive-rebuild-docs.sh
169
- ```
170
-
171
- Remark: In order to execute a bash script with a Windows OS, it is recommended to use a bash terminal emulator
172
-
173
- ## Hugging Face
174
-
175
- See instructions at https://huggingface.co/welcome
176
-
177
- Install `huggingface_hub` into the poetry project.
178
-
179
- ```shell
180
- poetry add --group=dev huggingface_hub
181
- ```
182
-
183
- On MacOS, you might probably want to install `hugginface-cli` from brew :
184
- ```shell
185
- $ brew install huggingface-cli
186
- ```
187
-
188
- In order to deploy the streamlit app you will have to export
189
- the poetry config as a `requirements.txt` :
190
- ```shell
191
- $ poetry export -o ../requirements.txt --without-hashes --only main
192
- ```
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/BartPoint/VoiceChange/vc_infer_pipeline.py DELETED
@@ -1,385 +0,0 @@
1
- import numpy as np, parselmouth, torch, pdb
2
- from time import time as ttime
3
- import torch.nn.functional as F
4
- import scipy.signal as signal
5
- import pyworld, os, traceback, faiss, librosa, torchcrepe
6
- from scipy import signal
7
- from functools import lru_cache
8
-
9
- bh, ah = signal.butter(N=5, Wn=48, btype="high", fs=16000)
10
-
11
- input_audio_path2wav={}
12
-
13
- @lru_cache
14
- def cache_harvest_f0(input_audio_path,fs,f0max,f0min,frame_period):
15
- audio=input_audio_path2wav[input_audio_path]
16
- f0, t = pyworld.harvest(
17
- audio,
18
- fs=fs,
19
- f0_ceil=f0max,
20
- f0_floor=f0min,
21
- frame_period=frame_period,
22
- )
23
- f0 = pyworld.stonemask(audio, f0, t, fs)
24
- return f0
25
-
26
- def change_rms(data1,sr1,data2,sr2,rate):#1是输入音频,2是输出音频,rate是2的占比
27
- # print(data1.max(),data2.max())
28
- rms1 = librosa.feature.rms(y=data1, frame_length=sr1//2*2, hop_length=sr1//2)#每半秒一个点
29
- rms2 = librosa.feature.rms(y=data2, frame_length=sr2//2*2, hop_length=sr2//2)
30
- rms1=torch.from_numpy(rms1)
31
- rms1=F.interpolate(rms1.unsqueeze(0), size=data2.shape[0],mode='linear').squeeze()
32
- rms2=torch.from_numpy(rms2)
33
- rms2=F.interpolate(rms2.unsqueeze(0), size=data2.shape[0],mode='linear').squeeze()
34
- rms2=torch.max(rms2,torch.zeros_like(rms2)+1e-6)
35
- data2*=(torch.pow(rms1,torch.tensor(1-rate))*torch.pow(rms2,torch.tensor(rate-1))).numpy()
36
- return data2
37
-
38
- class VC(object):
39
- def __init__(self, tgt_sr, config):
40
- self.x_pad, self.x_query, self.x_center, self.x_max, self.is_half = (
41
- config.x_pad,
42
- config.x_query,
43
- config.x_center,
44
- config.x_max,
45
- config.is_half,
46
- )
47
- self.sr = 16000 # hubert输入采样率
48
- self.window = 160 # 每帧点数
49
- self.t_pad = self.sr * self.x_pad # 每条前后pad时间
50
- self.t_pad_tgt = tgt_sr * self.x_pad
51
- self.t_pad2 = self.t_pad * 2
52
- self.t_query = self.sr * self.x_query # 查询切点前后查询时间
53
- self.t_center = self.sr * self.x_center # 查询切点位置
54
- self.t_max = self.sr * self.x_max # 免查询时长阈值
55
- self.device = config.device
56
-
57
- def get_f0(self, input_audio_path,x, p_len, f0_up_key, f0_method,filter_radius, inp_f0=None):
58
- global input_audio_path2wav
59
- time_step = self.window / self.sr * 1000
60
- f0_min = 50
61
- f0_max = 1100
62
- f0_mel_min = 1127 * np.log(1 + f0_min / 700)
63
- f0_mel_max = 1127 * np.log(1 + f0_max / 700)
64
- if f0_method == "pm":
65
- f0 = (
66
- parselmouth.Sound(x, self.sr)
67
- .to_pitch_ac(
68
- time_step=time_step / 1000,
69
- voicing_threshold=0.6,
70
- pitch_floor=f0_min,
71
- pitch_ceiling=f0_max,
72
- )
73
- .selected_array["frequency"]
74
- )
75
- pad_size = (p_len - len(f0) + 1) // 2
76
- if pad_size > 0 or p_len - len(f0) - pad_size > 0:
77
- f0 = np.pad(
78
- f0, [[pad_size, p_len - len(f0) - pad_size]], mode="constant"
79
- )
80
- elif f0_method == "harvest":
81
- input_audio_path2wav[input_audio_path]=x.astype(np.double)
82
- f0=cache_harvest_f0(input_audio_path,self.sr,f0_max,f0_min,10)
83
- if(filter_radius>2):
84
- f0 = signal.medfilt(f0, 3)
85
- elif f0_method == "crepe":
86
- model = "full"
87
- # Pick a batch size that doesn't cause memory errors on your gpu
88
- batch_size = 512
89
- # Compute pitch using first gpu
90
- audio = torch.tensor(np.copy(x))[None].float()
91
- f0, pd = torchcrepe.predict(
92
- audio,
93
- self.sr,
94
- self.window,
95
- f0_min,
96
- f0_max,
97
- model,
98
- batch_size=batch_size,
99
- device=self.device,
100
- return_periodicity=True,
101
- )
102
- pd = torchcrepe.filter.median(pd, 3)
103
- f0 = torchcrepe.filter.mean(f0, 3)
104
- f0[pd < 0.1] = 0
105
- f0 = f0[0].cpu().numpy()
106
- f0 *= pow(2, f0_up_key / 12)
107
- # with open("test.txt","w")as f:f.write("\n".join([str(i)for i in f0.tolist()]))
108
- tf0 = self.sr // self.window # 每秒f0点数
109
- if inp_f0 is not None:
110
- delta_t = np.round(
111
- (inp_f0[:, 0].max() - inp_f0[:, 0].min()) * tf0 + 1
112
- ).astype("int16")
113
- replace_f0 = np.interp(
114
- list(range(delta_t)), inp_f0[:, 0] * 100, inp_f0[:, 1]
115
- )
116
- shape = f0[self.x_pad * tf0 : self.x_pad * tf0 + len(replace_f0)].shape[0]
117
- f0[self.x_pad * tf0 : self.x_pad * tf0 + len(replace_f0)] = replace_f0[
118
- :shape
119
- ]
120
- # with open("test_opt.txt","w")as f:f.write("\n".join([str(i)for i in f0.tolist()]))
121
- f0bak = f0.copy()
122
- f0_mel = 1127 * np.log(1 + f0 / 700)
123
- f0_mel[f0_mel > 0] = (f0_mel[f0_mel > 0] - f0_mel_min) * 254 / (
124
- f0_mel_max - f0_mel_min
125
- ) + 1
126
- f0_mel[f0_mel <= 1] = 1
127
- f0_mel[f0_mel > 255] = 255
128
- f0_coarse = np.rint(f0_mel).astype(int)
129
- return f0_coarse, f0bak # 1-0
130
-
131
- def vc(
132
- self,
133
- model,
134
- net_g,
135
- sid,
136
- audio0,
137
- pitch,
138
- pitchf,
139
- times,
140
- index,
141
- big_npy,
142
- index_rate,
143
- version,
144
- ): # ,file_index,file_big_npy
145
- feats = torch.from_numpy(audio0)
146
- if self.is_half:
147
- feats = feats.half()
148
- else:
149
- feats = feats.float()
150
- if feats.dim() == 2: # double channels
151
- feats = feats.mean(-1)
152
- assert feats.dim() == 1, feats.dim()
153
- feats = feats.view(1, -1)
154
- padding_mask = torch.BoolTensor(feats.shape).to(self.device).fill_(False)
155
-
156
- inputs = {
157
- "source": feats.to(self.device),
158
- "padding_mask": padding_mask,
159
- "output_layer": 9 if version == "v1" else 12,
160
- }
161
- t0 = ttime()
162
- with torch.no_grad():
163
- logits = model.extract_features(**inputs)
164
- feats = model.final_proj(logits[0])if version=="v1"else logits[0]
165
-
166
- if (
167
- isinstance(index, type(None)) == False
168
- and isinstance(big_npy, type(None)) == False
169
- and index_rate != 0
170
- ):
171
- npy = feats[0].cpu().numpy()
172
- if self.is_half:
173
- npy = npy.astype("float32")
174
-
175
- # _, I = index.search(npy, 1)
176
- # npy = big_npy[I.squeeze()]
177
-
178
- score, ix = index.search(npy, k=8)
179
- weight = np.square(1 / score)
180
- weight /= weight.sum(axis=1, keepdims=True)
181
- npy = np.sum(big_npy[ix] * np.expand_dims(weight, axis=2), axis=1)
182
-
183
- if self.is_half:
184
- npy = npy.astype("float16")
185
- feats = (
186
- torch.from_numpy(npy).unsqueeze(0).to(self.device) * index_rate
187
- + (1 - index_rate) * feats
188
- )
189
-
190
- feats = F.interpolate(feats.permute(0, 2, 1), scale_factor=2).permute(0, 2, 1)
191
- t1 = ttime()
192
- p_len = audio0.shape[0] // self.window
193
- if feats.shape[1] < p_len:
194
- p_len = feats.shape[1]
195
- if pitch != None and pitchf != None:
196
- pitch = pitch[:, :p_len]
197
- pitchf = pitchf[:, :p_len]
198
- p_len = torch.tensor([p_len], device=self.device).long()
199
- with torch.no_grad():
200
- if pitch != None and pitchf != None:
201
- audio1 = (
202
- (net_g.infer(feats, p_len, pitch, pitchf, sid)[0][0, 0])
203
- .data.cpu()
204
- .float()
205
- .numpy()
206
- )
207
- else:
208
- audio1 = (
209
- (net_g.infer(feats, p_len, sid)[0][0, 0])
210
- .data.cpu()
211
- .float()
212
- .numpy()
213
- )
214
- del feats, p_len, padding_mask
215
- if torch.cuda.is_available():
216
- torch.cuda.empty_cache()
217
- t2 = ttime()
218
- times[0] += t1 - t0
219
- times[2] += t2 - t1
220
- return audio1
221
-
222
- def pipeline(
223
- self,
224
- model,
225
- net_g,
226
- sid,
227
- audio,
228
- input_audio_path,
229
- times,
230
- f0_up_key,
231
- f0_method,
232
- file_index,
233
- # file_big_npy,
234
- index_rate,
235
- if_f0,
236
- filter_radius,
237
- tgt_sr,
238
- resample_sr,
239
- rms_mix_rate,
240
- version,
241
- f0_file=None,
242
- ):
243
- if (
244
- file_index != ""
245
- # and file_big_npy != ""
246
- # and os.path.exists(file_big_npy) == True
247
- and os.path.exists(file_index) == True
248
- and index_rate != 0
249
- ):
250
- try:
251
- index = faiss.read_index(file_index)
252
- # big_npy = np.load(file_big_npy)
253
- big_npy = index.reconstruct_n(0, index.ntotal)
254
- except:
255
- traceback.print_exc()
256
- index = big_npy = None
257
- else:
258
- index = big_npy = None
259
- audio = signal.filtfilt(bh, ah, audio)
260
- audio_pad = np.pad(audio, (self.window // 2, self.window // 2), mode="reflect")
261
- opt_ts = []
262
- if audio_pad.shape[0] > self.t_max:
263
- audio_sum = np.zeros_like(audio)
264
- for i in range(self.window):
265
- audio_sum += audio_pad[i : i - self.window]
266
- for t in range(self.t_center, audio.shape[0], self.t_center):
267
- opt_ts.append(
268
- t
269
- - self.t_query
270
- + np.where(
271
- np.abs(audio_sum[t - self.t_query : t + self.t_query])
272
- == np.abs(audio_sum[t - self.t_query : t + self.t_query]).min()
273
- )[0][0]
274
- )
275
- s = 0
276
- audio_opt = []
277
- t = None
278
- t1 = ttime()
279
- audio_pad = np.pad(audio, (self.t_pad, self.t_pad), mode="reflect")
280
- p_len = audio_pad.shape[0] // self.window
281
- inp_f0 = None
282
- if hasattr(f0_file, "name") == True:
283
- try:
284
- with open(f0_file.name, "r") as f:
285
- lines = f.read().strip("\n").split("\n")
286
- inp_f0 = []
287
- for line in lines:
288
- inp_f0.append([float(i) for i in line.split(",")])
289
- inp_f0 = np.array(inp_f0, dtype="float32")
290
- except:
291
- traceback.print_exc()
292
- sid = torch.tensor(sid, device=self.device).unsqueeze(0).long()
293
- pitch, pitchf = None, None
294
- if if_f0 == 1:
295
- pitch, pitchf = self.get_f0(input_audio_path,audio_pad, p_len, f0_up_key, f0_method,filter_radius, inp_f0)
296
- pitch = pitch[:p_len]
297
- pitchf = pitchf[:p_len]
298
- if self.device == "mps":
299
- pitchf = pitchf.astype(np.float32)
300
- pitch = torch.tensor(pitch, device=self.device).unsqueeze(0).long()
301
- pitchf = torch.tensor(pitchf, device=self.device).unsqueeze(0).float()
302
- t2 = ttime()
303
- times[1] += t2 - t1
304
- for t in opt_ts:
305
- t = t // self.window * self.window
306
- if if_f0 == 1:
307
- audio_opt.append(
308
- self.vc(
309
- model,
310
- net_g,
311
- sid,
312
- audio_pad[s : t + self.t_pad2 + self.window],
313
- pitch[:, s // self.window : (t + self.t_pad2) // self.window],
314
- pitchf[:, s // self.window : (t + self.t_pad2) // self.window],
315
- times,
316
- index,
317
- big_npy,
318
- index_rate,
319
- version,
320
- )[self.t_pad_tgt : -self.t_pad_tgt]
321
- )
322
- else:
323
- audio_opt.append(
324
- self.vc(
325
- model,
326
- net_g,
327
- sid,
328
- audio_pad[s : t + self.t_pad2 + self.window],
329
- None,
330
- None,
331
- times,
332
- index,
333
- big_npy,
334
- index_rate,
335
- version,
336
- )[self.t_pad_tgt : -self.t_pad_tgt]
337
- )
338
- s = t
339
- if if_f0 == 1:
340
- audio_opt.append(
341
- self.vc(
342
- model,
343
- net_g,
344
- sid,
345
- audio_pad[t:],
346
- pitch[:, t // self.window :] if t is not None else pitch,
347
- pitchf[:, t // self.window :] if t is not None else pitchf,
348
- times,
349
- index,
350
- big_npy,
351
- index_rate,
352
- version,
353
- )[self.t_pad_tgt : -self.t_pad_tgt]
354
- )
355
- else:
356
- audio_opt.append(
357
- self.vc(
358
- model,
359
- net_g,
360
- sid,
361
- audio_pad[t:],
362
- None,
363
- None,
364
- times,
365
- index,
366
- big_npy,
367
- index_rate,
368
- version,
369
- )[self.t_pad_tgt : -self.t_pad_tgt]
370
- )
371
- audio_opt = np.concatenate(audio_opt)
372
- if(rms_mix_rate!=1):
373
- audio_opt=change_rms(audio,16000,audio_opt,tgt_sr,rms_mix_rate)
374
- if(resample_sr>=16000 and tgt_sr!=resample_sr):
375
- audio_opt = librosa.resample(
376
- audio_opt, orig_sr=tgt_sr, target_sr=resample_sr
377
- )
378
- audio_max=np.abs(audio_opt).max()/0.99
379
- max_int16=32768
380
- if(audio_max>1):max_int16/=audio_max
381
- audio_opt=(audio_opt * max_int16).astype(np.int16)
382
- del pitch, pitchf, sid
383
- if torch.cuda.is_available():
384
- torch.cuda.empty_cache()
385
- return audio_opt
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Benson/text-generation/Examples/0 Delay Metro Surfistas Apk.md DELETED
@@ -1,89 +0,0 @@
1
- <br />
2
- <h1>0 Delay metro surfistas APK: Cómo descargar y jugar la versión más rápida del juego</h1>
3
- <p>Subway Surfers es uno de los juegos para correr sin fin más populares en dispositivos Android. Tiene millones de fans en todo el mundo que disfrutan de la emoción de esquivar trenes, recoger monedas y desbloquear nuevos personajes y tablas. Pero lo que si quieres jugar el juego sin retraso, sin anuncios, y sin interrupciones? Ahí es donde 0 Delay Subway Surfers APK entra en. En este artículo, le diremos qué es 0 Delay Subway Surfers APK, cómo descargarlo e instalarlo, y cómo jugarlo como un profesional. </p>
4
- <h2>0 delay metro surfistas apk</h2><br /><p><b><b>Download File</b> &#128279; <a href="https://bltlly.com/2v6Kyk">https://bltlly.com/2v6Kyk</a></b></p><br /><br />
5
- <h2>¿Qué es Subway Surfers? </h2>
6
- <p>Subway Surfers es un juego sin fin desarrollado por Kiloo y SYBO Games. Fue lanzado en 2012 y desde entonces se ha convertido en uno de los juegos más descargados en Google Play Store. El juego se desarrolla en varias ciudades de todo el mundo, donde controlas a un artista de graffiti que huye de la policía en las vías del metro. En el camino, tienes que evitar obstáculos, recoger monedas y potenciadores, y completar misiones. </p>
7
- <h3>El juego de Subway Surfers</h3>
8
- <p>El juego de Subway Surfers es simple pero adictivo. Desliza hacia la izquierda o hacia la derecha para cambiar de carril, desliza hacia arriba para saltar, desliza hacia abajo para rodar y toca para usar power-ups. También puedes realizar acrobacias saltando en trenes o volando con un jetpack. El juego se hace más rápido y más difícil a medida que avanzas, por lo que tienes que ser rápido y alerta. El juego termina cuando chocas contra un obstáculo o te atrapa la policía. </p>
9
- <h3>Las características de Subway Surfers</h3>
10
- <p>Subway Surfers tiene muchas características que lo hacen divertido y atractivo. Algunos de ellos son:</p>
11
- <ul>
12
- <li>Puedes elegir entre diferentes personajes y tableros, cada uno con sus propias habilidades y estilos. </li>
13
- <li>Puedes personalizar tu personaje y tablero con atuendos, accesorios y mejoras. </li>
14
- <li>Puedes explorar diferentes lugares y temas, como Nueva York, Tokio, París, Río, etc.</li>
15
-
16
- <li>Puedes competir con tus amigos y otros jugadores en la clasificación y los logros. </li>
17
- <li>Puedes ver videos y anuncios para ganar monedas y llaves adicionales. </li>
18
- </ul>
19
- <h2>¿Qué es 0 Delay Subway Surfers APK? </h2>
20
- <p>0 Delay Subway Surfers APK es una versión modificada del juego original que elimina todos los retrasos, anuncios e interrupciones que pueden afectar a su experiencia de juego. También desbloquea todos los personajes, tableros, trajes, accesorios y mejoras que normalmente tienes que pagar o ganar en el juego. Con 0 Delay Subway Surfers APK, puede disfrutar del juego sin ningún tipo de molestia o limitación. </p>
21
- <h3> La diferencia entre 0 Delay Subway Surfers APK y la versión original</h3>
22
- <p>La principal diferencia entre 0 Delay Subway Surfers APK y la versión original es que 0 Delay Subway Surfers APK no tiene retraso o retraso en la carga o ejecución del juego. Esto significa que usted puede jugar el juego sin problemas y sin problemas sin problemas o errores. Otra diferencia es que 0 Delay Subway Surfers APK no tiene anuncios o ventanas emergentes que pueden distraer o perder el tiempo. Esto significa que puedes jugar el juego sin interrupciones ni interrupciones. La tercera diferencia es que 0 Delay Subway Surfers APK tiene todo el contenido desbloqueado e ilimitado. Esto significa que puedes acceder a todos los personajes, tableros, trajes, accesorios y mejoras sin gastar dinero ni monedas. También puedes tener monedas y llaves ilimitadas para usar en el juego. </p>
23
- <p></p>
24
- <h3>Los beneficios de 0 Delay metro surfistas APK</h3>
25
- <p>0 Delay Subway Surfers APK tiene muchos beneficios que lo hacen una mejor opción que la versión original. Algunos de ellos son:</p>
26
- <ul>
27
- <li> Puede disfrutar del juego con un rendimiento más rápido y suave, sin ningún retraso o demora. </li>
28
- <li> Puedes evitar anuncios molestos y ventanas emergentes que pueden arruinar tu experiencia de juego. </li>
29
- <li>Puedes tener más libertad y variedad en la elección y personalización de tu personaje y tablero. </li>
30
-
31
- <li>Puedes participar en todos los eventos y desafíos sin ninguna dificultad u obstáculo. </li>
32
- <li>Puedes competir con tus amigos y otros jugadores con más ventaja y confianza. </li>
33
- <li> Puede ahorrar tiempo y dinero al no tener que ver videos o anuncios o comprar monedas y llaves. </li>
34
- </ul>
35
- <h2>Cómo descargar e instalar 0 Delay Subway Surfers APK? </h2>
36
- <p>Descargar e instalar 0 Delay Subway Surfers APK es fácil y simple. Sin embargo, debe tomar algunas precauciones antes de hacerlo, ya que no es una versión oficial del juego y puede no ser compatible con su dispositivo o seguro para sus datos. Aquí están los pasos para descargar e instalar 0 Delay Subway Surfers APK:</p>
37
- <h3>Los pasos para descargar e instalar 0 Delay Subway Surfers APK</h3>
38
- <ol>
39
- <li>Ir a un sitio web de confianza que proporciona el enlace para descargar 0 Delay Subway Surfers APK. Por ejemplo, se puede utilizar [este enlace] para descargar la última versión de 0 Delay Subway Surfers APK. </li>
40
- <li>Haga clic en el botón de descarga y espere a que el archivo se descargue en su dispositivo. El tamaño del archivo es de unos 100 MB, así que asegúrate de tener suficiente espacio en tu dispositivo. </li>
41
- <li>Una vez que el archivo se descarga, ir a la configuración del dispositivo y permitir la opción de instalar aplicaciones de fuentes desconocidas. Esto le permitirá instalar 0 Delay Subway Surfers APK en su dispositivo. </li>
42
- <li>Busque el archivo descargado en su dispositivo y toque en él para iniciar el proceso de instalación. Siga las instrucciones de la pantalla y espere a que se complete la instalación. </li>
43
- <li>Después de la instalación se hace, puede iniciar el juego desde el cajón de la aplicación o la pantalla de inicio. Verá un nuevo icono con 0 Delay Subway Surfers APK en él. </li>
44
- </ol>
45
- <h3>Las precauciones a tomar antes de descargar e instalar 0 Delay Subway Surfers APK</h3>
46
-
47
- <ul>
48
- <li>Asegúrese de descargar 0 Delay Subway Surfers APK desde un sitio web confiable y seguro. Evite descargarlo de fuentes desconocidas o sospechosas que puedan contener malware o virus. </li>
49
- <li>Asegúrese de copia de seguridad de sus datos antes de instalar 0 Delay Subway Surfers APK. Esto le ayudará a restaurar sus datos en caso de que algo salga mal durante o después de la instalación. </li>
50
- <li>Asegúrese de desinstalar la versión original de Subway Surfers antes de instalar 0 Delay Subway Surfers APK. Esto evitará cualquier conflicto o error entre las dos versiones del juego. </li>
51
- <li>Asegúrese de que tiene una buena conexión a Internet durante la descarga e instalación 0 Delay Subway Surfers APK. Esto asegurará un proceso suave y rápido sin interrupciones o fallas. </li>
52
- </ul>
53
- <h2>Cómo jugar 0 Delay metro surfistas APK? </h2>
54
- <p>Jugar 0 Delay Subway Surfers APK es similar a jugar la versión original del juego, excepto que tienes más opciones y características para disfrutar. Aquí hay algunos consejos y trucos para jugar 0 Delay Subway Surfers APK:</p>
55
- <h3> Los consejos y trucos para jugar 0 Delay Subway Surfers APK</h3>
56
- <ul>
57
- <li>Prueba diferentes caracteres y tableros que se adapten a tu estilo y preferencia. Puedes elegir entre más de 100 personajes y tableros, cada uno con sus propias habilidades y diseños. </li>
58
- <li>Pruebe diferentes trajes y accesorios que mejoran su apariencia y rendimiento. Puedes personalizar tu personaje y tablero con más de 200 atuendos y accesorios, cada uno con sus propios efectos y bonificaciones. </li>
59
- <li>Prueba diferentes lugares y temas que ofrecen diferentes desafíos y recompensas. Puedes explorar más de 50 lugares y temas, cada uno con su propio escenario y banda sonora. </li>
60
- <li>Prueba diferentes eventos y desafíos que ponen a prueba tus habilidades y te dan más monedas y llaves. Puedes participar en más de 20 eventos y desafíos, cada uno con sus propios objetivos y recompensas. </li>
61
-
62
- <li>Pruebe diferentes trucos y acrobacias que aumentan su puntuación y diversión. Puedes realizar más de 20 trucos y acrobacias, como saltar en trenes, volar con un jetpack, navegar en un hoverboard, etc.</li>
63
- </ul>
64
- <h3> Los desafíos y recompensas de jugar 0 Delay Subway Surfers APK</h3>
65
- <p>Jugar 0 Delay Subway Surfers APK no solo es divertido, sino también desafiante y gratificante. Algunos de los desafíos y recompensas de jugar 0 Delay Subway Surfers APK son:</p>
66
- <ul>
67
- <li>Puedes desafiarte a ti mismo aumentando el nivel de dificultad del juego. Puedes hacer esto cambiando los ajustes, como la velocidad, el número de trenes, la frecuencia de obstáculos, etc.</li>
68
- <li>Puedes desafiar a tus amigos y otros jugadores comparando tus puntajes y logros. Puedes hacer esto conectando tu juego a Facebook o Google Play Games, o usando las funciones de clasificación y logros. </li>
69
- <li>Puedes recompensarte desbloqueando nuevos contenidos y artículos. Puedes hacer esto completando misiones, recogiendo monedas y llaves, participando en eventos y desafíos, etc.</li>
70
- <li>Puedes recompensarte disfrutando de los gráficos y efectos de sonido del juego. Puedes hacer esto admirando los gráficos coloridos y detallados, escuchando la música pegadiza y optimista, escuchando los sonidos realistas y divertidos, etc.</li>
71
- </ul>
72
- <h2>Conclusión</h2>
73
- <p>0 Delay Subway Surfers APK es una gran manera de disfrutar de Subway Surfers sin ningún retraso, anuncios o limitaciones. Te da acceso a todo el contenido y características del juego, así como algunos beneficios y ventajas adicionales. También le permite jugar el juego con un rendimiento más rápido y suave, más libertad y variedad, más desafíos y recompensas, y más diversión y emoción. Si usted es un fan de Subway Surfers o interminables juegos de correr en general, definitivamente debe probar 0 Delay Subway Surfers APK.</p>
74
- <h2>Preguntas frecuentes</h2>
75
- <p>Aquí hay algunas preguntas frecuentes sobre 0 Delay Subway Surfers APK:</p>
76
- <ol>
77
-
78
- 0 Delay Subway Surfers APK es seguro de usar, siempre y cuando se descarga desde un sitio web confiable y seguro. Sin embargo, siempre debe tener cuidado al descargar e instalar cualquier aplicación de fuentes desconocidas, ya que pueden contener malware o virus que pueden dañar su dispositivo o datos. </li>
79
- <li><b>Es 0 Delay Subway Surfers APK legal de usar? </b><br>
80
- 0 Delay Subway Surfers APK no es legal de usar, ya que viola los términos y condiciones del juego original. También infringe los derechos de propiedad intelectual de los desarrolladores y editores de Subway Surfers. Por lo tanto, usted debe utilizar 0 Delay Subway Surfers APK a su propio riesgo y discreción. </li>
81
- <li><b>Will 0 Delay Subway Surfers APK trabajo en mi dispositivo? </b><br>
82
- 0 Delay Subway Surfers APK trabajará en la mayoría de los dispositivos Android que admiten la versión original de Subway Surfers. Sin embargo, es posible que no funcione en algunos dispositivos que tienen especificaciones bajas o software incompatible. Por lo tanto, usted debe comprobar la compatibilidad de su dispositivo antes de descargar e instalar 0 Delay Subway Surfers APK.</li>
83
- <li><b>Will 0 Delay Subway Surfers APK afecta a mis datos originales del juego? </b><br>
84
- 0 Delay Subway Surfers APK no afectará a sus datos originales del juego si desinstala la versión original de Subway Surfers antes de instalar 0 Delay Subway Surfers APK. Sin embargo, si instala 0 Delay Subway Surfers APK sin desinstalar la versión original de Subway Surfers, puede sobrescribir o corromper los datos originales del juego. Por lo tanto, usted debe copia de seguridad de sus datos antes de instalar 0 Delay Subway Surfers APK.</li>
85
- <li><b>¿Puedo actualizar 0 Delay Subway Surfers APK? </b><br>
86
-
87
- </ol></p> 64aa2da5cf<br />
88
- <br />
89
- <br />
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Benson/text-generation/Examples/4 Juego De Cartas Solitario De Araa Traje.md DELETED
@@ -1,103 +0,0 @@
1
-
2
- <h1>4 Juego de Cartas Solitario de Araña Traje Descargar</h1>
3
- <p>¿Estás buscando un juego de cartas divertido y desafiante que puedas jugar en tu ordenador o dispositivo móvil? Si es así, es posible que desee probar Spider Solitaire, uno de los juegos de cartas clásicas más populares del mundo. En este artículo, le diremos todo lo que necesita saber sobre Spider Solitaire, incluyendo qué es, cómo jugarlo, por qué debe jugarlo, dónde descargarlo, cómo instalarlo y ejecutarlo, y algunos consejos y trucos para ayudarlo a dominarlo. ¡Vamos a empezar! </p>
4
- <h2>4 juego de cartas solitario de araña traje</h2><br /><p><b><b>Download</b> &rArr; <a href="https://bltlly.com/2v6KFX">https://bltlly.com/2v6KFX</a></b></p><br /><br />
5
- <h2>¿Qué es Spider Solitaire? </h2>
6
- <p>Spider Solitaire es un tipo de juego de solitario que consiste en organizar cartas en orden descendente de Rey a As en el mismo palo. El juego se juega con dos barajas de cartas, lo que significa que hay ocho palos en total. Dependiendo del nivel de dificultad, puedes elegir jugar con un traje (fácil), dos palos (medio) o cuatro palos (duro). El juego tiene 10 columnas de cartas en el tablero, y 8 cimientos vacíos en la parte superior. El objetivo es mover todas las cartas del tablero a los cimientos formando secuencias completas de cartas del mismo palo. </p>
7
- <h3>Cómo jugar solitario de araña</h3>
8
- <p>Jugar al solitario de araña es fácil si conoces las reglas básicas. Estos son los pasos a seguir:</p>
9
- <ol>
10
- <li>Haga clic en la pila de existencias (en la esquina superior izquierda) para repartir 10 cartas boca arriba en cada columna del tablero. Puedes hacer esto cuando quieras, siempre y cuando no haya columnas vacías. </li>
11
- <li>Arrastre y suelte tarjetas para moverlas entre las columnas. Solo puedes mover una carta o un grupo de cartas si están en orden descendente y en el mismo palo. Por ejemplo, puedes mover un 9 de corazones a un 10 de corazones, pero no a un 10 de picas. </li>
12
- <li> Si una columna está vacía, puede mover cualquier tarjeta o un grupo de tarjetas sobre ella. </li>
13
-
14
- <li>El juego se gana cuando las ocho fundaciones se llenan con secuencias completas de cartas en el mismo palo. </li>
15
- </ol>
16
- <h3>¿Por qué jugar solitario de araña? </h3>
17
- <p>Spider Solitaire no es solo un juego divertido y relajante, sino también una gran manera de ejercitar tu cerebro y mejorar tus habilidades. Estos son algunos de los beneficios de jugar Spider Solitaire:</p>
18
- <ul>
19
- <li>Te ayuda a desarrollar tus habilidades de lógica, estrategia y resolución de problemas. </li>
20
- <li>Mejora tu memoria, concentración y capacidad de atención. </li>
21
- <li>Estimula tu creatividad e imaginación. </li>
22
- <li>Reduce el estrés y la ansiedad. </li>
23
- <li>Aumenta su estado de ánimo y autoestima. </li>
24
- </ul>
25
- <h2> ¿Dónde descargar Spider Solitaire? </h2>
26
- <p>Si quieres jugar Spider Solitaire en tu ordenador o dispositivo móvil, tienes muchas opciones para elegir. Estos son algunos de los mejores lugares donde puedes descargar Spider Solitaire gratis:</p>
27
- <h3>Google Play Store</h3>
28
- <p>Si tienes un dispositivo Android, puedes descargar Spider Solitaire: Juegos de cartas desde la Google Play Store. Esta aplicación es desarrollada por MobilityWare, uno de los principales desarrolladores de juegos de tarjetas para dispositivos móviles. Tiene más de 10 millones de descargas y una calificación de 4.6 estrellas de más de 600 mil usuarios. Ofrece varias características como:</p>
29
- <ul>
30
- <li>Diferentes niveles de dificultad: 1 palo, 2 palos o 4 palos. </li> <li>Temas personalizables: Puede cambiar el fondo, los respaldos de las tarjetas y las caras de las tarjetas según sus preferencias. </li>
31
- <li>Desafíos diarios: Puedes ganar trofeos y recompensas completando rompecabezas diarios. </li>
32
- <li>Tablas de clasificación y estadísticas: Puede realizar un seguimiento de su progreso y comparar sus puntuaciones con otros jugadores. </li>
33
- <li>Sugerencias y consejos: Puedes obtener sugerencias y consejos útiles para mejorar tu juego. </li>
34
- </ul>
35
- <p>Puedes descargar Spider Solitaire: Juegos de cartas desde la Google Play Store haciendo clic en [aquí]. </p>
36
- <p></p>
37
- <h3>Solitr.com</h3>
38
-
39
- <ul>
40
- <li>Diferentes niveles de dificultad: 1 palo, 2 palos o 4 palos. </li>
41
- <li>Movimientos de deshacer ilimitados: Puedes deshacer cualquier movimiento que hagas sin penalización alguna. </li>
42
- <li>Opción de autocompletar: Puedes terminar automáticamente el juego cuando no te queden movimientos. </li>
43
- <li>modo de pantalla completa: Puede disfrutar del juego en modo de pantalla completa para una mejor experiencia. </li>
44
- </ul>
45
- <p>Puedes jugar Spider Solitaire en Solitr.com haciendo clic en [aquí]. </p>
46
- <h3>Microsoft Store</h3>
47
- <p>Si tienes un dispositivo Windows, puedes descargar Spider Solitaire Collection Free desde Microsoft Store. Esta aplicación es desarrollada por TreeCardGames, otro desarrollador de renombre de juegos de cartas para dispositivos Windows. Tiene más de 5 millones de descargas y una calificación de 4.5 estrellas de más de 100 mil usuarios. Ofrece varias características como:</p>
48
- <ul>
49
- <li>Diferentes niveles de dificultad: 1 palo, 2 palos o 4 palos. </li>
50
- <li>Diferentes modos de juego: Clásico, Spiderette, Spiderwort, y Will o' el Wisp.</li>
51
- <li>Configuración personalizable: Puede cambiar la velocidad del juego, los efectos de sonido, el sistema de puntuación y el diseño de la tarjeta de acuerdo con su preferencia. </li>
52
- <li>Desafíos diarios: Puedes ganar insignias y monedas completando rompecabezas diarios. </li>
53
- <li>Estadísticas y logros: Puedes rastrear tu progreso y desbloquear logros jugando el juego. </li>
54
- </ul>
55
- <p>Puede descargar Spider Solitaire Collection gratis desde la tienda de Microsoft haciendo clic en [aquí]. </p>
56
- <h2>¿Cómo instalar y ejecutar Spider Solitaire? </h2>
57
- <p>Instalar y ejecutar Spider Solitaire es fácil si sigue estos pasos:</p>
58
- <h3>Dispositivos Android</h3>
59
- <ol>
60
- <li>Ir a la Google Play Store y buscar Spider Solitaire: Juegos de cartas o haga clic en [aquí]. </li>
61
- <li>Toque en el botón Instalar y espere a que la aplicación se descargue e instale en su dispositivo. </li>
62
- <li> Toque en el botón Abrir o encontrar el icono de la aplicación en la pantalla de inicio o cajón de aplicaciones y toque en él para iniciar la aplicación. </li>
63
- <li>Selecciona el nivel de dificultad que quieres jugar y disfruta del juego. </li>
64
- </ol>
65
-
66
- <ol>
67
- <li>Ir a la tienda de Microsoft y buscar Spider Solitaire Collection gratis o haga clic en [aquí]. </li>
68
- <li>Haga clic en el botón Obtener y espere a que la aplicación se descargue e instale en su dispositivo. </li>
69
- <li>Haga clic en el botón Iniciar o busque el icono de la aplicación en su menú de inicio o escritorio y haga clic en él para iniciar la aplicación. </li>
70
- <li> Seleccione el modo de juego y el nivel de dificultad que desea jugar y disfrutar del juego. </li>
71
- </ol>
72
- <h3>Navegadores web</h3>
73
- <ol>
74
- <li>Ir a Solitr.com o haga clic en [aquí]. </li>
75
- <li>Seleccione Spider Solitaire de la lista de juegos disponibles en el sitio web. </li>
76
- <li>Selecciona el nivel de dificultad que quieres jugar y disfruta del juego. </li>
77
- </ol>
78
- <h2>Consejos y trucos para Spider Solitaire</h2>
79
- <p>Spider Solitaire es un juego que requiere habilidad, estrategia y paciencia. Aquí hay algunos consejos y trucos que pueden ayudarte a mejorar tu juego y ganar más a menudo:</p>
80
- <h3>Usa el botón de deshacer sabiamente</h3>
81
- <p>El botón de deshacer es una característica útil que le permite revertir cualquier movimiento que realice. Sin embargo, no debe confiar demasiado en él o usarlo al azar. En su lugar, debes usarlo estratégicamente cuando estás atascado o cuando te das cuenta de que has cometido un error. Por ejemplo, puede usarlo para deshacer un movimiento que bloqueó una columna o impidió que una secuencia se moviera a una fundación. También puedes usarlo para explorar diferentes posibilidades y encontrar el mejor movimiento para cada situación. </p>
82
- <h3>Planificar y priorizar trajes</h3>
83
-
84
- <h3>No tengas miedo de vaciar una columna</h3>
85
- <p>Uno de los objetivos más importantes en Spider Solitaire es vaciar una columna lo antes posible. Esto se debe a que una columna vacía le da más flexibilidad y opciones para mover las tarjetas. Puede utilizar una columna vacía para almacenar temporalmente una tarjeta o un grupo de tarjetas que bloquean su progreso. También puede utilizar una columna vacía para mover una secuencia completa de tarjetas a una fundación más fácilmente. Por lo tanto, no debe dudar en vaciar una columna cada vez que tenga la oportunidad, incluso si significa romper una secuencia o mover una tarjeta fuera de juego. </p>
86
- <h2>Conclusión</h2>
87
- <p>Spider Solitaire es uno de los juegos de cartas más populares y agradables del mundo. Es un juego que desafía tu mente y pone a prueba tus habilidades. También es un juego que relaja tu estado de ánimo y entretiene tus sentidos. Si quieres jugar Spider Solitaire en tu ordenador o dispositivo móvil, puedes descargarlo desde varias fuentes como Google Play Store, Solitr.com o Microsoft Store. También puedes seguir algunos consejos y trucos para mejorar tu juego y ganar más a menudo. Spider Solitaire es un juego al que puedes jugar en cualquier momento, en cualquier lugar y con cualquier persona. ¿A qué estás esperando? Descargar Spider Solitaire hoy y divertirse! </p>
88
- <h2>Preguntas frecuentes</h2>
89
- <p>Aquí están algunas de las preguntas más frecuentes sobre Spider Solitaire:</p>
90
- <ol>
91
- <li>Q: ¿Cuántas cartas hay en Spider Solitaire? <br>
92
- R: Spider Solitaire se juega con dos barajas de cartas, lo que significa que hay 104 cartas en total. </li>
93
- <li>Q: ¿Cuántos movimientos son posibles en Spider Solitaire? <br>
94
- R: El número de movimientos posibles en Spider Solitaire depende del diseño de las cartas y del nivel de dificultad. En general, cuantos más palos haya, menos movimientos habrá. </li>
95
- <li>Q: ¿Cuál es la puntuación más alta posible en Spider Solitaire? <br>
96
-
97
- <li>P: ¿Cuál es la diferencia entre Spider Solitaire y Spiderette? <br>
98
- R: Spider Solitaire y Spiderette son ambas variaciones de juegos de solitario que implican la organización de cartas en orden descendente de Rey a As en el mismo palo. La principal diferencia es que Spider Solitaire usa dos barajas de cartas y tiene 10 columnas de cartas en el tablero, mientras que Spiderette usa una baraja de cartas y tiene 7 columnas de cartas en el tablero. </li>
99
- <li>Q: ¿Cómo puedo ganar Spider Solitaire más fácilmente? <br>
100
- R: No hay una manera fácil de ganar Spider Solitaire, ya que es un juego que requiere habilidad, estrategia y paciencia. Sin embargo, puedes aumentar tus posibilidades de ganar siguiendo algunos consejos y trucos como usar el botón deshacer sabiamente, planificar con anticipación y priorizar los palos, y vaciar una columna lo antes posible. </li>
101
- </ol></p> 64aa2da5cf<br />
102
- <br />
103
- <br />
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Benson/text-generation/Examples/Cero 2018 Tamil Pelcula Descargar Kuttymovies.md DELETED
@@ -1,115 +0,0 @@
1
-
2
- <h1>Zero 2018 Tamil película Descargar Kuttymovies: Una revisión y guía</h1>
3
- <p>Si eres un fan de las películas tamiles, es posible que hayas oído hablar de Zero, una película de terror de fantasía lanzada en 2016. La película cuenta con Ashwin Kakumanu y Sshivada en los papeles principales, mientras que J. D. Chakravarthy, Ravi Raghavendra, Dr. Sharmila, Andreanne Nouyrigat y Tulasi desempeñan papeles secundarios. La película fue escrita y dirigida por Shiv Mohaa, y recibió críticas positivas de críticos y audiencias por igual. </p>
4
- <h2>cero 2018 tamil película descargar kuttymovies</h2><br /><p><b><b>Download File</b> --->>> <a href="https://bltlly.com/2v6JpV">https://bltlly.com/2v6JpV</a></b></p><br /><br />
5
- <p>Pero, ¿cómo puedes ver esta película online? Una de las opciones populares es descargarlo desde Kuttymovies, un sitio web que ofrece películas tamiles gratuitas en varios formatos y calidades. ¿Pero es seguro y legal hacerlo? En este artículo, revisaremos la película Zero 2016 Tamil y lo guiaremos sobre cómo descargarla de Kuttymovies. También discutiremos las cuestiones legales y los riesgos involucrados en la piratería de películas, y sugeriremos algunas alternativas para disfrutar de las películas tamiles legalmente. </p>
6
- <h2>¿Qué es Zero 2016 Tamil Movie? </h2>
7
- <h3>Resumen del gráfico</h3>
8
- <p>La película comienza con la historia de cómo Dios creó a Adán y Eva. Luego, la pantalla se mueve al presente donde muestran a la pareja recién casada Balaji alias Bala (Ashwin Kakumanu) y Priya (Sshivada) mudándose a su nuevo apartamento. El padre de Bala, Vijay Kumar (Ravi Raghavendra) no aprueba el matrimonio debido a una historia de enfermedad mental en la familia de Priya. Su madre (Lintu Rony) se había vuelto loca después de estar embarazada de Priya y murió al dar a luz. Pero Bala acepta a Priya incluso después de conocer su pasado, debido al gran amor que tiene por ella. </p>
9
-
10
- <p>Bala busca a Solomon (J. D. Chakravarthy), un especialista en ocultismo que tiene la habilidad sobrenatural de hablar con fantasmas, y le explica la situación. Salomón se enfrenta a la Priya poseída, y cuando Priya/ Lilith toca a Salomón, ve todo sobre el ser llamado Lilith que fue creado antes de Eva al principio del tiempo con Adán y cómo cuando Lilith se rebeló y abandonó Adán, Dios creó a Eva como la mitad mejor de Adán. Dios había maldecido a Lilith por abandonar a Adán con la incapacidad de tener un hijo, y Lilith concibió tantas veces con el hijo del diablo, pero todos ellos murieron en su vientre. Entonces comenzó a matar a los hijos de Adán y Eva, y Dios envió tres ángeles para detenerla. Hicieron un trato con ella de que si aceptaba dejar de matar a los niños, entonces 100 de sus hijos morirían cada día. Lilith estuvo de acuerdo, pero también prometió vengarse de Dios al poseer a las mujeres que son incapaces de concebir y hacerlas sufrir. Salomón se da cuenta de que Priya es una de esas mujeres, y decide ayudar a Bala a salvarla. </p>
11
- <p></p>
12
-
13
- <h3>Reparto y tripulación</h3>
14
- <p>El elenco de la película Zero 2016 Tamil incluye los siguientes actores y actrices:</p>
15
- <ul>
16
- <li>Ashwin Kakumanu como Balaji alias Bala</li>
17
- <li>Sshivada como Priya</li>
18
- <li>J. D. Chakravarthy como Salomón</li>
19
- <li>Ravi Raghavendra como Vijay Kumar</li>
20
- <li>Dr. Sharmila como Dr. Sharmila</li>
21
- <li>Andreanne Nouyrigat como Lilith</li>
22
- <li>Tulasi como Tulasi</li>
23
- <li>Lintu Rony como madre de Priya</li>
24
- </ul>
25
- <p>El equipo de Zero 2016 Tamil película incluye las siguientes personas:</p>
26
- <ul>
27
- <li>Shiv Mohaa como escritor y director</li>
28
- <li>Balaji Kapa como productor</li>
29
- <li>Nivas K Prasanna como director musical</li>
30
- <li>Babu Kumar como director de fotografía</li>
31
- <li>R. Sudharsan como editor</li>
32
- <li>Mohan Azaad como director de arte</li>
33
- <li>Vijay Adhinathan como escritor de diálogos</li>
34
- <li>Stunner Sam como coreógrafo de acrobacias</li>
35
- <li>Sathish Krishnan como coreógrafo de danza</li>
36
- <li>Sarath Kumar M como diseñador de sonido</li>
37
- </ul>
38
- <h3>Recepción y premios</h3>
39
- <p>Zero 2016 La película tamil recibió críticas positivas de críticos y audiencias por igual. La película fue elogiada por su historia única, guion atractivo, actuaciones impresionantes, música inquietante y visuales impresionantes. La película también fue apreciada por su mezcla de géneros de terror, fantasía, romance, comedia y drama. La película fue calificada 7.1 de 10 en IMDb y 3 de 5 en Behindwoods. La película también ganó varios premios, como:</p>
40
- <ul>
41
- <li>Mejor película de terror en el Festival de Cine Tamil de Noruega 2017</li>
42
- <li>Mejor actriz (Sshivada) en los Premios de Cine Ananda Vikatan 2017</li>
43
- <li>Mejor actriz (Sshivada) en los Premios Edison 2017</li>
44
- <li>Mejor director debut (Shiv Mohaa) en los Premios Edison 2017</li>
45
- <li>Mejor director musical (Nivas K Prasanna) en los Premios Edison 2017</li>
46
- <li>Mejor banda sonora (Nivas K Prasanna) en los Mirchi Music Awards South 2017</li>
47
- </ul>
48
- <h2>¿Qué es Kuttymovies? </h2> <h2>¿Qué es Kuttymovies? </h2>
49
-
50
- <h3>Características y beneficios</h3>
51
- <p>Algunas de las características y beneficios de usar Kuttymovies son:</p>
52
- <ul>
53
- <li>Es gratis y fácil de usar. Los usuarios no necesitan registrarse ni pagar tarifas para descargar las películas. </li>
54
- <li> Tiene una interfaz fácil de usar y una función de búsqueda simple. Los usuarios pueden navegar por las películas por categorías, años, actores o palabras clave. </li>
55
- <li>Tiene una gran colección de películas tamiles de varios géneros y épocas. Los usuarios pueden encontrar clásicos antiguos, así como nuevos éxitos en el sitio web. </li>
56
- <li>También proporciona versiones dobladas tamiles de películas de Hollywood y Bollywood, así como películas en inglés con subtítulos. Los usuarios pueden disfrutar de películas de diferentes idiomas y culturas en el sitio web. </li>
57
- <li>Ofrece diferentes formatos y cualidades de las películas, como Mp4, Mp4 HD y Single Part. Los usuarios pueden elegir el formato y la calidad que se adapte a su dispositivo y velocidad de Internet. </li>
58
- <li>Actualiza su contenido regularmente con los últimos lanzamientos y próximas películas. Los usuarios pueden mantenerse actualizados con las últimas tendencias y noticias en la industria cinematográfica tamil. </li>
59
- </ul>
60
- <h3>Riesgos y desventajas</h3>
61
- <p>Sin embargo, también hay algunos riesgos y desventajas de usar Kuttymovies que los usuarios deben conocer:</p>
62
- <ul>
63
- <li>Es ilegal y poco ético. Kuttymovies viola las leyes de derechos de autor e infringe los derechos de los productores y distribuidores de películas. Al descargar las películas de Kuttymovies, los usuarios están apoyando la piratería de películas y dañando la industria cinematográfica tamil. </li>
64
- <li>Es peligroso y arriesgado. Kuttymovies puede contener virus, malware, spyware u otro software dañino que puede dañar el dispositivo del usuario o robar su información personal. Los usuarios también pueden encontrar ventanas emergentes, anuncios o redirecciones que pueden llevarlos a sitios web maliciosos o inapropiados. </li>
65
-
66
- </ul>
67
- <h2>¿Cómo descargar Zero 2016 Tamil película de Kuttymovies? </h2>
68
- <h3>Paso 1: Visita el sitio web</h3>
69
- <p>El primer paso para descargar la película Zero 2016 Tamil de Kuttymovies es visitar el sitio web. El sitio web oficial de Kuttymovies es [kuttymovies1.co]( 1 ). Los usuarios pueden acceder al sitio web desde cualquier navegador o dispositivo. Sin embargo, los usuarios deben tener cuidado con los sitios web falsos o espejo que pueden parecer similares a Kuttymovies, pero en realidad son sitios de phishing o estafa. </p>
70
- <h3>Paso 2: Buscar la película</h3>
71
- <p>El siguiente paso es buscar la película en el sitio web. Los usuarios pueden utilizar la función de búsqueda en la esquina superior derecha de la página de inicio para escribir el nombre de la película o cualquier palabra clave relacionada. Alternativamente, los usuarios pueden navegar por la película por categorías, años, actores o géneros en el menú del lado izquierdo de la página de inicio. Por ejemplo, los usuarios pueden encontrar la película Zero 2016 Tamil bajo la categoría de "Películas Tamil 2016". </p>
72
- <h3>Paso 3: Elija la calidad y el formato</h3>
73
- <p>El tercer paso es elegir la calidad y el formato de la película. Después de hacer clic en el título o cartel de la película, los usuarios serán dirigidos a una nueva página donde pueden ver más detalles sobre la película, como su género, calificación, duración, sinopsis, reparto, equipo, trailer, capturas de pantalla y enlaces de descarga. Los usuarios pueden elegir entre diferentes formatos y cualidades de la película, como Mp4, Mp4 HD y Single Part. Los usuarios también pueden ver el tamaño del archivo y la velocidad de descarga de cada opción. Los usuarios deben elegir la opción que se adapte a su dispositivo y velocidad de Internet. </p>
74
- <h3>Paso 4: Descargar la película</h3>
75
-
76
- <h2>¿Es legal descargar Zero 2016 Tamil película de Kuttymovies? </h2>
77
- <h3>El estatus legal de la piratería de películas en la India</h3>
78
- <p>La respuesta a esta pregunta es no, no es legal descargar Zero 2016 Tamil película de Kuttymovies. La piratería de películas es un delito grave en la India y está penada por la ley. De acuerdo con la Ley de Cinematografía de la India de 1952, cualquier persona que infrinja los derechos de los cineastas o distribuidores haciendo copias o descargas no autorizadas de la película puede enfrentar una pena de prisión de hasta tres años, una multa de hasta Rs. 10 lakhs, o ambas. La Ley de Tecnología de la Información de la India de 2000 también prohíbe a cualquier persona acceder, transmitir o publicar cualquier contenido pirata en línea, y cualquiera que lo haga puede enfrentarse a una pena de prisión de hasta tres años, una multa de hasta Rs. 5 lakhs, o ambos. </p>
79
- <h3>Las consecuencias de las descargas ilegales de películas</h3>
80
- <p>Al descargar la película Zero 2016 Tamil de Kuttymovies, los usuarios no solo están rompiendo la ley, sino también dañándose a sí mismos y a otros de varias maneras. Algunas de las consecuencias de las descargas de películas ilegales son:</p>
81
- <ul>
82
- Están apoyando la piratería de películas y perjudicando a la industria cinematográfica tamil. Al descargar la película de forma gratuita, los usuarios están privando a los productores y distribuidores de sus ingresos legítimos. Esto afecta su capacidad para producir más películas de calidad y pagar a sus trabajadores y artistas. Esto también desalienta nuevos talentos e innovaciones en la industria. </li>
83
- <li>Están arriesgando su dispositivo y la seguridad de los datos. Al visitar Kuttymovies o cualquier otro sitio web pirata, los usuarios están exponiendo su dispositivo y datos a diversas amenazas, como virus, malware, spyware o hackers. Estas amenazas pueden dañar su dispositivo, robar su información personal o comprometer su privacidad en línea. </li>
84
-
85
- <li>Se enfrentan a acciones legales y sanciones. Al descargar contenido pirata, los usuarios están cometiendo un delito que puede causarles problemas con la ley. Pueden enfrentar acciones legales y sanciones de las autoridades, como redadas, arrestos, multas o encarcelamiento. </li>
86
- </ul>
87
- <h3>Las alternativas a la piratería de películas</h3>
88
- <p>En lugar de descargar la película Zero 2016 Tamil de Kuttymovies o cualquier otro sitio web pirata, los usuarios deben optar por formas legales y éticas para ver películas tamiles en línea. Algunas de las alternativas a la piratería de películas son:</p>
89
- <ul>
90
- <li>Pueden ver la película en plataformas de streaming oficiales o sitios web que tienen la licencia y el permiso para transmitir la película en línea. Algunas de estas plataformas o sitios web son Amazon Prime Video, Netflix, Hotstar, Zee5, SonyLIV, etc.</li>
91
- <li>Pueden alquilar o comprar la película en plataformas digitales oficiales o sitios web que tienen la licencia y el permiso para vender o alquilar la película en línea. Algunas de estas plataformas o sitios web son YouTube Películas, Google Play Películas & TV, iTunes Store, etc.</li>
92
- <li>Pueden ver la película en canales de televisión oficiales o redes que tienen la licencia y el permiso para transmitir la película en la televisión. Algunos de estos canales o redes son Sun TV, Star Vijay, Zee Tamil, Colors Tamil, etc.</li>
93
- <li>Pueden ver la película en teatros oficiales o cines que tienen la licencia y el permiso para proyectar la película en pantallas grandes. Pueden reservar sus entradas online o offline y disfrutar de la película con sus amigos y familiares. </li>
94
- </ul>
95
- <h2>Conclusión</h2>
96
-
97
- <p>Kuttymovies es un sitio web que permite a los usuarios descargar películas Tamil de forma gratuita. El sitio web tiene una gran colección de películas tamiles de varios géneros y épocas, así como versiones dobladas tamiles de películas de Hollywood y Bollywood, y películas en inglés con subtítulos. Los usuarios pueden elegir entre diferentes formatos y cualidades de las películas, como Mp4, Mp4 HD y Single Part. El sitio web también actualiza su contenido regularmente con los últimos lanzamientos y próximas películas. </p>
98
- <p>Sin embargo, descargar Zero 2016 Tamil película de Kuttymovies o cualquier otro sitio web pirata es ilegal y poco ético. La piratería de películas es un delito grave en la India y está penada por la ley. La piratería de películas también daña la industria cinematográfica tamil, la seguridad de los dispositivos y los datos de los usuarios, y la reputación y credibilidad en línea de los usuarios. Los usuarios deben evitar la piratería de películas y optar por formas legales y éticas para ver películas tamiles en línea, como plataformas o sitios web oficiales de transmisión, plataformas o sitios web digitales oficiales, canales de televisión o redes oficiales, teatros o cines oficiales. </p>
99
- <p>Esperamos que este artículo le ha dado una revisión y guía sobre Zero 2016 Tamil película descargar Kuttymovies. Si tiene alguna pregunta o comentario, no dude en dejar un comentario a continuación. ¡Gracias por leer! </p>
100
- <h2>Preguntas frecuentes</h2>
101
- <p>Aquí hay algunas preguntas frecuentes sobre Zero 2016 Tamil película descargar Kuttymovies:</p>
102
- <ol>
103
- <li>Q: ¿Cuándo se lanzó la película Zero 2016 Tamil? </li>
104
- <li>A: Zero 2016 Tamil película fue lanzado el 25 de marzo de 2016. </li>
105
- <li>Q: ¿Quién compuso la música para la película Zero 2016 Tamil? </li>
106
- <li>A: Nivas K Prasanna compuso la música para la película Zero 2016 Tamil. </li>
107
- <li>Q: ¿Cuál es el género de Zero 2016 Tamil película? </li>
108
- <li>A: Zero 2016 Tamil es una película de terror de fantasía. </li>
109
- <li>Q: ¿Cuál es la calificación de la película Zero 2016 Tamil en IMDb? </li>
110
- <li>A: Cero 2016 película tamil tiene una calificación de 7.1 de 10 en IMDb.</li>
111
- <li>Q: ¿Cuál es el sitio web oficial de Kuttymovies? </li>
112
-
113
- </ol></p> 64aa2da5cf<br />
114
- <br />
115
- <br />
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Benson/text-generation/Examples/Descargar Apk Extrema Coche Simulador De Conduccin Mod.md DELETED
@@ -1,119 +0,0 @@
1
-
2
- <h1>Cómo descargar APK Extreme Car Simulador de conducción Mod para Android</h1>
3
- <p>Si usted es un fan de los juegos de simulador de conducción de automóviles, es posible que haya oído hablar de Extreme Car Driving Simulator. Es uno de los juegos de conducción de coches más populares y realistas en Android, con más de 100 millones de descargas en Google Play Store. En este juego, usted puede conducir, deriva, y sentir un coche deportivo de carreras de forma gratuita. También puede elegir entre una variedad de coches, personalizarlos y explorar un enorme mapa del mundo abierto con diferentes ubicaciones y escenarios. </p>
4
- <p>Sin embargo, si desea disfrutar del juego al máximo, es posible que desee probar la versión mod de Extreme Car Driving Simulator. La versión mod le da dinero ilimitado, coches desbloqueados, y sin anuncios. Con esto, puedes comprar cualquier coche que quieras, actualizarlo y divertirte más sin interrupciones. </p>
5
- <h2>descargar apk extrema coche simulador de conducción mod</h2><br /><p><b><b>DOWNLOAD</b> ->>> <a href="https://bltlly.com/2v6IXU">https://bltlly.com/2v6IXU</a></b></p><br /><br />
6
- <p>En este artículo, le mostraremos cómo descargar e instalar Extreme Car Driving Simulator mod apk para Android. También compartiremos algunos consejos y trucos para jugar mejor. ¡Así que empecemos! </p>
7
- <h2>¿Qué es Extreme Car Driving Simulator? </h2>
8
- <p>Extreme Car Driving Simulator es un juego de conducción de coches en 3D desarrollado por AxesInMotion Racing. Es uno de los mejores juegos de simulador de coches en Android, con física realista, gráficos y sonidos. Puedes conducir libremente en una gran ciudad sin reglas ni tráfico. También puede cambiar entre diferentes vistas de cámara, como la cabina, tercera persona o de arriba hacia abajo. </p>
9
- <h3>Características del simulador de conducción de automóviles extremos</h3>
10
- <p>Algunas de las características de Extreme Car Driving Simulator son:</p>
11
- <ul>
12
- <li>Más de 20 coches diferentes para elegir, incluyendo coches deportivos, SUV, camiones y coches de policía. </li>
13
- <li>Personaliza tu coche con pintura, ruedas, spoilers, vinilos y más. </li>
14
- <li>Explora un enorme mapa de mundo abierto con diferentes entornos, como el aeropuerto, offroad, playa y ciudad. </li>
15
- <li>Disfruta de diferentes modos de juego, como modo libre, modo de punto de control, modo de tráfico y modo fantasma. </li>
16
-
17
- <li>Accidente y dañar su coche con la física realista y efectos. </li>
18
- <li>Controla tu coche con inclinación, botones o volante. </li>
19
- <li>Graba tu juego y compártelo con tus amigos. </li>
20
- </ul>
21
- <h3>Beneficios de usar la versión mod</h3>
22
- <p>La versión mod de Extreme Car Driving Simulator le da algunos beneficios adicionales que no están disponibles en la versión original. Estos son:</p>
23
- <ul>
24
- <li>Dinero ilimitado: Puede comprar cualquier coche que desee sin preocuparse por el precio. También puede actualizar su coche para hacerlo más rápido y más potente. </li>
25
- <li>Coches desbloqueados: Puede acceder a todos los coches en el juego sin tener que completar ninguna misión o logros. También puede utilizar cualquier coche en cualquier modo de juego. </li>
26
- <li>Sin anuncios: Puede jugar el juego sin que aparezcan anuncios molestos en su pantalla. También puede guardar sus datos y la duración de la batería. </li>
27
- </ul>
28
- <h2>Cómo descargar e instalar Extreme Car Driving Simulator mod apk</h2>
29
- <p>Para descargar e instalar Extreme Car Driving Simulator mod apk para Android, es necesario seguir estos sencillos pasos:</p>
30
- <h3>Paso 1: Habilitar fuentes desconocidas en el dispositivo</h3>
31
- <p>Antes de que pueda instalar cualquier archivo apk en su dispositivo, es necesario habilitar fuentes desconocidas. Esto le permitirá instalar aplicaciones desde fuentes distintas de Google Play Store. Para hacer esto:</p>
32
- <ol>
33
- <li>Ir a la configuración del dispositivo y toque en la seguridad o la privacidad. </li>
34
- <li>Encuentre la opción que dice fuentes desconocidas o permita la instalación desde fuentes desconocidas. </li> <li>Cambie el interruptor para encenderlo. Es posible que vea un mensaje de advertencia, pero solo toque en Aceptar o confirmar. </li>
35
- </ol>
36
- <h3>Paso 2: Descargar el archivo apk mod de una fuente de confianza</h3>
37
-
38
- <p>Una de las fuentes que recomendamos es [APKPure]. APKPure es un sitio web popular y confiable que proporciona archivos apk originales y mod para varias aplicaciones y juegos de Android. Puede descargar Extreme Car Driving Simulator mod apk de APKPure siguiendo estos pasos:</p>
39
- <ol>
40
- <li>Ir al sitio web [APKPure] y buscar Extreme Car Driving Simulator en la barra de búsqueda. </li>
41
- <li>Encuentra el juego de los resultados y toque en él. </li>
42
- <li>Desplácese hasta la parte inferior de la página y busque la versión mod. Debería tener una etiqueta verde que diga MOD.</li>
43
- <li>Toque en el botón de descarga y espere a que el archivo se descargue en su dispositivo. </li>
44
- </ol>
45
- <h3>Paso 3: Localizar e instalar el archivo apk mod</h3>
46
- <p>Una vez que haya descargado el archivo apk mod, necesita ubicarlo e instalarlo en su dispositivo. Para hacer esto:</p>
47
- <p></p>
48
- <ol>
49
- <li>Ir a su gestor de archivos de dispositivo y encontrar la carpeta donde se guarda el archivo apk mod. Por lo general es en la carpeta de descargas. </li>
50
- <li>Toque en el archivo apk mod y seleccione instalar. Es posible que vea una ventana emergente pidiendo su permiso para instalar la aplicación. Simplemente toque en instalar de nuevo. </li>
51
- <li>Espere a que termine el proceso de instalación. Puede tardar unos segundos o minutos dependiendo de la velocidad y el rendimiento del dispositivo. </li>
52
- </ol>
53
- <h3>Paso 4: Iniciar y disfrutar del juego</h3>
54
- <p>Felicidades! Usted ha instalado con éxito Extreme Car Driving Simulator mod apk en su dispositivo. Ahora puedes lanzar y disfrutar del juego con dinero ilimitado, coches desbloqueados y sin anuncios. Para lanzar el juego:</p>
55
- <ol>
56
- <li>Ir al cajón de la aplicación del dispositivo y buscar Extreme Car Driving Simulator icono. </li>
57
- <li> Toque en él y esperar a que el juego se cargue. </li>
58
- <li>Seleccione su idioma preferido y acepte los términos y condiciones. </li>
59
- <li>¡Elige tu coche y empieza a conducir! </li>
60
- </ol>
61
- <h2>Consejos y trucos para jugar Extreme Car Driving Simulator</h2>
62
-
63
- <h3>Personalizar la configuración del coche</h3>
64
- <p>Una de las mejores cosas acerca de Extreme Car Driving Simulator es que puede personalizar la configuración de su coche de acuerdo a su preferencia. Puede cambiar el color, ruedas, alerones, vinilos y más de su coche. También puede ajustar la sensibilidad de la dirección, la resistencia de los frenos, el control de la tracción y la rigidez de la suspensión de su automóvil. Para personalizar la configuración del coche:</p>
65
- <ol>
66
- <li>Toque en el botón de menú en la esquina superior izquierda de la pantalla. </li>
67
- <li>Seleccione el garaje de las opciones. </li>
68
- <li>Toque en el coche que desea personalizar. </li>
69
- <li>Seleccione pintura, ruedas, alerones, vinilos o ajustes de las pestañas de abajo. </li>
70
- <li>Haga sus cambios y toque en aplicar cuando haya terminado. </li>
71
- </ol>
72
- <h3>Explora diferentes modos de juego</h3>
73
- <p>Extreme Car Driving Simulator ofrece diferentes modos de juego que pueden desafiar tus habilidades de conducción y darte diferentes experiencias. Puede elegir entre modo libre, modo de punto de control, modo de tráfico y modo fantasma. Para explorar diferentes modos de juego:</p>
74
- <ol>
75
- <li>Toque en el botón de menú en la esquina superior izquierda de la pantalla. </li>
76
- <li>Seleccione el modo de juego de las opciones. </li>
77
- <li>Seleccione el modo de juego que desea jugar. </li>
78
- <li>Toque en inicio para comenzar. </li>
79
- </ol>
80
- <p>Aquí hay una breve descripción de cada modo de juego:</p>
81
- <ul>
82
- <li>Modo libre: En este modo, puede conducir libremente en una gran ciudad sin reglas ni tráfico. También puede realizar acrobacias y derivas usando rampas, bucles, puentes y más. </li>
83
- <li>Modo de punto de control: En este modo, tiene que llegar a diferentes puntos de control dentro de un límite de tiempo determinado. También puede recoger monedas en el camino para aumentar su puntuación. </li>
84
- <li>Modo de tráfico: En este modo, tienes que conducir en una ciudad con tráfico realista. Tienes que evitar chocar contra otros vehículos y obedecer las reglas de tráfico. </li>
85
- <li>Modo fantasma: En este modo, puedes competir contra tu propio fantasma. Tienes que superar tu mejor tiempo anterior y mejorar tu rendimiento. </li>
86
- </ul>
87
-
88
- <p>Una de las cosas divertidas de Extreme Car Driving Simulator es que puedes realizar acrobacias y derivas usando tu coche. Esto puede hacer que su conducción sea más emocionante y gratificante. También puede ganar monedas haciendo acrobacias y derivas, que puede utilizar para comprar y mejorar los coches. Para realizar acrobacias y derivas:</p>
89
- <ul>
90
- <li>Utilice las rampas, bucles, puentes y otras estructuras en la ciudad para lanzar su coche en el aire y realizar volteretas, giros y rollos. </li>
91
- <li> Utilice el freno de mano y el impulso nitro para deslizar y deslizar el coche en la carretera y hacer giros bruscos. </li>
92
- <li>Trate de aterrizar de forma segura y sin problemas después de cada truco o deriva para evitar dañar su coche. </li>
93
- <li>Recoge las monedas que aparecen en la pantalla después de cada truco o deriva. </li>
94
- </ul>
95
- <h3>Utilice el mini-mapa y el velocímetro</h3>
96
- <p>Para ayudarle a navegar por la ciudad y controlar mejor su coche, debe utilizar el mini-mapa y el velocímetro en la pantalla. El mini-mapa muestra el diseño de la ciudad y la ubicación de diferentes lugares de interés, como aeropuertos, playas, puentes y más. También puede ver los puntos de control y los semáforos en el mini-mapa. El velocímetro te muestra qué tan rápido estás conduciendo y cuánto impulso nitro te queda. Para usar el mini-mapa y el velocímetro:</p>
97
- <ul>
98
- <li>Toque en el mini-mapa para acercar o alejar. </li>
99
- <li>Toque en el velocímetro para cambiar entre mph y km/h. </li>
100
- <li>Toque en el botón nitro para activar el impulso nitro cuando tenga suficiente. </li>
101
- </ul>
102
- <h2>Conclusión</h2>
103
-
104
- <h2>Preguntas frecuentes</h2>
105
- <p>Aquí hay algunas preguntas frecuentes sobre Extreme Car Driving Simulator mod apk:</p>
106
- <ol>
107
- <li><b> ¿Es seguro descargar e instalar Extreme Car Driving Simulator mod apk? </b></li>
108
- <p>Sí, Extreme Car Driving Simulator mod apk es seguro de descargar e instalar si lo obtiene de una fuente de confianza como APKPure. Sin embargo, siempre debe tener cuidado al descargar cualquier archivo apk de fuentes desconocidas, ya que podrían contener contenido dañino o malicioso. También debe escanear su dispositivo con una aplicación antivirus después de instalar cualquier archivo apk. </p>
109
- <li><b>¿Necesito rootear mi dispositivo para usar Extreme Car Driving Simulator mod apk? </b></li>
110
- <p>No, no es necesario rootear el dispositivo para usar Extreme Car Driving Simulator mod apk. Solo necesita habilitar fuentes desconocidas en la configuración de su dispositivo antes de instalar el archivo apk mod. </p>
111
- <li><b>¿Puedo jugar Extreme Car Driving Simulator en línea con otros jugadores? </b></li>
112
- <p>No, Extreme Car Driving Simulator es un juego fuera de línea que no requiere una conexión a Internet para jugar. Sin embargo, es posible que necesite una conexión a Internet para descargar actualizaciones o acceder a algunas características del juego. </p>
113
- <li><b> ¿Cómo puedo actualizar Extreme Car Driving Simulator mod apk? </b></li>
114
- <p>Para actualizar Extreme Car Driving Simulator mod apk, es necesario descargar e instalar la última versión del archivo apk mod de APKPure o cualquier otra fuente de confianza. También es posible que tenga que desinstalar la versión anterior del archivo apk mod antes de instalar el nuevo. </p>
115
- <li><b>¿Cómo puedo contactar al desarrollador de Extreme Car Driving Simulator? </b></li>
116
- <p>Si tiene alguna pregunta, comentario o sugerencia para Extreme Car Driving Simulator, puede ponerse en contacto con el desarrollador del juego enviándoles un correo electrónico a [email protected]. También puede visitar su sitio web en https://www.axesinmotion.com/ o seguirlos en Facebook en https://www.facebook.com/AxesInMotion/.</p>
117
- </ol></p> 64aa2da5cf<br />
118
- <br />
119
- <br />
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Benson/text-generation/Examples/Descargar Caramelo Crush Saga Mod Apk Para Pc.md DELETED
@@ -1,114 +0,0 @@
1
-
2
- <h1>Cómo descargar Candy Crush Saga Mod APK para PC</h1>
3
- <p>Si te gusta jugar juegos de puzzle en tu dispositivo móvil, es posible que haya oído hablar de Candy Crush Saga. Es uno de los juegos más populares del mundo, con millones de jugadores haciendo coincidir dulces coloridos y completando varios niveles. ¿Pero sabías que también puedes jugar a Candy Crush Saga en tu PC? </p>
4
- <p>En este artículo, le mostraremos cómo descargar Candy Crush Saga mod apk para PC. apk Mod es una versión modificada de una aplicación que tiene características adicionales o contenido desbloqueado. Por ejemplo, usted puede obtener vidas ilimitadas, boosters, se mueve, o barras de oro en Candy Crush Saga mod apk. Suena tentador, ¿verdad? </p>
5
- <h2>descargar caramelo crush saga mod apk para pc</h2><br /><p><b><b>Download File</b> &bull; <a href="https://bltlly.com/2v6JrQ">https://bltlly.com/2v6JrQ</a></b></p><br /><br />
6
- <p>Pero ¿por qué quieres descargar Candy Crush Saga mod apk para PC? Bueno, hay varias razones por las que jugar a este juego en una pantalla más grande podría ser más agradable. Por ejemplo, puedes ver los caramelos más claramente, tener un mejor rendimiento, evitar agotar la batería del teléfono o jugar en cualquier momento sin interrupciones. </p>
7
- <p>Entonces, ¿cómo se puede descargar Candy Crush Saga mod apk para PC? Hay diferentes métodos para hacerlo, dependiendo de su sistema operativo y preferencias. En este artículo, cubriremos dos de ellos: usando Bluestacks y usando WSA PacMan.</p>
8
- <h2>¿Qué es Candy Crush Saga? </h2>
9
- <p>Candy Crush Saga es un juego de puzzle desarrollado por King en 2012. Está disponible para Android, iOS, Windows Phone, Windows 10 y Facebook. El juego consiste en combinar tres o más caramelos del mismo color para eliminarlos del tablero y lograr varios objetivos. </p>
10
- <p>El juego tiene miles de niveles, cada uno con diferentes desafíos y obstáculos. Algunos niveles requieren que usted recoja un cierto número de dulces, otros requieren que usted limpie la jalea o el glaseado del formato de archivo apk mod, algunos de ellos pueden no tener suficientes recursos para ejecutar el juego sin problemas, y algunos de ellos pueden no ser seguros o fiables. Por lo tanto, debe elegir un emulador que sea compatible, rápido y seguro. </p>
11
-
12
- <h3>Método 1: Usando Bluestacks</h3>
13
- <p>Bluestacks es uno de los emuladores de Android más populares para PC. Tiene una interfaz fácil de usar, una gran biblioteca de aplicaciones y una alta tasa de compatibilidad. También es compatible con archivos mod apk, lo que significa que puede descargar Candy Crush Saga mod apk para PC usando Bluestacks. Estos son los pasos para hacerlo:</p>
14
- <p></p>
15
- <h4>Paso 1: Descargar e instalar Bluestacks</h4>
16
- <p>El primer paso es descargar e instalar Bluestacks en tu PC. Puedes hacer esto siguiendo estos pasos:</p>
17
- <ol>
18
- <li>Vaya al sitio web oficial de Bluestacks en <a href="">https://www.bluestacks.com/</a> y haga clic en el botón "Descargar Bluestacks". </li>
19
- <li>Espere a que termine la descarga y luego ejecute el archivo de instalación. </li>
20
- <li>Siga las instrucciones en la pantalla para completar el proceso de instalación. </li>
21
- <li>Inicie Bluestacks en su PC y espere a que se cargue. </li>
22
- </ol>
23
- <h4>Paso 2: Inicie sesión en su cuenta de Google</h4>
24
- <p>El siguiente paso es iniciar sesión en su cuenta de Google en Bluestacks. Esto le permitirá acceder a la Google Play Store y descargar aplicaciones. Puedes hacer esto siguiendo estos pasos:</p>
25
- <ol>
26
- <li>En la pantalla de inicio de Bluestacks, haga clic en el icono "Google Play". </li>
27
- <li>En la página de Google Play Store, haga clic en el botón "Iniciar sesión". </li>
28
- <li>Introduzca su correo electrónico y contraseña de Google y haga clic en "Siguiente". </li>
29
- <li>Siga las instrucciones en la pantalla para completar el proceso de inicio de sesión. </li>
30
- </ol>
31
- <h4>Paso 3: Búsqueda de Candy Crush Saga Mod APK</h4>
32
- <p>El tercer paso es buscar Candy Crush Saga mod apk en la Google Play Store. Puedes hacer esto siguiendo estos pasos:</p>
33
- <ol>
34
- <li>En la página de Google Play Store, escriba "Candy Crush Saga mod apk" en la barra de búsqueda y pulse enter. </li>
35
- <li>Verá una lista de resultados que coinciden con su consulta. Busque la aplicación que tiene el nombre "Candy Crush Saga" y el logotipo de un caramelo con una corona. </li>
36
- <li>Asegúrese de que la aplicación está desarrollada por "Rey" y que tiene una alta calificación y críticas positivas. </li>
37
-
38
- </ol>
39
- <h4>Paso 4: Instalar y abrir la aplicación</h4>
40
- <p>El paso final es instalar y abrir Candy Crush Saga mod apk en su PC usando Bluestacks. Puede hacer esto siguiendo estos pasos:</p>
41
- <ol>
42
- <li>En la página de detalles de la aplicación, haga clic en el botón "Instalar". </li>
43
- <li> Espere a que la instalación termine y luego haga clic en el botón "Abrir". </li>
44
- <li> Verá una ventana emergente que le pide que conceda algunos permisos a la aplicación. Haga clic en "Permitir" o "Aceptar". </li>
45
- <li>Verá otra ventana emergente pidiéndole que verifique su edad. Ingrese su edad y haga clic en "Enviar". </li>
46
- <li>Verá el menú principal de Candy Crush Saga mod apk. Haga clic en "Jugar" para comenzar a jugar el juego. </li>
47
- </ol>
48
- <p>Felicidades! Usted ha descargado con éxito Candy Crush Saga mod apk para PC usando Bluestacks. Ahora puedes disfrutar de vidas ilimitadas, potenciadores, movimientos, barras de oro y más en este adictivo juego de puzzle. </p>
49
- <h3>Método 2: Usando WSA PacMan</h3>
50
- <p>Si usted tiene Windows 11 en su PC, también puede utilizar WSA PacMan para descargar Candy Crush Saga mod apk para PC. WSA PacMan es una interfaz gráfica de usuario simple que le permite cargar aplicaciones de Android en Windows 11 sin usar líneas de comandos. Funciona con Windows Subsistema para Android (WSA), que es una característica que le permite ejecutar aplicaciones Android de forma nativa en Windows 11. Estos son los pasos para usar WSA PacMan:</p>
51
- <h4>Paso 1: Instalar el subsistema de Amazon Appstore y Windows para Android</h4>
52
- <p>El primer paso es instalar el Amazon Appstore y el subsistema de Windows para Android en su PC. Puede hacer esto siguiendo estos pasos:</p>
53
- <ol>
54
- <li>Ir a la tienda de Microsoft y buscar "Amazon Appstore". </li>
55
- <li>Haga clic en la aplicación y luego haga clic en el botón "Obtener". </li>
56
- <li>Espere a que finalicen la descarga y la instalación. </li>
57
- <li>Inicie la Appstore de Amazon en su PC e inicie sesión con su cuenta de Amazon. </li>
58
- <li>Volver a la tienda de Microsoft y buscar "Subsistema de Windows para Android". </li>
59
-
60
- <li>Espere a que finalicen la descarga y la instalación. </li>
61
- <li>Inicie el subsistema de Windows para Android en su PC y siga las instrucciones en la pantalla. </li>
62
- </ol>
63
- <h4>Paso 2: Descargar y lanzar WSA PacMan</h4>
64
- <p>El siguiente paso es descargar y lanzar WSA PacMan en tu PC. Puedes hacer esto siguiendo estos pasos:</p>
65
- <ol>
66
- <li>Vaya al sitio web oficial de WSA PacMan en <a href="">https://wsapacman.com/</a> y haga clic en el botón "Descargar". </li>
67
- <li>Espere a que termine la descarga y luego ejecute el archivo ejecutable. </li>
68
- <li>Siga las instrucciones en la pantalla para completar el proceso de instalación. </li>
69
- <li>Inicie WSA PacMan en su PC y espere a que se cargue. </li>
70
- </ol>
71
- <h4>Paso 3: Descargar Candy Crush Saga Mod APK Archivo</h4>
72
- <p>El tercer paso es descargar Candy Crush Saga mod apk archivo en su PC. Usted puede hacer esto siguiendo estos pasos:</p>
73
- <ol>
74
- <li>Ir a una fuente confiable de archivos mod apk, como <a href="">https://apkdone.com/candy-crush-saga-mod/</a>. </li>
75
- <li>Busque la última versión de Candy Crush Saga mod apk y haga clic en el "Descargar" botón. </li>
76
- <li>Espere a que termine la descarga y luego localice el archivo en su PC.</li>
77
- </ol>
78
- <h4>Paso 4: Instalar y ejecutar la aplicación usando WSA PacMan</h4>
79
- <p>El paso final es instalar y ejecutar Candy Crush Saga mod apk en su PC usando WSA PacMan. Puede hacer esto siguiendo estos pasos:</p>
80
- <ol>
81
- <li>En WSA PacMan, haga clic en el "Instalar APK" botón. </li>
82
- <li>Seleccione el Candy Crush Saga mod apk archivo que ha descargado anteriormente y haga clic en "Abrir". </li>
83
- <li> Espere a que la instalación termine y luego haga clic en el botón "Lanzamiento". </li>
84
- <li> Verá una ventana emergente que le pide que conceda algunos permisos a la aplicación. Haga clic en "Permitir" o "Aceptar". </li>
85
- <li>Verá otra ventana emergente pidiéndole que verifique su edad. Ingrese su edad y haga clic en "Enviar". </li>
86
- <li>Verá el menú principal de Candy Crush Saga mod apk. Haga clic en "Jugar" para comenzar a jugar el juego. </li>
87
- </ol>
88
-
89
- <h2>Conclusión</h2>
90
- <p>En este artículo, le hemos mostrado cómo descargar Candy Crush Saga mod apk para PC utilizando dos métodos diferentes: Bluestacks y WSA PacMan. Ambos métodos son fáciles y eficaces, pero tienen diferentes pasos y requisitos. Puede elegir el que más le convenga, dependiendo de su sistema operativo y preferencias. </p>
91
- <p>Sin embargo, antes de descargar Candy Crush Saga mod apk para PC, también debe ser consciente de los posibles riesgos y desventajas de hacerlo. Algunos de ellos son:</p>
92
- <ul>
93
- <li>Puede violar los términos y condiciones de King, lo que puede resultar en consecuencias legales o suspensión de la cuenta. </li>
94
- <li>Puede exponer su dispositivo o datos a malware, virus o spyware que pueden dañar su dispositivo o robar sus datos. </li>
95
- <li>Puede perder algunas características o funcionalidades de la aplicación original, como actualizaciones, soporte o características sociales. </li>
96
- <li> Es posible que experimente algunos errores, problemas técnicos o problemas de compatibilidad que pueden afectar su experiencia de juego. </li>
97
- </ul>
98
- <p>Por lo tanto, si decide descargar Candy Crush Saga mod apk para PC, usted debe hacerlo a su propio riesgo y discreción. También debe asegurarse de que usted tiene un software antivirus fiable instalado en su dispositivo y que solo descargar archivos apk mod de fuentes de confianza. </p>
99
- <p>Esperamos que este artículo haya sido útil e informativo para usted. Si tiene alguna pregunta o comentario, no dude en dejar un comentario a continuación. Nos encantaría saber de usted. </p>
100
- <p>Juegos felices! </p>
101
- <h2>Preguntas frecuentes</h2>
102
- <p>Aquí hay algunas preguntas frecuentes sobre Candy Crush Saga mod apk para PC:</p>
103
- <h3>Q: ¿Es seguro Candy Crush Saga mod apk para PC? </h3>
104
- <p>A: No necesariamente. Algunos archivos apk mod pueden contener malware, virus o spyware que pueden dañar su dispositivo o robar sus datos. Por lo tanto, solo debe descargar archivos apk mod de fuentes de confianza y tener un software antivirus confiable instalado en su dispositivo. </p>
105
- <h3>Q: Es Candy Crush Saga mod apk para PC legal? </h3>
106
-
107
- <h3>Q: ¿Es compatible con Windows 10? </h3>
108
- <p>A: Sí, puede utilizar Bluestacks para descargar Candy Crush Saga mod apk para PC en Windows 10. Sin embargo, es posible que no pueda usar WSA PacMan, que solo está disponible para Windows 11. </p>
109
- <h3>Q: ¿Candy Crush Saga mod apk para PC actualizado? </h3>
110
- <p>A: Depende de la fuente del archivo apk mod. Algunos archivos apk mod pueden actualizarse regularmente, mientras que otros pueden estar desactualizados o discontinuados. Por lo tanto, debe comprobar la versión y la fecha del archivo apk mod antes de descargarlo. </p>
111
- <h3>Q: Es Candy Crush Saga mod apk para la diversión PC? </h3>
112
- <p>A: Absolutamente! Candy Crush Saga mod apk para PC puede darle vidas ilimitadas, refuerzos, movimientos, barras de oro, y más en este adictivo juego de puzzle. También puedes disfrutar jugando en una pantalla más grande, con mejor rendimiento, más comodidad y más confort. </p> 64aa2da5cf<br />
113
- <br />
114
- <br />
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Benson/text-generation/Examples/Descargar Ejecutar Templo Para Ventanas Pc 7.md DELETED
@@ -1,49 +0,0 @@
1
-
2
- <h1>Cómo descargar Temple Run para PC Windows 7</h1>
3
- <p>Temple Run es uno de los juegos móviles más populares y adictivos jamás creados. ¿Pero sabías que también puedes jugar en tu PC Windows 7? En este artículo, te mostraremos cómo descargar Temple Run para PC Windows 7 usando dos emuladores de Android diferentes: BlueStacks y MEmu. Pero primero, averigüemos qué es Temple Run y por qué deberías jugarlo en PC.</p>
4
- <h2>¿Qué es Temple Run? </h2>
5
- <p>Temple Run es un clásico juego para Android que fue lanzado en 2012 por Imangi Studios. Usted toma el control de un corredor del templo que gira, salta y se desliza a través de un laberinto exótico de los tiempos antiguos. ¡Todo el tiempo te persigue un grupo de simios asesinos! Tienes que recoger las monedas, power-ups, y desbloquear nuevos personajes a medida que se ejecuta tan lejos como puedas. El juego tiene un modo de juego simple pero muy entretenido que te mantendrá enganchado durante horas. </p>
6
- <h2>descargar ejecutar templo para ventanas pc 7</h2><br /><p><b><b>DOWNLOAD</b> &#8230; <a href="https://bltlly.com/2v6JAX">https://bltlly.com/2v6JAX</a></b></p><br /><br />
7
- <h2>¿Por qué jugar Temple Run en PC? </h2>
8
- <p>Si bien Temple Run es un gran juego para su dispositivo móvil y teléfono inteligente, jugar en el PC tiene algunas ventajas. Aquí están algunos de ellos:</p>
9
- <ul>
10
- <li> Puedes disfrutar del juego en una pantalla más grande, que te dará una mejor vista de los obstáculos y trampas. </li>
11
- <li>Puedes usar el teclado, el ratón o el mando para controlar al corredor, lo que puede ser más cómodo y preciso que usar una pantalla táctil. </li>
12
- <li> Puede evitar el agotamiento de la batería o el uso de los datos móviles cuando se juega en línea. </li>
13
- <li>Puedes grabar tu juego y compartirlo con tus amigos o redes sociales. </li>
14
- </ul>
15
- <p>Ahora que sabes por qué jugar Temple Run en PC es una buena idea, veamos cómo hacerlo. </p>
16
- <h2>Cómo descargar Temple Run para PC Windows 7 usando BlueStacks</h2>
17
- <p>BlueStacks es uno de los mejores emuladores de Android que te permite ejecutar aplicaciones y juegos de Android en tu PC. Estos son los pasos para descargar Temple Run para PC Windows 7 usando BlueStacks:</p>
18
- <h3>Paso 1: Descargar e instalar BlueStacks</h3>
19
-
20
- <h3>Paso 2: Búsqueda de Temple Run en Google Play</h3>
21
- <p>Después de instalar BlueStacks, iniciarlo e iniciar sesión con su cuenta de Google. Luego, abre Google Play desde la pantalla de inicio y busca "Temple Run". Verás el icono del juego en los resultados de búsqueda. </p>
22
- <h3>Paso 3: Instalar y jugar Temple Run en PC</h3>
23
- <p>Haga clic en el botón "Instalar" para descargar e instalar Temple Run en su PC. Una vez realizada la instalación, haga clic en el botón "Reproducir" para comenzar a jugar Temple Run en PC. Puede utilizar el teclado o el ratón para controlar el corredor, o personalizar sus controles a través del editor de controles.</p>
24
- <h2>Cómo descargar Temple Run para PC Windows 7 usando MEmu</h2>
25
- <p>MEmu es otro emulador de Android que te permite jugar juegos de Android en tu PC. Estos son los pasos para descargar Temple Run para PC Windows 7 usando MEmu:</p>
26
- <p></p>
27
- <h3>Paso 1: Descargar e instalar MEmu</h3>
28
- <p>Para descargar MEmu, vaya a <a href="( 4 )">este enlace</a> y haga clic en el botón "Descargar". Una vez finalizada la descarga, abra el instalador y siga las instrucciones para instalar MEmu en su PC.</p>
29
- <h3>Paso 2: Búsqueda de Temple Run en Google Play</h3>
30
- <p>Después de instalar MEmu, inicie sesión con su cuenta de Google. Luego, abra Google Play desde la pantalla de inicio y busque "Temple Run". Verás el icono del juego en los resultados de búsqueda. </p>
31
- <h3>Paso 3: Instalar y jugar Temple Run en PC</h3>
32
- <p>Haga clic en el botón "Instalar" para descargar e instalar Temple Run en su PC. Una vez realizada la instalación, haga clic en el botón "Reproducir" para comenzar a jugar Temple Run en PC. Puede utilizar el teclado o el ratón para controlar el corredor, o personalizar sus controles a través del menú Configuración. </p>
33
- <h2>Conclusión</h2>
34
-
35
- <h4>Preguntas frecuentes</h4>
36
- <ul>
37
- <li>Q: ¿Es Temple Run gratis para jugar? </li>
38
- <li>A: Sí, Temple Run es gratis para jugar y descargar en dispositivos móviles y PC.</li>
39
- <li>Q: ¿Puedo jugar Temple Run sin conexión? </li>
40
- <li>A: Sí, puedes jugar Temple Run sin conexión una vez que lo hayas instalado en tu dispositivo o PC.</li>
41
- <li>Q: ¿Cuántos caracteres hay en Temple Run? </li>
42
- <li>A: Hay 10 personajes en Temple Run, cada uno con sus propias habilidades y trajes. Puedes desbloquearlos recogiendo monedas o comprándolas con dinero real. </li>
43
- <li>Q: ¿Cuáles son los power-ups en Temple Run? </li>
44
- <li>A: Hay cuatro potenciadores en Temple Run: Imán de monedas, Invisibilidad, Boost y Mega Coin. Puedes activarlos recogiéndolos durante tu carrera o comprándolos con monedas. </li>
45
- <li>Q: ¿Cómo puedo guardar mi progreso en Temple Run? </li>
46
- <li>A: Puedes guardar tu progreso en Temple Run iniciando sesión con tu cuenta de Google Play o Facebook. Esto también le permitirá sincronizar su progreso a través de diferentes dispositivos o PC.</li>
47
- </ul></p> 64aa2da5cf<br />
48
- <br />
49
- <br />
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Benson/text-generation/Examples/Descargar Fuga De Prisin S1.md DELETED
@@ -1,73 +0,0 @@
1
- <br />
2
- <h1>Cómo descargar la temporada 1</h1>
3
- <p>Prison Break es uno de los programas de televisión más populares y aclamados de la década de 2000, con una base de fans leales y seguidores de culto. La primera temporada, que se emitió en 2005-2006, nos presentó la emocionante historia de dos hermanos que están dispuestos a arriesgar todo para escapar de una prisión de máxima seguridad. Si estás buscando una forma de descargar Prison Break temporada 1, has venido al lugar correcto. En este artículo, te diremos de qué se trata la temporada 1 de Prison Break, por qué deberías verla y cómo descargarla de forma legal y segura. </p>
4
- <h2>descargar fuga de prisión s1</h2><br /><p><b><b>Download Zip</b> &#10037;&#10037;&#10037; <a href="https://bltlly.com/2v6Miz">https://bltlly.com/2v6Miz</a></b></p><br /><br />
5
- <h2>¿Qué es la Temporada 1 de Receso de Prisión? </h2>
6
-
7
- <h3>Sinopsis</h3>
8
- <p>La primera temporada consta de 22 episodios, que cubren aproximadamente seis semanas de la vida de los personajes (del 11 de abril al 27 de mayo) - toda la duración de la estancia de Michael en la Penitenciaría Estatal de Fox River. La temporada comienza con la llegada de Michael a Fox River y termina con su escape con otros siete reclusos: Lincoln, Sucre, Abruzzi, Westmorland, Benjamin Miles "C-Note" Franklin (Rockmond Dunbar), Theodore "T-Bag" Bagwell (Robert Knepper), y David "Tweener" Apolskis (Lane Garrison). En el camino, se enfrentan a muchos obstáculos y desafíos, como disturbios, bloqueos, traiciones, muertes y descubrimientos. También tienen que lidiar con la persecución de varios enemigos, como el capitán Brad Bellick (Wade Williams), que está a cargo de los guardias de la prisión; el agente del Servicio Secreto Paul Kellerman (Paul Adelstein), que trabaja para el vicepresidente Reynolds; y el agente especial del FBI Alexander Mahone (William Fichtner), que se asigna para localizar a los fugitivos. </p>
9
- <h3>Reparto y caracteres</h3>
10
- <p>La primera temporada cuenta con un total de diez actores que recibieron la facturación de estrellas, con numerosos papeles secundarios. El reparto principal incluye:</p>
11
- <ul>
12
- <li>Dominic Purcell como Lincoln Burrows: Un condenado a muerte acusado de matar al hermano del vicepresidente. </ <li>Wentworth Miller como Michael Scofield: Un ingeniero estructural que diseña un elaborado plan para sacar a su hermano de la cárcel. </li>
13
- <li>Robin Tunney como Verónica Donovan: Un abogado y ex novia de Lincoln, que intenta probar su inocencia. </li>
14
- <li>Amaury Nolasco como Fernando Sucre: compañero de celda y amigo de Michael, que se une al equipo de escape. </li>
15
- <li>Marshall Allman como Lincoln "L. J." Burrows Jr.: El hijo adolescente de Lincoln, que es blanco de los conspiradores. </li>
16
- <li>Peter Stormare como John Abruzzi: Un jefe de la mafia y líder de la prisión, que ofrece sus recursos a Michael a cambio de información. </li>
17
- <li>Wade Williams como Brad Bellick: El capitán de los guardias de la prisión, que está decidido a detener a los fugitivos. </li>
18
-
19
- <li>Sarah Wayne Callies como Sara Tancredi: El médico de la prisión y la hija del gobernador, que desarrolla una relación con Michael.</li>
20
- <li>Paul Adelstein como Paul Kellerman: Un agente del Servicio Secreto, que es parte de la conspiración que incriminó a Lincoln.</li>
21
- </ul>
22
- <h3>Calificaciones y comentarios</h3>
23
- <p>La temporada 1 de Prison Break recibió elogios de la crítica y fue nominada a varios premios, incluyendo el Golden Globe Award a la Mejor Serie de Televisión - Drama y el Premio Emmy Primetime a la Música Original Título Principal Excepcional. La temporada también alcanzó altas calificaciones, con un promedio de 9,2 millones de espectadores por episodio en los Estados Unidos. El final de la temporada, que se emitió el 15 de mayo de 2006, fue visto por 10,8 millones de espectadores, por lo que es el episodio más visto de la serie. </p>
24
- <p>La temporada 1 de Prison Break fue elogiada por su historia apasionante, giros suspensivos y personajes convincentes. Los críticos también elogiaron las actuaciones del elenco, especialmente Purcell y Miller. Algunas de las críticas positivas son:</p>
25
- <ul>
26
- <li>"Prison Break es un entretenimiento pop seguro de un orden muy alto." - Robert Bianco, USA Today</li>
27
- <li>"Prison Break es uno de esos casos felices donde se puede juzgar un libro por su portada - o un programa de televisión por su título. Entrega exactamente lo que promete." - David Bianculli, New York Daily News</li>
28
- <li>"Prison Break es un espectáculo que sabe exactamente lo que es - un thriller tenso con una premisa inteligente - y cumple con esa promesa con estilo." - Brian Lowry, Variedad</li>
29
- </ul>
30
- <h2>Por qué deberías ver la temporada 1</h2>
31
- <p>Si estás buscando un programa de televisión que te mantenga al borde de tu asiento, Prison Break temporada 1 es una gran opción. Estas son algunas de las razones por las que deberías verlo:</p>
32
- <h3>Emocionante trama y giros</h3>
33
-
34
- <h3>Personajes y actuaciones interesantes</h3>
35
- <p>Prison Break temporada 1 tiene un elenco diverso y dinámico de personajes que te harán preocuparte por sus destinos. El espectáculo cuenta con héroes y villanos que son complejos y defectuosos, con sus propias motivaciones y antecedentes. El espectáculo también muestra la química y los conflictos entre los personajes, especialmente entre los hermanos Michael y Lincoln. Los actores ofrecen actuaciones excepcionales que dan vida a sus personajes. Los apoyarás, los odiarás, simpatizarás con ellos y temerás por ellos. </p>
36
- <h3>Plan de escape inteligente y creativo</h3>
37
- <p>Prison Break season 1 tiene un plan de escape único e ingenioso que te sorprenderá con sus detalles y ejecución. Michael Scofield no solo es un ingeniero brillante, sino también un cerebro que ha planeado cada paso de su fuga. Ha tatuado toda su parte superior del cuerpo con un plano de la prisión y pistas ocultas en sus dibujos. También ha estudiado la disposición, el horario, el personal, los reclusos y los sistemas de seguridad de la prisión. Se ha preparado para cada posible escenario y contingencia. También ha reclutado aliados dentro y fuera de la prisión que pueden ayudarlo con su plan. Su plan de escape no solo es realista, sino también creativo y atrevido. </p>
38
- <p></p>
39
- <h2>Cómo descargar la temporada de vacaciones de prisión 1 legalmente y con seguridad</h2>
40
- <p>Si desea descargar Prison Break temporada 1, debe hacerlo de forma legal y segura, para evitar cualquier problema legal o riesgos de malware. Hay varias maneras de descargar Prison Break temporada 1 legal y segura, dependiendo de sus preferencias y presupuesto. Estas son algunas de las opciones:</p>
41
- <h3>Servicios de streaming</h3>
42
- <p>Una de las formas más fáciles y convenientes de descargar Prison Break temporada 1 es utilizar un servicio de streaming que ofrece visualización offline. De esta manera, puedes ver los episodios en cualquier momento y en cualquier lugar, sin conexión a Internet. Algunos de los servicios de streaming que ofrecen visualización offline para la temporada 1 de Prison Break son:</p>
43
- <h4>Hulu</h4>
44
-
45
- <h4>Video de Amazon Prime</h4>
46
- <p>Amazon Prime Video es otro servicio de streaming popular que ofrece una enorme biblioteca de programas de televisión y películas, incluyendo Prison Break. Puede descargar hasta 25 títulos a la vez en hasta cuatro dispositivos con una suscripción de Amazon Prime Video. También puede elegir la calidad de descarga, de bueno a mejor. Para descargar Prison Break temporada 1 en Amazon Prime Video, necesitas tener una membresía de Amazon Prime, que cuesta $12.99 por mes o $119 por año. También puede obtener una prueba gratuita durante 30 días. </p>
47
- <h3>Tiendas digitales</h3>
48
- <p>Otra forma de descargar Prison Break temporada 1 es comprarlo o alquilarlo en una tienda digital que ofrece descargas. De esta manera, puede poseer o acceder a los episodios por un tiempo limitado, dependiendo de su elección. Algunas de las tiendas digitales que ofrecen descargas para la temporada 1 son:</p>
49
- <h4>Películas de Google Play</h4>
50
- <p>Google Play Movies es una tienda digital que ofrece programas de televisión y películas para comprar o alquilar. Puede descargar los episodios en hasta cinco dispositivos con una cuenta de Google. También puede elegir la calidad de descarga, desde SD a HD. Para descargar Prison Break temporada 1 en Google Play Movies, necesitas pagar $19.99 por toda la temporada o $1.99 por episodio. </p>
51
- <h4>Apple TV</h4>
52
- <p>Apple TV es una tienda digital que ofrece programas de televisión y películas para comprar o alquilar. Puede descargar los episodios en hasta cinco dispositivos con un ID de Apple. También puede elegir la calidad de descarga, desde SD a HD. Para descargar Prison Break temporada 1 en Apple TV, debes pagar $19.99 por toda la temporada o $2.99 por episodio. </p>
53
- <h4>Vudu</h4>
54
- <p>Vudu es una tienda digital que ofrece programas de televisión y películas para comprar o alquilar. Puede descargar los episodios en hasta ocho dispositivos con una cuenta Vudu. También puede elegir la calidad de descarga, desde SD hasta UHD. Para descargar Prison Break temporada 1 en Vudu, necesitas pagar $19.99 por toda la temporada o $2.99 por episodio. </p>
55
- <h4>Microsoft Store</h4>
56
-
57
- <h2>Conclusión</h2>
58
- <p>Prison Break temporada 1 es uno de los mejores programas de televisión de todos los tiempos, con una trama cautivadora, personajes atractivos y un plan de escape inteligente. Si desea ver o volver a ver este increíble espectáculo, debe hacerlo de forma legal y segura mediante el uso de una de las opciones que hemos enumerado anteriormente. Ya sea que prefieras servicios de streaming o tiendas digitales, puedes encontrar una manera de descargar Prison Break temporada 1 que se adapte a tus necesidades y presupuesto. </p>
59
- <h2>Preguntas frecuentes</h2>
60
- <ul>
61
- <li>P: ¿Cuántos episodios hay en la temporada 1 de Prison Break?</li>
62
- <li>A: Hay 22 episodios en la temporada 1.</li>
63
- <li>Q: ¿Cuándo se emitió la primera temporada de Prison Break? </li>
64
- <li>A: Prison Break temporada 1 se emitió del 29 de agosto de 2005 al 15 de mayo de 2006. </li>
65
- <li>Q: ¿Quién creó Prison Break? </li>
66
- <li>A: Prison Break fue creado por Paul Scheuring, quien también se desempeñó como productor ejecutivo y showrunner. </li>
67
- <li>P: ¿La fuga de prisión se basa en una historia real? </li>
68
- <li>A: No, Prison Break no se basa en una historia real. Sin embargo, algunos de los elementos e inspiraciones para el programa vinieron de eventos y fuentes de la vida real, como el caso de D.B. Cooper, el escape de Alcatraz y el Conde de Monte Cristo.</li>
69
- <li>Q: ¿Cuántas temporadas hay en Prison Break? </li>
70
- <li>A: Hay cinco temporadas en Prison Break, con un total de 90 episodios. Las primeras cuatro temporadas se emitieron de 2005 a 2009, y la quinta temporada se emitió en 2017 como un avivamiento. </li>
71
- </ul></p> 64aa2da5cf<br />
72
- <br />
73
- <br />
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/BetterAPI/BetterChat/README.md DELETED
@@ -1,11 +0,0 @@
1
- ---
2
- title: chat-ui
3
- emoji: 🔥
4
- colorFrom: purple
5
- colorTo: purple
6
- sdk: docker
7
- pinned: false
8
- license: apache-2.0
9
- base_path: /chat
10
- app_port: 3000
11
- ---
 
 
 
 
 
 
 
 
 
 
 
 
spaces/Billyosoro/ESRGAN/tests/test_utils.py DELETED
@@ -1,87 +0,0 @@
1
- import numpy as np
2
- from basicsr.archs.rrdbnet_arch import RRDBNet
3
-
4
- from realesrgan.utils import RealESRGANer
5
-
6
-
7
- def test_realesrganer():
8
- # initialize with default model
9
- restorer = RealESRGANer(
10
- scale=4,
11
- model_path='experiments/pretrained_models/RealESRGAN_x4plus.pth',
12
- model=None,
13
- tile=10,
14
- tile_pad=10,
15
- pre_pad=2,
16
- half=False)
17
- assert isinstance(restorer.model, RRDBNet)
18
- assert restorer.half is False
19
- # initialize with user-defined model
20
- model = RRDBNet(num_in_ch=3, num_out_ch=3, num_feat=64, num_block=6, num_grow_ch=32, scale=4)
21
- restorer = RealESRGANer(
22
- scale=4,
23
- model_path='experiments/pretrained_models/RealESRGAN_x4plus_anime_6B.pth',
24
- model=model,
25
- tile=10,
26
- tile_pad=10,
27
- pre_pad=2,
28
- half=True)
29
- # test attribute
30
- assert isinstance(restorer.model, RRDBNet)
31
- assert restorer.half is True
32
-
33
- # ------------------ test pre_process ---------------- #
34
- img = np.random.random((12, 12, 3)).astype(np.float32)
35
- restorer.pre_process(img)
36
- assert restorer.img.shape == (1, 3, 14, 14)
37
- # with modcrop
38
- restorer.scale = 1
39
- restorer.pre_process(img)
40
- assert restorer.img.shape == (1, 3, 16, 16)
41
-
42
- # ------------------ test process ---------------- #
43
- restorer.process()
44
- assert restorer.output.shape == (1, 3, 64, 64)
45
-
46
- # ------------------ test post_process ---------------- #
47
- restorer.mod_scale = 4
48
- output = restorer.post_process()
49
- assert output.shape == (1, 3, 60, 60)
50
-
51
- # ------------------ test tile_process ---------------- #
52
- restorer.scale = 4
53
- img = np.random.random((12, 12, 3)).astype(np.float32)
54
- restorer.pre_process(img)
55
- restorer.tile_process()
56
- assert restorer.output.shape == (1, 3, 64, 64)
57
-
58
- # ------------------ test enhance ---------------- #
59
- img = np.random.random((12, 12, 3)).astype(np.float32)
60
- result = restorer.enhance(img, outscale=2)
61
- assert result[0].shape == (24, 24, 3)
62
- assert result[1] == 'RGB'
63
-
64
- # ------------------ test enhance with 16-bit image---------------- #
65
- img = np.random.random((4, 4, 3)).astype(np.uint16) + 512
66
- result = restorer.enhance(img, outscale=2)
67
- assert result[0].shape == (8, 8, 3)
68
- assert result[1] == 'RGB'
69
-
70
- # ------------------ test enhance with gray image---------------- #
71
- img = np.random.random((4, 4)).astype(np.float32)
72
- result = restorer.enhance(img, outscale=2)
73
- assert result[0].shape == (8, 8)
74
- assert result[1] == 'L'
75
-
76
- # ------------------ test enhance with RGBA---------------- #
77
- img = np.random.random((4, 4, 4)).astype(np.float32)
78
- result = restorer.enhance(img, outscale=2)
79
- assert result[0].shape == (8, 8, 4)
80
- assert result[1] == 'RGBA'
81
-
82
- # ------------------ test enhance with RGBA, alpha_upsampler---------------- #
83
- restorer.tile_size = 0
84
- img = np.random.random((4, 4, 4)).astype(np.float32)
85
- result = restorer.enhance(img, outscale=2, alpha_upsampler=None)
86
- assert result[0].shape == (8, 8, 4)
87
- assert result[1] == 'RGBA'
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/CVPR/BigDL-Nano_inference/original_models.py DELETED
@@ -1,359 +0,0 @@
1
- # This file is copied from https://github.com/rnwzd/FSPBT-Image-Translation/blob/master/original_models.py
2
-
3
- # MIT License
4
-
5
- # Copyright (c) 2022 Lorenzo Breschi
6
-
7
- # Permission is hereby granted, free of charge, to any person obtaining a copy
8
- # of this software and associated documentation files (the "Software"), to deal
9
- # in the Software without restriction, including without limitation the rights
10
- # to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
11
- # copies of the Software, and to permit persons to whom the Software is
12
- # furnished to do so, subject to the following conditions:
13
-
14
- # The above copyright notice and this permission notice shall be included in all
15
- # copies or substantial portions of the Software.
16
-
17
- # THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
18
- # IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
19
- # FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
20
- # AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
21
- # LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
22
- # OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
23
- # SOFTWARE.
24
-
25
-
26
- import torch
27
- import torch.nn as nn
28
- from torch.autograd import Variable
29
- from torch.nn import functional as F
30
-
31
- import torchvision
32
- from torchvision import models
33
-
34
- import pytorch_lightning as pl
35
-
36
- class LeakySoftplus(nn.Module):
37
- def __init__(self,negative_slope: float = 0.01 ):
38
- super().__init__()
39
- self.negative_slope=negative_slope
40
-
41
- def forward(self,input):
42
- return F.softplus(input)+F.logsigmoid(input)*self.negative_slope
43
-
44
-
45
- grelu = nn.LeakyReLU(0.2)
46
- #grelu = nn.Softplus()
47
- #grelu = LeakySoftplus(0.2)
48
- #####
49
- # Currently default generator we use
50
- # conv0 -> conv1 -> conv2 -> resnet_blocks -> upconv2 -> upconv1 -> conv_11 -> (conv_11_a)* -> conv_12 -> (Tanh)*
51
- # there are 2 conv layers inside conv_11_a
52
- # * means is optional, model uses skip-connections
53
- class Generator(pl.LightningModule):
54
- def __init__(self, norm_layer='batch_norm', use_bias=False, resnet_blocks=7, tanh=True,
55
- filters=[32, 64, 128, 128, 128, 64], input_channels=3, output_channels=3, append_smoothers=False):
56
- super().__init__()
57
- assert norm_layer in [None, 'batch_norm', 'instance_norm'], \
58
- "norm_layer should be None, 'batch_norm' or 'instance_norm', not {}".format(
59
- norm_layer)
60
- self.norm_layer = None
61
- if norm_layer == 'batch_norm':
62
- self.norm_layer = nn.BatchNorm2d
63
- elif norm_layer == 'instance_norm':
64
- self.norm_layer = nn.InstanceNorm2d
65
-
66
- # filters = [f//3 for f in filters]
67
- self.use_bias = use_bias
68
- self.resnet_blocks = resnet_blocks
69
- self.append_smoothers = append_smoothers
70
-
71
- stride1 = 2
72
- stride2 = 2
73
- self.conv0 = self.relu_layer(in_filters=input_channels, out_filters=filters[0],
74
- kernel_size=7, stride=1, padding=3,
75
- bias=self.use_bias,
76
- norm_layer=self.norm_layer,
77
- nonlinearity=grelu)
78
-
79
- self.conv1 = self.relu_layer(in_filters=filters[0],
80
- out_filters=filters[1],
81
- kernel_size=3, stride=stride1, padding=1,
82
- bias=self.use_bias,
83
- norm_layer=self.norm_layer,
84
- nonlinearity=grelu)
85
-
86
- self.conv2 = self.relu_layer(in_filters=filters[1],
87
- out_filters=filters[2],
88
- kernel_size=3, stride=stride2, padding=1,
89
- bias=self.use_bias,
90
- norm_layer=self.norm_layer,
91
- nonlinearity=grelu)
92
-
93
- self.resnets = nn.ModuleList()
94
- for i in range(self.resnet_blocks):
95
- self.resnets.append(
96
- self.resnet_block(in_filters=filters[2],
97
- out_filters=filters[2],
98
- kernel_size=3, stride=1, padding=1,
99
- bias=self.use_bias,
100
- norm_layer=self.norm_layer,
101
- nonlinearity=grelu))
102
-
103
- self.upconv2 = self.upconv_layer_upsample_and_conv(in_filters=filters[3] + filters[2],
104
- # in_filters=filters[3], # disable skip-connections
105
- out_filters=filters[4],
106
- scale_factor=stride2,
107
- kernel_size=3, stride=1, padding=1,
108
- bias=self.use_bias,
109
- norm_layer=self.norm_layer,
110
- nonlinearity=grelu)
111
-
112
- self.upconv1 = self.upconv_layer_upsample_and_conv(in_filters=filters[4] + filters[1],
113
- # in_filters=filters[4], # disable skip-connections
114
- out_filters=filters[4],
115
- scale_factor=stride1,
116
- kernel_size=3, stride=1, padding=1,
117
- bias=self.use_bias,
118
- norm_layer=self.norm_layer,
119
- nonlinearity=grelu)
120
-
121
- self.conv_11 = nn.Sequential(
122
- nn.Conv2d(in_channels=filters[0] + filters[4] + input_channels,
123
- # in_channels=filters[4], # disable skip-connections
124
- out_channels=filters[5],
125
- kernel_size=7, stride=1, padding=3, bias=self.use_bias, padding_mode='zeros'),
126
- grelu
127
- )
128
-
129
- if self.append_smoothers:
130
- self.conv_11_a = nn.Sequential(
131
- nn.Conv2d(filters[5], filters[5], kernel_size=3,
132
- bias=self.use_bias, padding=1, padding_mode='zeros'),
133
- grelu,
134
- # replace with variable
135
- nn.BatchNorm2d(num_features=filters[5]),
136
- nn.Conv2d(filters[5], filters[5], kernel_size=3,
137
- bias=self.use_bias, padding=1, padding_mode='zeros'),
138
- grelu
139
- )
140
-
141
- if tanh:
142
- self.conv_12 = nn.Sequential(nn.Conv2d(filters[5], output_channels,
143
- kernel_size=1, stride=1,
144
- padding=0, bias=True, padding_mode='zeros'),
145
- #torchvision.transforms.Grayscale(num_output_channels=3),
146
- nn.Sigmoid())
147
- else:
148
- self.conv_12 = nn.Conv2d(filters[5], output_channels, kernel_size=1, stride=1,
149
- padding=0, bias=True, padding_mode='zeros')
150
-
151
- def log_tensors(self, logger, tag, img_tensor):
152
- logger.experiment.add_images(tag, img_tensor)
153
-
154
- def forward(self, input, logger=None, **kwargs):
155
- # [1, 3, 534, 800]
156
- output_d0 = self.conv0(input)
157
- output_d1 = self.conv1(output_d0)
158
- # comment to disable skip-connections
159
- output_d2 = self.conv2(output_d1)
160
-
161
- output = output_d2
162
- for layer in self.resnets:
163
- output = layer(output) + output
164
-
165
- output_u2 = self.upconv2(torch.cat((output, output_d2), dim=1))
166
-
167
- output_u1 = self.upconv1(torch.cat((output_u2, output_d1), dim=1))
168
- output = torch.cat(
169
- (output_u1, output_d0, input), dim=1)
170
-
171
- output_11 = self.conv_11(output)
172
-
173
- if self.append_smoothers:
174
- output_11_a = self.conv_11_a(output_11)
175
- else:
176
- output_11_a = output_11
177
- output_12 = self.conv_12(output_11_a)
178
-
179
- output = output_12
180
-
181
- return output
182
-
183
- def relu_layer(self, in_filters, out_filters, kernel_size, stride, padding, bias,
184
- norm_layer, nonlinearity):
185
- out = nn.Sequential()
186
- out.add_module('conv', nn.Conv2d(in_channels=in_filters,
187
- out_channels=out_filters,
188
- kernel_size=kernel_size, stride=stride,
189
- padding=padding, bias=bias, padding_mode='zeros'))
190
-
191
- if norm_layer:
192
- out.add_module('normalization',
193
- norm_layer(num_features=out_filters))
194
- if nonlinearity:
195
- out.add_module('nonlinearity', nonlinearity)
196
- # out.add_module('dropout', nn.Dropout2d(0.25))
197
-
198
- return out
199
-
200
- def resnet_block(self, in_filters, out_filters, kernel_size, stride, padding, bias,
201
- norm_layer, nonlinearity):
202
- out = nn.Sequential()
203
- if nonlinearity:
204
- out.add_module('nonlinearity_0', nonlinearity)
205
- out.add_module('conv_0', nn.Conv2d(in_channels=in_filters,
206
- out_channels=out_filters,
207
- kernel_size=kernel_size, stride=stride,
208
- padding=padding, bias=bias, padding_mode='zeros'))
209
- if norm_layer:
210
- out.add_module('normalization',
211
- norm_layer(num_features=out_filters))
212
- if nonlinearity:
213
- out.add_module('nonlinearity_1', nonlinearity)
214
- out.add_module('conv_1', nn.Conv2d(in_channels=in_filters,
215
- out_channels=out_filters,
216
- kernel_size=kernel_size, stride=stride,
217
- padding=padding, bias=bias, padding_mode='zeros'))
218
- return out
219
-
220
- def upconv_layer_upsample_and_conv(self, in_filters, out_filters, scale_factor, kernel_size, stride, padding, bias,
221
- norm_layer, nonlinearity):
222
-
223
- parts = [nn.Upsample(scale_factor=scale_factor),
224
- nn.Conv2d(in_filters, out_filters, kernel_size,
225
- stride, padding=padding, bias=False, padding_mode='zeros')
226
- ]
227
-
228
- if norm_layer:
229
- parts.append(norm_layer(num_features=out_filters))
230
-
231
- if nonlinearity:
232
- parts.append(nonlinearity)
233
-
234
- return nn.Sequential(*parts)
235
-
236
-
237
-
238
-
239
- relu = grelu
240
-
241
- #####
242
- # Default discriminator
243
- #####
244
-
245
- relu = nn.LeakyReLU(0.2)
246
-
247
- class Discriminator(nn.Module):
248
- def __init__(self, num_filters=12, input_channels=3, n_layers=2,
249
- norm_layer='instance_norm', use_bias=True):
250
- super().__init__()
251
-
252
- self.num_filters = num_filters
253
-
254
- self.input_channels = input_channels
255
- self.use_bias = use_bias
256
-
257
- if norm_layer == 'batch_norm':
258
- self.norm_layer = nn.BatchNorm2d
259
- else:
260
- self.norm_layer = nn.InstanceNorm2d
261
- self.net = self.make_net(
262
- n_layers, self.input_channels, 1, 4, 2, self.use_bias)
263
-
264
- def make_net(self, n, flt_in, flt_out=1, k=4, stride=2, bias=True):
265
- padding = 1
266
- model = nn.Sequential()
267
-
268
- model.add_module('conv0', self.make_block(
269
- flt_in, self.num_filters, k, stride, padding, bias, None, relu))
270
-
271
- flt_mult, flt_mult_prev = 1, 1
272
- # n - 1 blocks
273
- for l in range(1, n):
274
- flt_mult_prev = flt_mult
275
- flt_mult = min(2**(l), 8)
276
- model.add_module('conv_%d' % (l), self.make_block(self.num_filters * flt_mult_prev, self.num_filters * flt_mult,
277
- k, stride, padding, bias, self.norm_layer, relu))
278
-
279
- flt_mult_prev = flt_mult
280
- flt_mult = min(2**n, 8)
281
- model.add_module('conv_%d' % (n), self.make_block(self.num_filters * flt_mult_prev, self.num_filters * flt_mult,
282
- k, 1, padding, bias, self.norm_layer, relu))
283
- model.add_module('conv_out', self.make_block(
284
- self.num_filters * flt_mult, 1, k, 1, padding, bias, None, None))
285
- return model
286
-
287
- def make_block(self, flt_in, flt_out, k, stride, padding, bias, norm, relu):
288
- m = nn.Sequential()
289
- m.add_module('conv', nn.Conv2d(flt_in, flt_out, k,
290
- stride=stride, padding=padding, bias=bias, padding_mode='zeros'))
291
- if norm is not None:
292
- m.add_module('norm', norm(flt_out))
293
- if relu is not None:
294
- m.add_module('relu', relu)
295
- return m
296
-
297
- def forward(self, x):
298
- output = self.net(x)
299
- # output = output.mean((2, 3), True)
300
- # output = output.squeeze(-1).squeeze(-1)
301
- # output = output.mean(dim=(-1,-2))
302
- return output
303
-
304
-
305
- #####
306
- # Perception VGG19 loss
307
- #####
308
- class PerceptualVGG19(nn.Module):
309
- def __init__(self, feature_layers=[0, 3, 5], use_normalization=False):
310
- super().__init__()
311
- # model = models.vgg19(pretrained=True)
312
- model = models.squeezenet1_1(pretrained=True)
313
- model.float()
314
- model.eval()
315
-
316
- self.model = model
317
- self.feature_layers = feature_layers
318
-
319
- self.mean = torch.FloatTensor([0.485, 0.456, 0.406])
320
- self.mean_tensor = None
321
-
322
- self.std = torch.FloatTensor([0.229, 0.224, 0.225])
323
- self.std_tensor = None
324
-
325
- self.use_normalization = use_normalization
326
-
327
- for param in self.parameters():
328
- param.requires_grad = False
329
-
330
- def normalize(self, x):
331
- if not self.use_normalization:
332
- return x
333
-
334
- if self.mean_tensor is None:
335
- self.mean_tensor = Variable(
336
- self.mean.view(1, 3, 1, 1).expand(x.shape),
337
- requires_grad=False)
338
- self.std_tensor = Variable(
339
- self.std.view(1, 3, 1, 1).expand(x.shape), requires_grad=False)
340
-
341
- x = (x + 1) / 2
342
- return (x - self.mean_tensor) / self.std_tensor
343
-
344
- def run(self, x):
345
- features = []
346
-
347
- h = x
348
-
349
- for f in range(max(self.feature_layers) + 1):
350
- h = self.model.features[f](h)
351
- if f in self.feature_layers:
352
- not_normed_features = h.clone().view(h.size(0), -1)
353
- features.append(not_normed_features)
354
-
355
- return torch.cat(features, dim=1)
356
-
357
- def forward(self, x):
358
- h = self.normalize(x)
359
- return self.run(h)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/CVPR/Dual-Key_Backdoor_Attacks/openvqa/openvqa/datasets/vqa/eval/vqa.py DELETED
@@ -1,180 +0,0 @@
1
- __author__ = 'aagrawal'
2
- __version__ = '0.9'
3
-
4
- # Interface for accessing the VQA dataset.
5
-
6
- # This code is based on the code written by Tsung-Yi Lin for MSCOCO Python API available at the following link:
7
- # (https://github.com/pdollar/coco/blob/master/PythonAPI/pycocotools/coco.py).
8
-
9
- # The following functions are defined:
10
- # VQA - VQA class that loads VQA annotation file and prepares data structures.
11
- # getQuesIds - Get question ids that satisfy given filter conditions.
12
- # getImgIds - Get image ids that satisfy given filter conditions.
13
- # loadQA - Load questions and answers with the specified question ids.
14
- # showQA - Display the specified questions and answers.
15
- # loadRes - Load result file and create result object.
16
-
17
- # Help on each function can be accessed by: "help(COCO.function)"
18
-
19
- import json
20
- import datetime
21
- import copy
22
-
23
-
24
- class VQA:
25
- def __init__(self, annotation_file=None, question_file=None):
26
- """
27
- Constructor of VQA helper class for reading and visualizing questions and answers.
28
- :param annotation_file (str): location of VQA annotation file
29
- :return:
30
- """
31
- # load dataset
32
- self.dataset = {}
33
- self.questions = {}
34
- self.qa = {}
35
- self.qqa = {}
36
- self.imgToQA = {}
37
- if not annotation_file == None and not question_file == None:
38
- print('loading VQA annotations and questions into memory...')
39
- time_t = datetime.datetime.utcnow()
40
- dataset = json.load(open(annotation_file, 'r'))
41
- questions = json.load(open(question_file, 'r'))
42
- print(datetime.datetime.utcnow() - time_t)
43
- self.dataset = dataset
44
- self.questions = questions
45
- self.createIndex()
46
-
47
- def createIndex(self):
48
- # create index
49
- print('creating index...')
50
- imgToQA = {ann['image_id']: [] for ann in self.dataset['annotations']}
51
- qa = {ann['question_id']: [] for ann in self.dataset['annotations']}
52
- qqa = {ann['question_id']: [] for ann in self.dataset['annotations']}
53
- for ann in self.dataset['annotations']:
54
- imgToQA[ann['image_id']] += [ann]
55
- qa[ann['question_id']] = ann
56
- for ques in self.questions['questions']:
57
- qqa[ques['question_id']] = ques
58
- print('index created!')
59
-
60
- # create class members
61
- self.qa = qa
62
- self.qqa = qqa
63
- self.imgToQA = imgToQA
64
-
65
- def info(self):
66
- """
67
- Print information about the VQA annotation file.
68
- :return:
69
- """
70
- for key, value in self.dataset['info'].items():
71
- print('%s: %s' % (key, value))
72
-
73
- def getQuesIds(self, imgIds=[], quesTypes=[], ansTypes=[]):
74
- """
75
- Get question ids that satisfy given filter conditions. default skips that filter
76
- :param imgIds (int array) : get question ids for given imgs
77
- quesTypes (str array) : get question ids for given question types
78
- ansTypes (str array) : get question ids for given answer types
79
- :return: ids (int array) : integer array of question ids
80
- """
81
- imgIds = imgIds if type(imgIds) == list else [imgIds]
82
- quesTypes = quesTypes if type(quesTypes) == list else [quesTypes]
83
- ansTypes = ansTypes if type(ansTypes) == list else [ansTypes]
84
-
85
- if len(imgIds) == len(quesTypes) == len(ansTypes) == 0:
86
- anns = self.dataset['annotations']
87
- else:
88
- if not len(imgIds) == 0:
89
- anns = sum([self.imgToQA[imgId] for imgId in imgIds if imgId in self.imgToQA], [])
90
- else:
91
- anns = self.dataset['annotations']
92
- anns = anns if len(quesTypes) == 0 else [ann for ann in anns if ann['question_type'] in quesTypes]
93
- anns = anns if len(ansTypes) == 0 else [ann for ann in anns if ann['answer_type'] in ansTypes]
94
- ids = [ann['question_id'] for ann in anns]
95
- return ids
96
-
97
- def getImgIds(self, quesIds=[], quesTypes=[], ansTypes=[]):
98
- """
99
- Get image ids that satisfy given filter conditions. default skips that filter
100
- :param quesIds (int array) : get image ids for given question ids
101
- quesTypes (str array) : get image ids for given question types
102
- ansTypes (str array) : get image ids for given answer types
103
- :return: ids (int array) : integer array of image ids
104
- """
105
- quesIds = quesIds if type(quesIds) == list else [quesIds]
106
- quesTypes = quesTypes if type(quesTypes) == list else [quesTypes]
107
- ansTypes = ansTypes if type(ansTypes) == list else [ansTypes]
108
-
109
- if len(quesIds) == len(quesTypes) == len(ansTypes) == 0:
110
- anns = self.dataset['annotations']
111
- else:
112
- if not len(quesIds) == 0:
113
- anns = sum([self.qa[quesId] for quesId in quesIds if quesId in self.qa], [])
114
- else:
115
- anns = self.dataset['annotations']
116
- anns = anns if len(quesTypes) == 0 else [ann for ann in anns if ann['question_type'] in quesTypes]
117
- anns = anns if len(ansTypes) == 0 else [ann for ann in anns if ann['answer_type'] in ansTypes]
118
- ids = [ann['image_id'] for ann in anns]
119
- return ids
120
-
121
- def loadQA(self, ids=[]):
122
- """
123
- Load questions and answers with the specified question ids.
124
- :param ids (int array) : integer ids specifying question ids
125
- :return: qa (object array) : loaded qa objects
126
- """
127
- if type(ids) == list:
128
- return [self.qa[id] for id in ids]
129
- elif type(ids) == int:
130
- return [self.qa[ids]]
131
-
132
- def showQA(self, anns):
133
- """
134
- Display the specified annotations.
135
- :param anns (array of object): annotations to display
136
- :return: None
137
- """
138
- if len(anns) == 0:
139
- return 0
140
- for ann in anns:
141
- quesId = ann['question_id']
142
- print("Question: %s" % (self.qqa[quesId]['question']))
143
- for ans in ann['answers']:
144
- print("Answer %d: %s" % (ans['answer_id'], ans['answer']))
145
-
146
- def loadRes(self, resFile, quesFile):
147
- """
148
- Load result file and return a result object.
149
- :param resFile (str) : file name of result file
150
- :return: res (obj) : result api object
151
- """
152
- res = VQA()
153
- res.questions = json.load(open(quesFile))
154
- res.dataset['info'] = copy.deepcopy(self.questions['info'])
155
- res.dataset['task_type'] = copy.deepcopy(self.questions['task_type'])
156
- res.dataset['data_type'] = copy.deepcopy(self.questions['data_type'])
157
- res.dataset['data_subtype'] = copy.deepcopy(self.questions['data_subtype'])
158
- res.dataset['license'] = copy.deepcopy(self.questions['license'])
159
-
160
- print('Loading and preparing results... ')
161
- time_t = datetime.datetime.utcnow()
162
- anns = json.load(open(resFile))
163
- assert type(anns) == list, 'results is not an array of objects'
164
- annsQuesIds = [ann['question_id'] for ann in anns]
165
- assert set(annsQuesIds) == set(self.getQuesIds()), \
166
- 'Results do not correspond to current VQA set. Either the results do not have predictions for all question ids in annotation file or there is atleast one question id that does not belong to the question ids in the annotation file.'
167
- for ann in anns:
168
- quesId = ann['question_id']
169
- if res.dataset['task_type'] == 'Multiple Choice':
170
- assert ann['answer'] in self.qqa[quesId][
171
- 'multiple_choices'], 'predicted answer is not one of the multiple choices'
172
- qaAnn = self.qa[quesId]
173
- ann['image_id'] = qaAnn['image_id']
174
- ann['question_type'] = qaAnn['question_type']
175
- ann['answer_type'] = qaAnn['answer_type']
176
- print('DONE (t=%0.2fs)' % ((datetime.datetime.utcnow() - time_t).total_seconds()))
177
-
178
- res.dataset['annotations'] = anns
179
- res.createIndex()
180
- return res
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
spaces/CVPR/LIVE/pybind11/tests/test_class.cpp DELETED
@@ -1,449 +0,0 @@
1
- /*
2
- tests/test_class.cpp -- test py::class_ definitions and basic functionality
3
-
4
- Copyright (c) 2016 Wenzel Jakob <[email protected]>
5
-
6
- All rights reserved. Use of this source code is governed by a
7
- BSD-style license that can be found in the LICENSE file.
8
- */
9
-
10
- #include "pybind11_tests.h"
11
- #include "constructor_stats.h"
12
- #include "local_bindings.h"
13
- #include <pybind11/stl.h>
14
-
15
- #if defined(_MSC_VER)
16
- # pragma warning(disable: 4324) // warning C4324: structure was padded due to alignment specifier
17
- #endif
18
-
19
- // test_brace_initialization
20
- struct NoBraceInitialization {
21
- NoBraceInitialization(std::vector<int> v) : vec{std::move(v)} {}
22
- template <typename T>
23
- NoBraceInitialization(std::initializer_list<T> l) : vec(l) {}
24
-
25
- std::vector<int> vec;
26
- };
27
-
28
- TEST_SUBMODULE(class_, m) {
29
- // test_instance
30
- struct NoConstructor {
31
- NoConstructor() = default;
32
- NoConstructor(const NoConstructor &) = default;
33
- NoConstructor(NoConstructor &&) = default;
34
- static NoConstructor *new_instance() {
35
- auto *ptr = new NoConstructor();
36
- print_created(ptr, "via new_instance");
37
- return ptr;
38
- }
39
- ~NoConstructor() { print_destroyed(this); }
40
- };
41
-
42
- py::class_<NoConstructor>(m, "NoConstructor")
43
- .def_static("new_instance", &NoConstructor::new_instance, "Return an instance");
44
-
45
- // test_inheritance
46
- class Pet {
47
- public:
48
- Pet(const std::string &name, const std::string &species)
49
- : m_name(name), m_species(species) {}
50
- std::string name() const { return m_name; }
51
- std::string species() const { return m_species; }
52
- private:
53
- std::string m_name;
54
- std::string m_species;
55
- };
56
-
57
- class Dog : public Pet {
58
- public:
59
- Dog(const std::string &name) : Pet(name, "dog") {}
60
- std::string bark() const { return "Woof!"; }
61
- };
62
-
63
- class Rabbit : public Pet {
64
- public:
65
- Rabbit(const std::string &name) : Pet(name, "parrot") {}
66
- };
67
-
68
- class Hamster : public Pet {
69
- public:
70
- Hamster(const std::string &name) : Pet(name, "rodent") {}
71
- };
72
-
73
- class Chimera : public Pet {
74
- Chimera() : Pet("Kimmy", "chimera") {}
75
- };
76
-
77
- py::class_<Pet> pet_class(m, "Pet");
78
- pet_class
79
- .def(py::init<std::string, std::string>())
80
- .def("name", &Pet::name)
81
- .def("species", &Pet::species);
82
-
83
- /* One way of declaring a subclass relationship: reference parent's class_ object */
84
- py::class_<Dog>(m, "Dog", pet_class)
85
- .def(py::init<std::string>());
86
-
87
- /* Another way of declaring a subclass relationship: reference parent's C++ type */
88
- py::class_<Rabbit, Pet>(m, "Rabbit")
89
- .def(py::init<std::string>());
90
-
91
- /* And another: list parent in class template arguments */
92
- py::class_<Hamster, Pet>(m, "Hamster")
93
- .def(py::init<std::string>());
94
-
95
- /* Constructors are not inherited by default */
96
- py::class_<Chimera, Pet>(m, "Chimera");
97
-
98
- m.def("pet_name_species", [](const Pet &pet) { return pet.name() + " is a " + pet.species(); });
99
- m.def("dog_bark", [](const Dog &dog) { return dog.bark(); });
100
-
101
- // test_automatic_upcasting
102
- struct BaseClass {
103
- BaseClass() = default;
104
- BaseClass(const BaseClass &) = default;
105
- BaseClass(BaseClass &&) = default;
106
- virtual ~BaseClass() {}
107
- };
108
- struct DerivedClass1 : BaseClass { };
109
- struct DerivedClass2 : BaseClass { };
110
-
111
- py::class_<BaseClass>(m, "BaseClass").def(py::init<>());
112
- py::class_<DerivedClass1>(m, "DerivedClass1").def(py::init<>());
113
- py::class_<DerivedClass2>(m, "DerivedClass2").def(py::init<>());
114
-
115
- m.def("return_class_1", []() -> BaseClass* { return new DerivedClass1(); });
116
- m.def("return_class_2", []() -> BaseClass* { return new DerivedClass2(); });
117
- m.def("return_class_n", [](int n) -> BaseClass* {
118
- if (n == 1) return new DerivedClass1();
119
- if (n == 2) return new DerivedClass2();
120
- return new BaseClass();
121
- });
122
- m.def("return_none", []() -> BaseClass* { return nullptr; });
123
-
124
- // test_isinstance
125
- m.def("check_instances", [](py::list l) {
126
- return py::make_tuple(
127
- py::isinstance<py::tuple>(l[0]),
128
- py::isinstance<py::dict>(l[1]),
129
- py::isinstance<Pet>(l[2]),
130
- py::isinstance<Pet>(l[3]),
131
- py::isinstance<Dog>(l[4]),
132
- py::isinstance<Rabbit>(l[5]),
133
- py::isinstance<UnregisteredType>(l[6])
134
- );
135
- });
136
-
137
- // test_mismatched_holder
138
- struct MismatchBase1 { };
139
- struct MismatchDerived1 : MismatchBase1 { };
140
-
141
- struct MismatchBase2 { };
142
- struct MismatchDerived2 : MismatchBase2 { };
143
-
144
- m.def("mismatched_holder_1", []() {
145
- auto mod = py::module::import("__main__");
146
- py::class_<MismatchBase1, std::shared_ptr<MismatchBase1>>(mod, "MismatchBase1");
147
- py::class_<MismatchDerived1, MismatchBase1>(mod, "MismatchDerived1");
148
- });
149
- m.def("mismatched_holder_2", []() {
150
- auto mod = py::module::import("__main__");
151
- py::class_<MismatchBase2>(mod, "MismatchBase2");
152
- py::class_<MismatchDerived2, std::shared_ptr<MismatchDerived2>,
153
- MismatchBase2>(mod, "MismatchDerived2");
154
- });
155
-
156
- // test_override_static
157
- // #511: problem with inheritance + overwritten def_static
158
- struct MyBase {
159
- static std::unique_ptr<MyBase> make() {
160
- return std::unique_ptr<MyBase>(new MyBase());
161
- }
162
- };
163
-
164
- struct MyDerived : MyBase {
165
- static std::unique_ptr<MyDerived> make() {
166
- return std::unique_ptr<MyDerived>(new MyDerived());
167
- }
168
- };
169
-
170
- py::class_<MyBase>(m, "MyBase")
171
- .def_static("make", &MyBase::make);
172
-
173
- py::class_<MyDerived, MyBase>(m, "MyDerived")
174
- .def_static("make", &MyDerived::make)
175
- .def_static("make2", &MyDerived::make);
176
-
177
- // test_implicit_conversion_life_support
178
- struct ConvertibleFromUserType {
179
- int i;
180
-
181
- ConvertibleFromUserType(UserType u) : i(u.value()) { }
182
- };
183
-
184
- py::class_<ConvertibleFromUserType>(m, "AcceptsUserType")
185
- .def(py::init<UserType>());
186
- py::implicitly_convertible<UserType, ConvertibleFromUserType>();
187
-
188
- m.def("implicitly_convert_argument", [](const ConvertibleFromUserType &r) { return r.i; });
189
- m.def("implicitly_convert_variable", [](py::object o) {
190
- // `o` is `UserType` and `r` is a reference to a temporary created by implicit
191
- // conversion. This is valid when called inside a bound function because the temp
192
- // object is attached to the same life support system as the arguments.
193
- const auto &r = o.cast<const ConvertibleFromUserType &>();
194
- return r.i;
195
- });
196
- m.add_object("implicitly_convert_variable_fail", [&] {
197
- auto f = [](PyObject *, PyObject *args) -> PyObject * {
198
- auto o = py::reinterpret_borrow<py::tuple>(args)[0];
199
- try { // It should fail here because there is no life support.
200
- o.cast<const ConvertibleFromUserType &>();
201
- } catch (const py::cast_error &e) {
202
- return py::str(e.what()).release().ptr();
203
- }
204
- return py::str().release().ptr();
205
- };
206
-
207
- auto def = new PyMethodDef{"f", f, METH_VARARGS, nullptr};
208
- return py::reinterpret_steal<py::object>(PyCFunction_NewEx(def, nullptr, m.ptr()));
209
- }());
210
-
211
- // test_operator_new_delete
212
- struct HasOpNewDel {
213
- std::uint64_t i;
214
- static void *operator new(size_t s) { py::print("A new", s); return ::operator new(s); }
215
- static void *operator new(size_t s, void *ptr) { py::print("A placement-new", s); return ptr; }
216
- static void operator delete(void *p) { py::print("A delete"); return ::operator delete(p); }
217
- };
218
- struct HasOpNewDelSize {
219
- std::uint32_t i;
220
- static void *operator new(size_t s) { py::print("B new", s); return ::operator new(s); }
221
- static void *operator new(size_t s, void *ptr) { py::print("B placement-new", s); return ptr; }
222
- static void operator delete(void *p, size_t s) { py::print("B delete", s); return ::operator delete(p); }
223
- };
224
- struct AliasedHasOpNewDelSize {
225
- std::uint64_t i;
226
- static void *operator new(size_t s) { py::print("C new", s); return ::operator new(s); }
227
- static void *operator new(size_t s, void *ptr) { py::print("C placement-new", s); return ptr; }
228
- static void operator delete(void *p, size_t s) { py::print("C delete", s); return ::operator delete(p); }
229
- virtual ~AliasedHasOpNewDelSize() = default;
230
- AliasedHasOpNewDelSize() = default;
231
- AliasedHasOpNewDelSize(const AliasedHasOpNewDelSize&) = delete;
232
- };
233
- struct PyAliasedHasOpNewDelSize : AliasedHasOpNewDelSize {
234
- PyAliasedHasOpNewDelSize() = default;
235
- PyAliasedHasOpNewDelSize(int) { }
236
- std::uint64_t j;
237
- };
238
- struct HasOpNewDelBoth {
239
- std::uint32_t i[8];
240
- static void *operator new(size_t s) { py::print("D new", s); return ::operator new(s); }
241
- static void *operator new(size_t s, void *ptr) { py::print("D placement-new", s); return ptr; }
242
- static void operator delete(void *p) { py::print("D delete"); return ::operator delete(p); }
243
- static void operator delete(void *p, size_t s) { py::print("D wrong delete", s); return ::operator delete(p); }
244
- };
245
- py::class_<HasOpNewDel>(m, "HasOpNewDel").def(py::init<>());
246
- py::class_<HasOpNewDelSize>(m, "HasOpNewDelSize").def(py::init<>());
247
- py::class_<HasOpNewDelBoth>(m, "HasOpNewDelBoth").def(py::init<>());
248
- py::class_<AliasedHasOpNewDelSize, PyAliasedHasOpNewDelSize> aliased(m, "AliasedHasOpNewDelSize");
249
- aliased.def(py::init<>());
250
- aliased.attr("size_noalias") = py::int_(sizeof(AliasedHasOpNewDelSize));
251
- aliased.attr("size_alias") = py::int_(sizeof(PyAliasedHasOpNewDelSize));
252
-
253
- // This test is actually part of test_local_bindings (test_duplicate_local), but we need a
254
- // definition in a different compilation unit within the same module:
255
- bind_local<LocalExternal, 17>(m, "LocalExternal", py::module_local());
256
-
257
- // test_bind_protected_functions
258
- class ProtectedA {
259
- protected:
260
- int foo() const { return value; }
261
-
262
- private:
263
- int value = 42;
264
- };
265
-
266
- class PublicistA : public ProtectedA {
267
- public:
268
- using ProtectedA::foo;
269
- };
270
-
271
- py::class_<ProtectedA>(m, "ProtectedA")
272
- .def(py::init<>())
273
- #if !defined(_MSC_VER) || _MSC_VER >= 1910
274
- .def("foo", &PublicistA::foo);
275
- #else
276
- .def("foo", static_cast<int (ProtectedA::*)() const>(&PublicistA::foo));
277
- #endif
278
-
279
- class ProtectedB {
280
- public:
281
- virtual ~ProtectedB() = default;
282
- ProtectedB() = default;
283
- ProtectedB(const ProtectedB &) = delete;
284
-
285
- protected:
286
- virtual int foo() const { return value; }
287
-
288
- private:
289
- int value = 42;
290
- };
291
-
292
- class TrampolineB : public ProtectedB {
293
- public:
294
- int foo() const override { PYBIND11_OVERLOAD(int, ProtectedB, foo, ); }
295
- };
296
-
297
- class PublicistB : public ProtectedB {
298
- public:
299
- using ProtectedB::foo;
300
- };
301
-
302
- py::class_<ProtectedB, TrampolineB>(m, "ProtectedB")
303
- .def(py::init<>())
304
- #if !defined(_MSC_VER) || _MSC_VER >= 1910
305
- .def("foo", &PublicistB::foo);
306
- #else
307
- .def("foo", static_cast<int (ProtectedB::*)() const>(&PublicistB::foo));
308
- #endif
309
-
310
- // test_brace_initialization
311
- struct BraceInitialization {
312
- int field1;
313
- std::string field2;
314
- };
315
-
316
- py::class_<BraceInitialization>(m, "BraceInitialization")
317
- .def(py::init<int, const std::string &>())
318
- .def_readwrite("field1", &BraceInitialization::field1)
319
- .def_readwrite("field2", &BraceInitialization::field2);
320
- // We *don't* want to construct using braces when the given constructor argument maps to a
321
- // constructor, because brace initialization could go to the wrong place (in particular when
322
- // there is also an `initializer_list<T>`-accept constructor):
323
- py::class_<NoBraceInitialization>(m, "NoBraceInitialization")
324
- .def(py::init<std::vector<int>>())
325
- .def_readonly("vec", &NoBraceInitialization::vec);
326
-
327
- // test_reentrant_implicit_conversion_failure
328
- // #1035: issue with runaway reentrant implicit conversion
329
- struct BogusImplicitConversion {
330
- BogusImplicitConversion(const BogusImplicitConversion &) { }
331
- };
332
-
333
- py::class_<BogusImplicitConversion>(m, "BogusImplicitConversion")
334
- .def(py::init<const BogusImplicitConversion &>());
335
-
336
- py::implicitly_convertible<int, BogusImplicitConversion>();
337
-
338
- // test_qualname
339
- // #1166: nested class docstring doesn't show nested name
340
- // Also related: tests that __qualname__ is set properly
341
- struct NestBase {};
342
- struct Nested {};
343
- py::class_<NestBase> base(m, "NestBase");
344
- base.def(py::init<>());
345
- py::class_<Nested>(base, "Nested")
346
- .def(py::init<>())
347
- .def("fn", [](Nested &, int, NestBase &, Nested &) {})
348
- .def("fa", [](Nested &, int, NestBase &, Nested &) {},
349
- "a"_a, "b"_a, "c"_a);
350
- base.def("g", [](NestBase &, Nested &) {});
351
- base.def("h", []() { return NestBase(); });
352
-
353
- // test_error_after_conversion
354
- // The second-pass path through dispatcher() previously didn't
355
- // remember which overload was used, and would crash trying to
356
- // generate a useful error message
357
-
358
- struct NotRegistered {};
359
- struct StringWrapper { std::string str; };
360
- m.def("test_error_after_conversions", [](int) {});
361
- m.def("test_error_after_conversions",
362
- [](StringWrapper) -> NotRegistered { return {}; });
363
- py::class_<StringWrapper>(m, "StringWrapper").def(py::init<std::string>());
364
- py::implicitly_convertible<std::string, StringWrapper>();
365
-
366
- #if defined(PYBIND11_CPP17)
367
- struct alignas(1024) Aligned {
368
- std::uintptr_t ptr() const { return (uintptr_t) this; }
369
- };
370
- py::class_<Aligned>(m, "Aligned")
371
- .def(py::init<>())
372
- .def("ptr", &Aligned::ptr);
373
- #endif
374
-
375
- // test_final
376
- struct IsFinal final {};
377
- py::class_<IsFinal>(m, "IsFinal", py::is_final());
378
-
379
- // test_non_final_final
380
- struct IsNonFinalFinal {};
381
- py::class_<IsNonFinalFinal>(m, "IsNonFinalFinal", py::is_final());
382
-
383
- struct PyPrintDestructor {
384
- PyPrintDestructor() {}
385
- ~PyPrintDestructor() {
386
- py::print("Print from destructor");
387
- }
388
- void throw_something() { throw std::runtime_error("error"); }
389
- };
390
- py::class_<PyPrintDestructor>(m, "PyPrintDestructor")
391
- .def(py::init<>())
392
- .def("throw_something", &PyPrintDestructor::throw_something);
393
- }
394
-
395
- template <int N> class BreaksBase { public:
396
- virtual ~BreaksBase() = default;
397
- BreaksBase() = default;
398
- BreaksBase(const BreaksBase&) = delete;
399
- };
400
- template <int N> class BreaksTramp : public BreaksBase<N> {};
401
- // These should all compile just fine:
402
- typedef py::class_<BreaksBase<1>, std::unique_ptr<BreaksBase<1>>, BreaksTramp<1>> DoesntBreak1;
403
- typedef py::class_<BreaksBase<2>, BreaksTramp<2>, std::unique_ptr<BreaksBase<2>>> DoesntBreak2;
404
- typedef py::class_<BreaksBase<3>, std::unique_ptr<BreaksBase<3>>> DoesntBreak3;
405
- typedef py::class_<BreaksBase<4>, BreaksTramp<4>> DoesntBreak4;
406
- typedef py::class_<BreaksBase<5>> DoesntBreak5;
407
- typedef py::class_<BreaksBase<6>, std::shared_ptr<BreaksBase<6>>, BreaksTramp<6>> DoesntBreak6;
408
- typedef py::class_<BreaksBase<7>, BreaksTramp<7>, std::shared_ptr<BreaksBase<7>>> DoesntBreak7;
409
- typedef py::class_<BreaksBase<8>, std::shared_ptr<BreaksBase<8>>> DoesntBreak8;
410
- #define CHECK_BASE(N) static_assert(std::is_same<typename DoesntBreak##N::type, BreaksBase<N>>::value, \
411
- "DoesntBreak" #N " has wrong type!")
412
- CHECK_BASE(1); CHECK_BASE(2); CHECK_BASE(3); CHECK_BASE(4); CHECK_BASE(5); CHECK_BASE(6); CHECK_BASE(7); CHECK_BASE(8);
413
- #define CHECK_ALIAS(N) static_assert(DoesntBreak##N::has_alias && std::is_same<typename DoesntBreak##N::type_alias, BreaksTramp<N>>::value, \
414
- "DoesntBreak" #N " has wrong type_alias!")
415
- #define CHECK_NOALIAS(N) static_assert(!DoesntBreak##N::has_alias && std::is_void<typename DoesntBreak##N::type_alias>::value, \
416
- "DoesntBreak" #N " has type alias, but shouldn't!")
417
- CHECK_ALIAS(1); CHECK_ALIAS(2); CHECK_NOALIAS(3); CHECK_ALIAS(4); CHECK_NOALIAS(5); CHECK_ALIAS(6); CHECK_ALIAS(7); CHECK_NOALIAS(8);
418
- #define CHECK_HOLDER(N, TYPE) static_assert(std::is_same<typename DoesntBreak##N::holder_type, std::TYPE##_ptr<BreaksBase<N>>>::value, \
419
- "DoesntBreak" #N " has wrong holder_type!")
420
- CHECK_HOLDER(1, unique); CHECK_HOLDER(2, unique); CHECK_HOLDER(3, unique); CHECK_HOLDER(4, unique); CHECK_HOLDER(5, unique);
421
- CHECK_HOLDER(6, shared); CHECK_HOLDER(7, shared); CHECK_HOLDER(8, shared);
422
-
423
- // There's no nice way to test that these fail because they fail to compile; leave them here,
424
- // though, so that they can be manually tested by uncommenting them (and seeing that compilation
425
- // failures occurs).
426
-
427
- // We have to actually look into the type: the typedef alone isn't enough to instantiate the type:
428
- #define CHECK_BROKEN(N) static_assert(std::is_same<typename Breaks##N::type, BreaksBase<-N>>::value, \
429
- "Breaks1 has wrong type!");
430
-
431
- //// Two holder classes:
432
- //typedef py::class_<BreaksBase<-1>, std::unique_ptr<BreaksBase<-1>>, std::unique_ptr<BreaksBase<-1>>> Breaks1;
433
- //CHECK_BROKEN(1);
434
- //// Two aliases:
435
- //typedef py::class_<BreaksBase<-2>, BreaksTramp<-2>, BreaksTramp<-2>> Breaks2;
436
- //CHECK_BROKEN(2);
437
- //// Holder + 2 aliases
438
- //typedef py::class_<BreaksBase<-3>, std::unique_ptr<BreaksBase<-3>>, BreaksTramp<-3>, BreaksTramp<-3>> Breaks3;
439
- //CHECK_BROKEN(3);
440
- //// Alias + 2 holders
441
- //typedef py::class_<BreaksBase<-4>, std::unique_ptr<BreaksBase<-4>>, BreaksTramp<-4>, std::shared_ptr<BreaksBase<-4>>> Breaks4;
442
- //CHECK_BROKEN(4);
443
- //// Invalid option (not a subclass or holder)
444
- //typedef py::class_<BreaksBase<-5>, BreaksTramp<-4>> Breaks5;
445
- //CHECK_BROKEN(5);
446
- //// Invalid option: multiple inheritance not supported:
447
- //template <> struct BreaksBase<-8> : BreaksBase<-6>, BreaksBase<-7> {};
448
- //typedef py::class_<BreaksBase<-8>, BreaksBase<-6>, BreaksBase<-7>> Breaks8;
449
- //CHECK_BROKEN(8);