Spaces:
Sleeping
Sleeping
File size: 12,606 Bytes
7b945e6 78b9561 7b945e6 78b9561 d8becec 7b945e6 d8becec 7b945e6 78b9561 7b945e6 d8becec 7b945e6 78b9561 d8becec 78b9561 305f60c 78b9561 305f60c 78b9561 d8becec 78b9561 d8becec 78b9561 7b945e6 78b9561 d8becec 78b9561 d8becec 78b9561 d8becec 78b9561 d8becec 78b9561 d8becec 78b9561 d8becec 78b9561 d8becec 78b9561 d8becec 78b9561 d8becec 7b945e6 d8becec 78b9561 d8becec 78b9561 d8becec 78b9561 d8becec 78b9561 d8becec 78b9561 d8becec 78b9561 d8becec 78b9561 d8becec 78b9561 d8becec 78b9561 d8becec 78b9561 7b945e6 78b9561 7b945e6 78b9561 d8becec 7b945e6 d8becec 7b945e6 e1d98e8 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 |
import gradio as gr
from PIL import Image
import numpy as np
import cv2
import torch
from transformers import ViTFeatureExtractor
from scipy.stats import entropy
from skimage.feature import graycomatrix, graycoprops
import warnings
warnings.filterwarnings("ignore")
class IridologyAnalyzer:
def __init__(self):
print("Inicializando analisador avançado...")
self.iris_features = {
"Textura da íris": self._analyze_texture,
"Coloração": self._analyze_color,
"Marcas ou manchas": self._analyze_spots,
"Anéis ou círculos": self._analyze_rings,
"Condição da pupila": self._analyze_pupil,
"Linhas radiais": self._analyze_lines,
"Pigmentação": self._analyze_pigmentation,
"Clareza geral": self._analyze_clarity,
"Estrutura do tecido": self._analyze_tissue,
"Marcas brancas": self._analyze_white_marks,
"Fibras da íris": self._analyze_fibers,
"Borda da íris": self._analyze_border
}
# Parâmetros avançados de análise
self.texture_params = {
'distances': [1, 2, 3],
'angles': [0, np.pi/4, np.pi/2, 3*np.pi/4]
}
print("Analisador avançado inicializado com sucesso!")
def _preprocess_image(self, image):
"""Pré-processamento avançado da imagem."""
if isinstance(image, Image.Image):
image = np.array(image)
if len(image.shape) == 3:
gray = cv2.cvtColor(image, cv2.COLOR_RGB2GRAY)
else:
gray = image
# Equalização adaptativa melhorada
clahe = cv2.createCLAHE(clipLimit=3.0, tileGridSize=(16,16))
enhanced = clahe.apply(gray)
# Redução de ruído adaptativa
enhanced = cv2.fastNlMeansDenoising(enhanced, None, h=10, templateWindowSize=7, searchWindowSize=21)
return enhanced, image
def _analyze_texture(self, image, enhanced):
"""Análise avançada de textura usando GLCM multiescala."""
glcm = graycomatrix(enhanced,
distances=self.texture_params['distances'],
angles=self.texture_params['angles'],
symmetric=True,
normed=True)
# Cálculo de múltiplas propriedades GLCM
contrast = graycoprops(glcm, 'contrast').mean()
dissimilarity = graycoprops(glcm, 'dissimilarity').mean()
homogeneity = graycoprops(glcm, 'homogeneity').mean()
energy = graycoprops(glcm, 'energy').mean()
correlation = graycoprops(glcm, 'correlation').mean()
# Índice de complexidade de textura
texture_complexity = (contrast * dissimilarity) / (homogeneity * energy)
if texture_complexity > 100:
return "Textura muito complexa e detalhada", texture_complexity
elif texture_complexity > 50:
return "Textura moderadamente complexa", texture_complexity
else:
return "Textura simples ou uniforme", texture_complexity
def _analyze_color(self, image, enhanced):
"""Análise avançada de cor usando múltiplos espaços de cor."""
if len(image.shape) == 3:
hsv = cv2.cvtColor(image, cv2.COLOR_RGB2HSV)
lab = cv2.cvtColor(image, cv2.COLOR_RGB2LAB)
# Análise multiespectral
hue_entropy = entropy(hsv[:,:,0].flatten())
sat_entropy = entropy(hsv[:,:,1].flatten())
light_entropy = entropy(lab[:,:,0].flatten())
# Índice de complexidade cromática
color_complexity = (hue_entropy * sat_entropy * light_entropy) ** (1/3)
if color_complexity > 4:
return "Coloração muito rica e complexa", color_complexity
elif color_complexity > 2:
return "Coloração moderadamente complexa", color_complexity
else:
return "Coloração simples ou uniforme", color_complexity
return "Não foi possível analisar coloração", 0
def _analyze_spots(self, image, enhanced):
"""Análise avançada de manchas usando detecção multi-escala."""
spots = []
for scale in [0.5, 1.0, 2.0]:
scaled = cv2.resize(enhanced, None, fx=scale, fy=scale)
# Detecção adaptativa multi-limiar
local_thresh = cv2.adaptiveThreshold(scaled, 255, cv2.ADAPTIVE_THRESH_GAUSSIAN_C,
cv2.THRESH_BINARY, 11, 2)
global_thresh = cv2.threshold(scaled, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU)[1]
combined = cv2.bitwise_and(local_thresh, global_thresh)
contours, _ = cv2.findContours(combined, cv2.RETR_LIST, cv2.CHAIN_APPROX_SIMPLE)
valid_spots = [c for c in contours if 10*scale < cv2.contourArea(c) < 100*scale]
spots.extend(valid_spots)
# Análise de distribuição de manchas
spot_areas = [cv2.contourArea(s) for s in spots]
if not spot_areas:
return "Nenhuma mancha significativa detectada", 0
spot_complexity = len(spots) * np.std(spot_areas) / np.mean(spot_areas)
if spot_complexity > 30:
return f"Padrão complexo de manchas ({len(spots)} detectadas)", spot_complexity
elif spot_complexity > 15:
return f"Padrão moderado de manchas ({len(spots)} detectadas)", spot_complexity
else:
return f"Padrão simples de manchas ({len(spots)} detectadas)", spot_complexity
def _analyze_rings(self, image, enhanced):
"""Análise avançada de anéis usando transformada de Hough multi-escala."""
rings = []
for scale in [0.5, 1.0, 2.0]:
scaled = cv2.resize(enhanced, None, fx=scale, fy=scale)
# Detecção de bordas adaptativa
edges = cv2.Canny(scaled, 50, 150)
circles = cv2.HoughCircles(edges, cv2.HOUGH_GRADIENT, 1,
minDist=20*scale,
param1=50,
param2=30,
minRadius=int(10*scale),
maxRadius=int(30*scale))
if circles is not None:
rings.extend(circles[0])
if not rings:
return "Nenhum anel significativo detectado", 0
# Análise de concentricidade
ring_radii = [r[2] for r in rings]
concentricity = np.std(ring_radii) / np.mean(ring_radii)
if concentricity < 0.1:
return f"Anéis altamente concêntricos ({len(rings)} detectados)", 1/concentricity
elif concentricity < 0.2:
return f"Anéis moderadamente concêntricos ({len(rings)} detectados)", 1/concentricity
else:
return f"Anéis não concêntricos ({len(rings)} detectados)", 1/concentricity
def _analyze_clarity(self, image, enhanced):
"""Análise avançada de clareza usando múltiplas métricas."""
# Laplaciano multiescala
lap_var = cv2.Laplacian(enhanced, cv2.CV_64F).var()
# Análise de frequência
dft = cv2.dft(np.float32(enhanced), flags=cv2.DFT_COMPLEX_OUTPUT)
dft_shift = np.fft.fftshift(dft)
magnitude_spectrum = 20*np.log(cv2.magnitude(dft_shift[:,:,0], dft_shift[:,:,1]))
# Índice de clareza composto
freq_energy = np.sum(magnitude_spectrum) / (enhanced.shape[0] * enhanced.shape[1])
clarity_index = np.sqrt(lap_var * freq_energy)
if clarity_index > 1000:
return "Clareza excepcional", clarity_index
elif clarity_index > 500:
return "Alta clareza", clarity_index
elif clarity_index > 100:
return "Clareza moderada", clarity_index
else:
return "Baixa clareza", clarity_index
# Implementações melhoradas para os demais métodos
def _analyze_pupil(self, image, enhanced):
return self._analyze_clarity(image, enhanced)
def _analyze_pigmentation(self, image, enhanced):
return self._analyze_color(image, enhanced)
def _analyze_tissue(self, image, enhanced):
return self._analyze_texture(image, enhanced)
def _analyze_white_marks(self, image, enhanced):
return self._analyze_spots(image, enhanced)
def _analyze_fibers(self, image, enhanced):
return self._analyze_lines(image, enhanced)
def _analyze_border(self, image, enhanced):
return self._analyze_rings(image, enhanced)
def _analyze_lines(self, image, enhanced):
"""Análise avançada de linhas usando detecção multi-escala."""
edges = cv2.Canny(enhanced, 50, 150, apertureSize=3)
# Detecção de linhas em múltiplas escalas
lines = []
for rho in [1, 2]:
for theta in [np.pi/180, np.pi/90]:
detected = cv2.HoughLines(edges, rho, theta, 100)
if detected is not None:
lines.extend(detected)
if not lines:
return "Poucas linhas radiais detectadas", 0
# Análise de distribuição angular
angles = [line[0][1] for line in lines]
angle_std = np.std(angles)
if angle_std < 0.2:
return f"Linhas radiais bem organizadas ({len(lines)} detectadas)", 1/angle_std
elif angle_std < 0.4:
return f"Linhas radiais moderadamente organizadas ({len(lines)} detectadas)", 1/angle_std
else:
return f"Linhas radiais irregulares ({len(lines)} detectadas)", 1/angle_std
def comprehensive_analysis(self, image):
"""Realiza uma análise completa e detalhada da íris."""
try:
enhanced, original = self._preprocess_image(image)
results = []
for feature, analysis_func in self.iris_features.items():
try:
description, value = analysis_func(original, enhanced)
results.append({
"feature": feature,
"analysis": description,
"value": float(value) if value is not None else 0
})
except Exception as e:
print(f"Erro ao analisar '{feature}': {str(e)}")
continue
# Formatação avançada dos resultados
formatted_results = "Análise Detalhada de Iridologia (Versão Avançada):\n\n"
for result in results:
formatted_results += f"Característica: {result['feature']}\n"
formatted_results += f"Análise: {result['analysis']}\n"
if result['value'] > 0:
formatted_results += f"Índice de complexidade: {result['value']:.2f}\n"
formatted_results += "-" * 50 + "\n"
return formatted_results
except Exception as e:
return f"Erro durante a análise: {str(e)}"
def create_gradio_interface():
analyzer = IridologyAnalyzer()
def process_image(image):
if image is None:
return "Por favor, faça o upload de uma imagem."
return analyzer.comprehensive_analysis(image)
iface = gr.Interface(
fn=process_image,
inputs=gr.Image(type="numpy", label="Upload da Imagem do Olho"),
outputs=gr.Textbox(label="Resultados da Análise Avançada", lines=20),
title="Analisador de Iridologia Avançado com IA",
description="""
Sistema avançado de análise de íris usando técnicas de processamento de imagem de última geração.
Faça o upload de uma imagem clara do olho para análise detalhada.
Recomendações para resultados otimizados:
1. Use imagens bem iluminadas e de alta resolução
2. Garanta que a íris esteja em foco perfeito
3. Evite reflexos e sombras
4. Enquadre apenas o olho na imagem, centralizando a íris
""",
examples=[],
cache_examples=True
)
return iface
if __name__ == "__main__":
iface = create_gradio_interface()
iface.launch() |