src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Abstract-Robot manipulation uppgifter kräver robot modeller. När det inte finns exakta fysiska parametrar för roboten blir det ett tilltalande alternativ att lära sig robotmodeller från data. De flesta inlärningsmetoder är utformade i en övervakad utbildningsram och bygger på tydligt definierade utbildningsset. Vi föreslår en metod som förbättrar inlärningsprocessen genom att använda ytterligare data från andra experiment av roboten eller till och med från experiment med olika robotarkitekturer. Inkorporera erfarenheter från andra experiment kräver överföring lärande som har använts med framgång i maskininlärning. Den föreslagna metoden kan användas för godtycklig robotmodell, tillsammans med alla typer av inlärningsalgoritm. Experimentella resultat visar att överföring av uppgifter mellan olika robotarkitekturer är ett bra koncept. Dessutom uppnås tydliga förbättringar när det gäller framtida kinematiska modeller som lär sig i en uppgifts-rymdkontrolluppgift.
|
I scenarier för domänöverföring kan tekniker för att minska dimensionaliteten användas för att överföra lärande mellan olika robotar REF.
| 14,230,784 |
Alignment-based transfer learning for robot models
|
{'venue': 'The 2013 International Joint Conference on Neural Networks (IJCNN)', 'journal': 'The 2013 International Joint Conference on Neural Networks (IJCNN)', 'mag_field_of_study': ['Computer Science']}
| 14,358 |
Abstract-I energiskörd kommunikationssystem, en exogen laddningsprocess levererar energi som behövs för dataöverföring och den ankommande energin kan buffras i ett batteri före förbrukning. Vi bestämmer den informations-teoretiska kapaciteten hos den klassiska tillsatsen vit Gaussian brus (AWGN) kanal med en energi skörd sändare med en obegränsad storlek batteri. När energin anländer slumpmässigt och kan sparas i batteriet, måste kodord lyda kumulativa stokastiska energibegränsningar. Vi visar att kapaciteten hos AWGN-kanalen med sådana stokastiska kanalinmatningsbegränsningar är lika med kapaciteten med en genomsnittlig effektbegränsning som motsvarar den genomsnittliga laddningshastigheten. Vi tillhandahåller två system för kapacitetsuppnående: spar-och-överföring och bästa-insats-överföring. I spar-och-överföringssystemet samlar sändaren in energi i en sparfas av lämplig varaktighet som garanterar att det inte kommer att bli någon energibrist under överföringen av kodsymboler. I det bästa sändningsschemat, startar överföringen direkt utan en inledande sparperiod, och sändaren skickar en kodsymbol om det finns tillräckligt med energi i batteriet, och en noll symbol annars. Slutligen, vi anser ett system där den genomsnittliga laddningshastigheten är tid varierar i en större tid skala och härleda den optimala offline effektpolicy som maximerar den genomsnittliga genomströmningen, genom att använda majorization teori. Index Terms-Additive vit Gaussian brus (AWGN) kanal, energi skörd, offline strömförsörjning, Shannon kapacitet.
|
Kanalkapaciteten i AWGN EH-kanalen kännetecknas i REF.
| 12,417,250 |
Achieving AWGN Capacity Under Stochastic Energy Harvesting
|
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science']}
| 14,359 |
Alla maskiner som utsätts för Internet idag riskerar att bli attackerade och komprometterade. Att upptäcka attackförsök, vare sig de lyckas eller inte, är viktigt för att säkra nätverk (servrar, slutvärdar och andra tillgångar) samt för kriminalteknisk analys. I detta sammanhang fokuserar vi på problemet med insamling av bevis genom att upptäcka grundläggande mönster i nätverkstrafiken i samband med misstänkta aktiviteter. Att upptäcka grundläggande avvikande mönster är nödvändigt för en lösning för att kunna upptäcka så många typer av attacker och skadliga aktiviteter som möjligt. Våra bevis som samlar ramverk korrelerar flera mönster upptäckta, vilket ökar förtroendet för detektion, och resulterar i ökad noggrannhet och minskning av falska positiva. Vi visar effektiviteten i vårt ramverk genom att utvärdera på en datauppsättning som består av normal trafik samt trafik från ett antal malware. Slutvärdar och nätverk blir benägna att attackera och kompromissa när de blir uppkopplade till Internet. Typerna och förfiningen av attacker har bara ökat med tiden, en av motiven är de monetära vinster som cyberbrottslingar får från sådana skadliga och cyberbrottsliga aktiviteter. För att kvantifiera, i sin årliga säkerhetsrapport 2016 Ciscos uppskattning av den genomsnittliga årsinkomsten för ransomware per kampanj är $34 miljoner (Cisco Annual Security Report, 2016). Det är absolut nödvändigt att upptäcka anomalier i samband med attacker för att säkra ett nätverk och för kriminalteknisk analys. Detektion i tid kan förhindra skador på grund av attacken; rättsmedicinsk analys av anomalier stöd inte bara i utredningar utan också i profilering av attacker. Det finns en uppsjö av forskningsprojekt för att upptäcka anomalier och attacker i nätverk (Carl et al. (2006 ), Feily m.fl. (2009), Chandola m.fl. (2009), Vincent Zhou m.fl. (2010 och Bhuyan m.fl. (2014) är några relevanta undersökningar). Ofta utvecklas olika lösningar för olika attacker, vilket leder till komplex hantering och högre kostnader för användarna. Dessutom upptäcks individuella anomalier vanligtvis självständigt; och utan att ha en mekanism för att kontrollera om några av de upptäckta anomalier korreleras, lösningar kan lätt missa skogen för träden. Vad som är värre är att de upptäckta anomalierna kan utsättas för en låg risk och därför ignoreras av en analytiker. Olika från tidigare verk, vårt mål är att utveckla ett ramverk som kan samla så många bevis som möjligt för olika typer av attacker och skadliga aktiviteter. I detta arbete fokuserar vi på problemet med bevisinsamling genom att analysera nätverkstrafik. Bevisen är de grundläggande mönstren i samband med misstänkta aktiviteter. Upptäcka sådana mönster gör det möjligt att upptäcka anomalier som är gemensamma för ett antal attacker. Vi tar ett pragmatiskt tillvägagångssätt för att upptäcka avvikande mönster; vi tillämpar regressionsmodeller för att analysera nätverkstrafikdata och upptäcka mönster relaterade till misstänkta aktiviteter. De avvikande mönster, som bildar bevis, korreleras och analyseras, för att öka prestandan av detektion av trafik relaterad till attacker och skadliga aktiviteter, där prestanda uttrycks i termer av detektion noggrannhet och falsk positiv hastighet. Fördelarna med vårt föreslagna system är: 1. Ingen inlärning av normalt beteende med hjälp av godartade data: Med tanke på att Internettrafiken alltid utvecklas och förändras, en lösning som modellerar statiska data kommer inte att vara adaptiv. Dessutom är det mycket svårt att få fram en aktuell trafikdatauppsättning i verkligheten av meningsfull storlek som endast består av godartade flöden och som fångar de dynamiska egenskaperna hos godartad trafik. Vårt tillvägagångssätt, å andra sidan, använder information om endast attacktrafik. Karakteristika för attacktrafik är mycket specifika för den typ av attack, och skiljer sig också avsevärt från den normala trafiken. 2. Utgångspunkten är följande: Detektion av flera avvikande mönster: Genom att upptäcka onormala mönster i nätverkstrafiken, vår lösning samlar i huvudsak bevis relaterade till attacken. För en enda attack, det kan finnas flera mönster som upptäcks, vissa på grund av olika
|
Divakaran m.fl. I REF studerades de frågor som rör kriminalteknik och nätsäkerhet.
| 41,979,411 |
Evidence gathering for network security and forensics
|
{'venue': None, 'journal': 'Digital Investigation', 'mag_field_of_study': ['Computer Science']}
| 14,360 |
Forskningen om visuellt erkännande förutsätter ofta en tillräcklig upplösning av området av intresse (ROI). Det är vanligtvis kränkande i praktiken, vilket inspirerar oss att undersöka problemet med mycket låg upplösning (VLRR). Vanligtvis kan ROI i en VLRR problem vara mindre än 16 × 16 pixlar, och är utmanande att kännas igen även av mänskliga experter. Vi försöker lösa VLRR-problemet med hjälp av djupinlärningsmetoder. Genom att utnyttja tekniker främst inom superupplösning, domänanpassning och robust regression formulerar vi en dedikerad djupinlärningsmetod och visar hur dessa tekniker införlivas steg för steg. Varje ytterligare komplexitet, när den införs, är fullt motiverad av både analys- och simuleringsresultat. Den resulterande Robust Delvis kopplade nätverk uppnår funktionsförbättring och igenkänning samtidigt. Det möjliggör både flexibilitet för att bekämpa den bristande överensstämmelsen mellan LR-HR-domänen och robustheten mot avvikelser. Slutligen utvärderas effektiviteten hos de föreslagna modellerna på tre olika VLRR-uppgifter, inklusive ansiktsidentifiering, sifferigenkänning och typsnittsigenkänning, som alla ger mycket imponerande resultat.
|
Å andra sidan, Wang et al. REF löser problem med mycket låg upplösning genom djupt lärande.
| 9,688,096 |
Studying Very Low Resolution Recognition Using Deep Networks
|
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
| 14,361 |
I detta dokument presenteras två halvtoning metoder för att förbättra effektiviteten i att generera strukturellt liknande halvtonsbilder med hjälp av Structure Likformity Index Measurement (SSIM). Föreslagen metod I minskar pixel utvärderingsområdet genom att tillämpa pixel-swapping algoritm inom interkorrelaterade block följt av fas block-shifting. Effekten av olika initiala pixelarrangemang undersöks också. Föreslagen metod II förbättrar ytterligare effektiviteten genom att tillämpa bit-klimbing algoritm inom interkorrelaterade block av bilden. Simuleringsresultat visar att den föreslagna metoden I förbättrar effektiviteten och bildkvaliteten genom att använda ett lämpligt initialt pixelarrangemang. Föreslagen metod II uppnår en bättre bildkvalitet med färre utvärderingar än pixel-swapping algoritm som används i metod I och den konventionella strukturen medvetna halvton metoder.
|
KHAN m.fl. I REF föreslogs två halvtoningsmetoder för att förbättra effektiviteten när det gäller att generera strukturellt liknande halvtonsbilder med hjälp av mätning av strukturlikhetsindex.
| 37,625,468 |
Improving the Efficiency in Halftone Image Generation Based on Structure Similarity Index Measurement
|
{'venue': 'IEICE Transactions', 'journal': 'IEICE Transactions', 'mag_field_of_study': ['Computer Science']}
| 14,362 |
Bluetooth scatternets, integrera röstning, och frekvenshoppning bred-prectrum i deras medium access kontroll protokoll, ger en tvistfri miljö för Bluetooth-enheter för att få tillgång till medium och kommunicera över multihop länkar. För närvarande tenderar de flesta tillgängliga scatternet-bildningsprotokoll att koppla samman alla Bluetooth-enheter i det inledande nätverksstartstadiet och underhålla alla Bluetooth-länkar därefter. I stället för denna "stora scatternet" strategi, föreslår vi en scatternet-rutt struktur för att kombinera scatternet formation med on-demand routing, vilket eliminerar onödiga länkar och ruttunderhåll. Såvitt vi vet är detta det första försöket att ta itu med scatternetbildning på begäran med varje detalj. Vi introducerar en utökad ID (EID) anslutningslös sändningssystem, som, jämfört med ursprungliga Bluetooth-sändningsmekanism, uppnår mycket förkortad rutt upptäckt fördröjning. Vi föreslår också att synkronisera piconets längs varje scatternet rutt för att ta bort piconet switch overhead och få ännu bättre kanalanvändning. Dessutom presenterar vi ett ruttbaserat schema för scatternet för att möjliggöra rättvisa och effektiva paketöverföringar över scatternätsrutter. Nätverksprestandaanalys och simuleringar visar att scatternetrutter kan ge trådlösa multihopkanaler med hög nätverksanvändning och extremt stabil genomströmning, vilket är särskilt användbart vid överföring av stora partier paket och realtidsdata i trådlös miljö. Index Villkor-Ad hoc-nätverk, medium åtkomstkontroll, on-demand routing, scatternet formation, scatternet schemaläggning.
|
Liu m.fl. REF införde en scatternetlinjestruktur på begäran för multihopdataöverföring i Bluetooth-nätverk.
| 41,127,482 |
A Bluetooth scatternet-route structure for multihop ad hoc networks
|
{'venue': 'IEEE J. Sel. Areas Commun.', 'journal': 'IEEE J. Sel. Areas Commun.', 'mag_field_of_study': ['Computer Science']}
| 14,363 |
Vår experimentella analys av flera populära XPath processorer avslöjar ett slående faktum: Fråga utvärdering i vart och ett av systemen kräver tid exponentiellt i storleken på frågor i värsta fall. Vi visar att XPath kan bearbetas mycket mer effektivt, och föreslå huvudminne algoritmer för detta problem med polynom-tid kombinerad frågebedömning komplexitet. Dessutom visar vi hur huvudidéerna i vår algoritm kan integreras på ett lönsamt sätt i befintliga XPath-processorer. Slutligen presenterar vi två fragment av XPath för vilka linjär-tid frågebehandling algoritmer finns och ett annat fragment med linjär-rymd/kvadrat-tid frågebehandling.
|
Till exempel, REF föreslog polynom huvudsakliga minnesalgoritmer för att svara på fullständiga XPath frågor.
| 904,373 |
Efficient algorithms for processing XPath queries
|
{'venue': 'TODS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,364 |
Genuttrycksdata från mikroarrayer tillämpas för att förutsäga prekliniska och kliniska endpoints, men tillförlitligheten av dessa förutsägelser har inte fastställts. I MAQC-II-projektet analyserade 36 oberoende grupper sex uppsättningar mikroarraydata för att generera prediktiva modeller för klassificering av ett prov med avseende på en av 13 endpoints som tyder på lung- eller levertoxicitet hos gnagare, eller bröstcancer, multipelt myelom eller neuroblastom hos människor. Totalt har >30 000 modeller byggts med hjälp av många kombinationer av analysmetoder. Lagen genererade prediktiva modeller utan att veta den biologiska betydelsen av några av de endpoints och, för att efterlikna den kliniska verkligheten, testade modellerna på data som inte hade använts för utbildning. Vi fann att modellens prestanda till stor del berodde på mål- och teamkompetensen och att olika tillvägagångssätt genererade modeller av liknande prestanda. Slutsatserna och rekommendationerna från MAQC-II bör vara användbara för tillsynsmyndigheter, studiekommittéer och oberoende utredare som utvärderar metoder för global genuttrycksanalys. © 2010 Nature America, Inc. Alla rättigheter förbehållna. Volume 28 ANTAL 8 AUGUST 2010 naturbioteknik A r t i c l es är också exempel i litteraturen av klassiatorer vars prestanda inte kan reproduceras på oberoende datamängder på grund av dålig studiedesign 27, dålig datakvalitet och / eller otillräcklig korsvalidering av alla modellutveckling steg 28, 29. Var och en av dessa faktorer kan bidra till en viss grad av skepsis mot påståenden om prestandanivåer som uppnås av mikroarray-baserade klassificeringar. Tidigare utvärderingar av reproducerbarheten hos mikroarraybaserade klassiatorer, med endast mycket få undantag 30, 31, har begränsats till simuleringsstudier eller omanalys av tidigare publicerade resultat. Ofta har publicerade benchmarkingstudier delat upp datamängder slumpmässigt och använt den ena delen för utbildning och den andra för validering. Denna konstruktion förutsätter att utbildnings- och valideringsseten tillverkas genom opartisk provtagning av en stor, homogen population av prover. Prover i kliniska studier intjänas dock vanligtvis under flera år och det kan förekomma en förskjutning i den deltagande patientpopulationen och även i de metoder som används för att tilldela sjukdomsstatus på grund av ändrade praxisnormer. Det kan också finnas satseffekter på grund av tidsvariationer i vävnadsanalys eller på grund av distinkta metoder för provtagning och hantering på olika medicinska centra. Som ett resultat av detta kan prover som härrör från successivt upplupna patientpopulationer, såsom gjordes i MAQC-II för att härma den kliniska verkligheten, där den första kohorten används för att utveckla prediktiva modeller och efterföljande patienter ingår i valideringen, skilja sig från varandra på många sätt som kan påverka förutsägelsens prestanda. MAQC-II-projektet utformades för att utvärdera dessa biaskällor i studiedesignen genom att konstruera utbildnings- och valideringsset vid olika tidpunkter, byta test- och utbildningsset och även använda data från olika prekliniska och kliniska scenarier. Målen för MAQC-II var att kartlägga metoder i genomisk modellutveckling i ett försök att förstå källor till variabilitet i förutsägelseprestanda och att bedöma påverkan av endpoint signalstyrka i data. Genom att tillhandahålla samma dataset till många organisationer för analys, men inte begränsa deras dataanalysprotokoll, har projektet gjort det möjligt att utvärdera i vilken utsträckning, om några, resultaten beror på det team som utför analysen. Detta står i kontrast till tidigare benchmarkingstudier som vanligtvis har genomförts av enskilda laboratorier. Att registrera ett stort antal organisationer har också gjort det möjligt att testa många fler metoder än vad som skulle vara praktiskt för ett enda team. MAQC-II strävar också efter att utveckla riktlinjer för god modelleringspraxis, med utgångspunkt i ett stort internationellt samarbete mellan experter och de lärdomar som dragits i den kanske aldrig tidigare skådade satsningen på att utveckla och utvärdera >30.000 genomiska klassificeringar för att förutsäga en mängd olika endpoints från olika datauppsättningar. MAQC-II är ett samarbetsprojekt som inkluderar deltagare från FDA, andra myndigheter, industri och akademi. Detta dokument beskriver MAQC-II-strukturen och den experimentella designen och sammanfattar konsortiets viktigaste resultat och resultat, vars medlemmar har lärt sig en hel del under processen. De resulterande riktlinjerna är allmänna och bör inte tolkas som specifika rekommendationer av FDA för regulatoriska inlagor. Skapar en unik kompendium av >30 000 prediktions modeller MAQC-II konsortium utformades med det primära målet att undersöka modellutveckling praxis för att generera binära klassificerare i två typer av datamängder, prekliniska och kliniska ( Kompletterande tabell 1 och 2 ). För att uppnå detta distribuerade projektledaren sex datamängder som innehöll 13 prekliniska och kliniska endpoints kodade A till M (tabell 3). Endpoints kodades för att dölja identiteterna hos två negativa kontrollslutpunkter (endpoints I och M, för vilka klassetiketter slumpvis tilldelades och inte är förutsägbara av mikroarraydata) och två positiva kontrollslutpunkter (endpoints H och L, som representerar patienternas kön, vilket är mycket förutsägbart med mikroarraydata). Endpoints A, B och C testade teamens förmåga att förutsäga toxiciteten hos kemiska agenser i gnagares lung- och levermodeller. De återstående effektmåtten förutsågs från mikroarraydata från humana patienter som diagnostiserats med bröstcancer (D och E), multipelt myelom (F och G) eller neuroblastom (J och K). Datauppsättningarna för multipelt myelom och neuroblastom representerade händelsefri överlevnad (förkortat EFS), vilket innebär brist på malignitet eller återfall i sjukdom, och total överlevnad (förkortat OS) efter 730 dagar (för multipelt myelom) eller 900 dagar (för neuroblastom) efter behandling eller diagnos. För bröstcancer representerade effektmåtten östrogenreceptorstatus, en vanlig diagnostisk markör av denna cancertyp (förkortad "erpos") och framgångsrik behandling med kemoterapi följt av kirurgisk resektion av en tumör (förkortad "pCR"). Den biologiska betydelsen av kontrollslutpunkterna var känd endast för projektledaren och avslöjades inte för projektdeltagarna förrän alla modellutvecklings- och externa valideringsprocesser hade slutförts. För att utvärdera reproducerbarheten hos de modeller som utvecklats av ett dataanalysteam för en given datauppsättning, bad vi team att lämna in modeller från två steg av analyser. I det första steget (nedan kallat det ursprungliga experimentet) byggde varje grupp förutsägelsemodeller för upp till 13 olika kodade endpoints med hjälp av sex utbildningsdatauppsättningar. Modeller "frystes" mot ytterligare modifieringar, lämnades in till konsortiet och testades sedan på en blindad valideringsdatauppsättning som inte var tillgänglig för analysgrupperna under utbildningen. I det andra steget (swap-experimentet) upprepade teamen modelluppbyggnads- och valideringsprocessen genom utbildningsmodeller på den ursprungliga valideringsuppsättningen och validering av dem med hjälp av den ursprungliga utbildningsuppsättningen. För att simulera den potentiella beslutsprocessen för att utvärdera en microarray-baserad klassificering etablerade vi en process för varje grupp att ta emot träningsdata med kodade endpoints, föreslå ett dataanalysprotokoll (DAP) baserat på undersökande analys, få feedback på protokollet och sedan utföra analys och validering (Fig. 1).................................................................. Analysprotokollen granskades internt av andra MAQC-II-deltagare (minst två granskare per protokoll) och av medlemmar i MAQC-II Regulatory Biostatistics Working Group (RBWG), ett team från FDA och industrin som bestod av biostatistiker och andra med omfattande erfarenhet av modellbyggande. Grupper uppmuntrades att revidera sina protokoll för att införliva feedback från granskare, men varje grupp ansågs så småningom vara ansvarig för sitt eget analysprotokoll och att införliva granskares feedback var inte obligatoriskt (se Online Methods för mer information). Vi satte ihop två stora tabeller från original- och swapexperiment (kompletterande tabeller 1 och 2, respektive) med sammanfattande information om algoritmer och analytiska steg, eller "modelleringsfaktorer", som används för att konstruera varje modell och "interna" och "externa" prestanda för varje modell. Intern prestanda mäter modellens förmåga att klassificera träningsproven, baserat på korsvalideringsövningar. Extern prestanda mäter modellens förmåga att klassificera blindade oberoende valideringsdata. Vi övervägde flera prestandamått, inklusive Matthews Correlation Coefficient (MCC), noggrannhet, känslighet, specificitet, area under mottagarens karakteristiska kurva (AUC) och rotmedel kvadratfel (r.m.s.e.). Dessa två tabeller innehåller uppgifter om >30 000 modeller. Här rapporterar vi performance baserat på MCC eftersom © 2010 Nature America, Inc. Alla rättigheter reserverade. nature biotechnology VOLUME 28 ANTAL 8 AUGUST 2010 A r t i c l es det är informativt när fördelningen av de två klasserna i en datauppsättning är mycket skev och eftersom det är enkelt att beräkna och var tillgänglig för alla modeller. MCC-värden varierar från +1 till −1, med +1 som anger perfekt förutsägelse (dvs. alla prover som klassificeras korrekt och inga felaktigt), 0 indikerar slumpmässig förutsägelse och +1 anger perfekt invers förutsägelse. De 36 analysteamen tillämpade många olika alternativ under varje modelleringsfaktor för att utveckla modeller (kompletterande tabell 4) inklusive 17 sammanfattande och normaliseringsmetoder, nio metoder för att avlägsna batch-effekt, 33 urvalsmetoder (mellan 1 och > 1000 funktioner), 24 klassificeringsalgoritmer och sex interna valideringsmetoder. Sådan mångfald tyder på att gemenskapens gemensamma praxis är De tre första datamängderna (Hamner, Iconix och NIEHS) kommer från prekliniska toxikologiska studier, medan de övriga tre datamängderna är från kliniska studier. Endpoints H och L är positiva kontroller (patientens kön) och endpoints I och M är negativa kontroller (slumpmässigt tilldelade klassetiketter). Prestanda beror på endpoint och kan uppskattas under träning Till skillnad från många tidigare insatser gav studien design av MAQC-II möjlighet att bedöma prestandan hos många olika modelleringsmetoder på en kliniskt realistisk blindad extern valideringsdata uppsättning. Detta är särskilt viktigt mot bakgrund av den avsedda kliniska eller prekliniska användningen av klassificeringsapparater som konstrueras med hjälp av initiala datamängder och valideras för godkännande och sedan förväntas exakt förutsäga prover som samlats in under olika förhållanden, kanske månader eller år senare. För att bedöma tillförlitligheten hos prestandauppskattningar som erhållits under modellträningen jämförde vi prestandan på den interna träningsdatauppsättningen med prestandan på den externa valideringsdatauppsättningen för var och en av de 18 060 modellerna i det ursprungliga experimentet (Fig. 2a)................................................................................................ Modeller utan komplett metadata ingick inte i analysen. Vi valde 13 "candidate modeller", som representerar den bästa modellen för varje endpoint, innan extern validering utfördes. Vi krävde att varje analysteam nominerade en modell för varje endpoint de analyserade och vi valde sedan en kandidat från dessa nomineringar för varje endpoint. Vi observerade en högre korrelation mellan interna och externa resultatuppskattningar i termer av A r t i c l es av MCC för de utvalda kandidatmodellerna (r = 0,951, n = 13, bild. 2b ) än för den totala uppsättningen modeller (r = 0,840, n = 18,060, bild. 2a), tyder på att omfattande peer review av analysprotokoll kunde undvika att välja modeller som kunde resultera i mindre tillförlitliga förutsägelser i extern validering. Men även för de handvalda kandidatmodellerna finns det märkbara förutfattade meningar i det resultat som beräknats genom intern validering. Det vill säga, den interna valideringsprestandan är högre än den externa valideringsprestandan för de flesta endpoints (Fig. 2b)........................................................................................................... För vissa endpoints och för vissa modellbyggmetoder eller grupper var dock interna och externa korrelationer mer blygsamma som beskrivs i följande avsnitt. För att utvärdera om vissa endpoints kan vara mer förutsägbara än andra och för att kalibrera prestanda mot de positiva och negativa kontroll endpoints, bedömde vi alla modeller som genererats för varje endpoint (Fig. 2c)........................................................................................................... Vi observerade ett tydligt beroende av förutsägelseresultat på endpoint. Till exempel var endpoints C (levernekrospoäng hos råttor som behandlades med hepatotoxiska medel), E (östrogenreceptorstatus hos bröstcancerpatienter) och H och L (kön hos patienter med multipelt myelom respektive neuroblastom) lättast att förutsäga (genomsnittlig MCC > 0,7). Toxikologiska endpoints A och B samt endpoints för sjukdomsprogression D, F, G, J och K var svårare att förutsäga (genomsnittlig MCC ~0,1-0,4). Negativ kontroll endpoints I och M var helt oförutsägbara (genomsnittlig MCC ~0), som förväntat. För 11 endpoints (exklusive de negativa kontrollerna), förutspådde en stor del av de inlämnade modellerna att endpointen var signifikant bättre än slumpen (MCC > 0) och för en given endpoint många modeller presterade lika bra på både intern och extern validering (se fördelningen av MCC i bild. Detta anslag är avsett att täcka utgifter för tjänstemän och tillfälligt anställda som arbetar inom politikområdet rättsliga frågor och inrikes frågor. Å andra sidan fungerade inte alla inlämnade modeller lika bra för någon given endpoint. Vissa modeller presterade inte bättre än slumpen, även för vissa av de lättförutsedda effektmåtten, vilket tyder på att ytterligare faktorer var ansvariga för skillnader i modellprestanda. Dataanalysteam visar olika kunskaper Nästa, vi sammanfattade den externa valideringen prestanda av de modeller som nominerats av de 17 team som analyserade alla 13 endpoints (Fig. 3)............................................................... Nominerade modeller representerar ett teams bästa bedömning av modellbyggandet. Den genomsnittliga externa valideringen MCC per grupp över 11 endpoints, exklusive negativa kontroller I och M, varierade från 0,532 för dataanalysgruppen (DAT)24 till 0,263 för DAT3, vilket tyder på märkbara skillnader i prestanda hos de modeller som utvecklats av olika team för samma data. Liknande trender observerades när AUC användes som prestandamått (kompletterande tabell 5) eller när de ursprungliga utbildnings- och valideringsseten byttes (kompletterande tabell 6 och 7). I tabell 2 sammanfattas de modelleringsmetoder som användes av två eller flera MAQC-II-dataanalysgrupper. Många faktorer kan ha spelat en roll i skillnaden mellan externa valideringsprestanda mellan team. Till exempel använde team olika modelleringsfaktorer, kriterier för att välja ut de nominerade modellerna och programvarupaket och kod. Dessutom, vissa team kan ha varit mer skicklig på microarray data modellering och bättre på att skydda mot skrivfel. Vi noterade betydande variationer i prestanda bland de många K-nearest grannalgoritm (KNN)-baserade modeller som utvecklats av fyra analysteam (kompletterande bild. 1 )............................................................................................................... Uppföljningsundersökningar identifierade några möjliga orsaker som ledde till avvikelser i prestanda 32. Till exempel fastställde DAT20 parametern "antal grannar" K = 3 i sitt dataanalysprotokoll för alla endpoints, medan DAT18 varierade K från 3 till 15 med en stegstorlek på 2. Denna undersökning visade också att även en detaljerad men standardiserad beskrivning av modellbyggnad begärdes från alla grupper misslyckades med att fånga många viktiga inställningsvariabler i processen. De subtila modellering skillnader som inte fångas kan ha bidragit till de olika prestandanivåer som uppnås av dataanalysgrupperna. Skillnaderna i prestanda för de modeller som utvecklats av olika dataanalysgrupper kan också observeras från förändrade mönster för intern och extern valideringsprestanda över de 13 endpoints (Fig. 3, Kompletterande tabell 5-7 och kompletterande figurer. 2-4)................................................................. Våra observationer belyser vikten av bra modelleringspraxis för att utveckla och validera mikroarraybaserade prediktiva modeller inklusive rapportering av beräkningsdetaljer för resultat som ska replikeras 26. Mot bakgrund av MAQC-II-erfarenheten verkar det mycket önskvärt att registrera strukturerad information om steg och parametrar i en analysprocess för att underlätta peer review och omanalys av resultaten. För att utvärdera reproducerbarheten hos de modeller som genererats av varje team korrelerade vi prestandan för varje lags modeller på de ursprungliga träningsdata som inställts för att utföra valideringsdata och upprepade denna beräkning för swapexperimentet (Fig. 4)................................................................. Korrelationen varierade från 0,698-0,966 på det ursprungliga experimentet och från tidigare, omanalys av en allmänt citerad singelstudie 34 fann att resultaten i den ursprungliga publikationen var mycket bräcklig-det vill säga, inte reproducerbart om utbildnings- och valideringsset byts 35. Våra observationer, med undantag för DAT3, DAT11 och DAT36 med korrelation <0.6, främst till följd av misslyckande med att exakt förutsäga den positiva kontrollen endpoint H i swapanalysen (sannolikt på grund av operatörens fel), inte styrka sådan sårbarhet i de nu undersökta datamängderna. Det är viktigt att betona att vi upprepade hela modellbygg- och utvärderingsprocesserna under swapanalysen och därför gäller stabilitet för modellbyggprocessen för varje dataanalysgrupp och inte för en viss modell eller metod. Kompletterande figur 5 ger en mer detaljerad titt på korrelationen mellan intern och extern validering för varje dataanalysgrupp och varje endpoint för både den ursprungliga (kompletterande bild. 5a) och swap ( Kompletterande bild 5d) Analyser. Som förväntat skilde sig individuella funktionslistor från analysgrupp till analysgrupp och mellan modeller som utvecklats från originaldata och swappade data. När listor över särdrag kartlades för biologiska processer, observerades emellertid en större grad av konvergens och samstämmighet. Detta har föreslagits tidigare men har aldrig visats på ett heltäckande sätt över många datamängder och tusentals modeller som gjordes i MAQC-II 36. Att noggrant identifiera potentiella varianskällor som förklarar variabiliteten i prestanda för extern validering (Fig. 2c), Vi tillämpade slumpmässig effekt modellering (Fig. 5a).............................................................................................. Vi noterade att själva effektmåttet i särklass är den dominerande källan till variabilitet, vilket förklarar >65 % av variabiliteten i den externa valideringsprestandan. Alla andra faktorer förklarar <8% av den totala variansen, och den återstående variansen är ~6%. Bland de faktorer som testats har de som involverar interaktioner med endpoint en relativt stor effekt, särskilt interaktionen mellan endpoint med organisation och klassificeringsalgoritm, som belyser variationer i kompetens mellan analysteam. För att ytterligare undersöka effekten av enskilda nivåer inom varje modelleringsfaktor, uppskattade vi de empiriska bästa linjära objektiv prediktorer (BLUP) 37. I figur 5b visas BLUP-ytorna för motsvarande faktorer i figur 5a med en variation på mer än 1 %. BLUP-värdena visar effekten av varje nivå av faktorn till motsvarande MCC-värde. BLUP av den huvudsakliga endpoint effekten visar att råtta levernekros, bröstcancer östrogenreceptorstatus och kön hos patienten (endpoints C, E, H och L) är relativt lättare att förutsäga med ~0,2-0,4 fördel bidrog till motsvarande MCC värden. Resten av effektmåtten är relativt svårare att förutsäga med cirka −0,1 till −0,2 nackdelar bidrog till motsvarande MCC-värden. De viktigaste faktorerna för normalisering, klassificeringsalgoritm, antalet utvalda funktioner och funktionsvalsmetoden har en inverkan på motsvarande MCC-värden på −0,1 till 0,1. Loess normalisering tillämpades på endpoints (J, K och L) för neuroblastoma data som med tvåfärg Agilent plattform och har 0,1 fördel till MCC värden. Bland Microarray Analysis Suite version 5 (MAS5), Robust Multichip Analysis (RMA) och dChip normaliseringsmetoder som tillämpades på alla endpoints (A, C, D, E, F, G och H) för Affymetrix data, har dChip metoden en lägre BLUP än de andra. Eftersom normaliseringsmetoder delvis är sammansvetsade med endpoints, kan det vara olämpligt att jämföra metoder mellan olika sammansvetsade grupper. Bland klassificeringsmetoderna har diskriminantanalys den största positiva effekten av 0,056 på MCC-värdena. När det gäller antalet utvalda funktioner, större bin antal har bättre inverkan på genomsnittet för alla endpoints. Bin-numret tilldelas genom att använda takfunktionen på loggbasen 10 av antalet valda funktioner. Alla funktionsvalsmetoder har en liten inverkan på −0,025 till 0,025 Figur 4 Korrelationen mellan intern och extern validering är beroende av dataanalysgruppen. Pearson korrelationskoefficienter mellan intern och extern valideringsprestanda när det gäller MCC visas för de 14 grupper som lämnade in modeller för alla 13 endpoints i både den ursprungliga (x-axeln) och swap (y-axeln) analyser. Den ovanligt låga korrelationen i swapanalysen för DAT3, DAT11 och DAT36 är ett resultat av deras underlåtenhet att exakt förutsäga det positiva effektmåttet H, sannolikt på grund av operatörens fel (kompletterande tabell 6 ). © 2010 Nature America, Inc. Alla rättigheter förbehållna. nature biotechnology Volume 28 ANTAL 8 AUGUST 2010 A r t i c l es på MCC värden med undantag för rekursiv funktion eliminering (RFE) som har en inverkan på −0.006. I diagrammen för de fyra utvalda interaktionerna varierar de uppskattade BLUP-värdena mellan olika endpoints. Den stora variationen mellan endpoints innebär påverkan av motsvarande modelleringsfaktor på olika endpoints kan vara mycket olika. Bland de fyra interaktionsytorna (se Kompletterande bild). 6 för en tydlig märkning av varje interaktionsterm), motsvarande BLUPs av trevägs interaktion av organisation, klassificeringsalgoritm och endpoint visar den högsta variationen. Detta kan bero på olika inställningsparametrar tillämpas på enskilda algoritmer för olika organisationer, som var fallet för KNN 32. Vi analyserade också den relativa betydelsen av modelleringsfaktorer på extern validering förutsägelse prestanda med hjälp av ett beslut träd modell 38. Analysresultaten visade observationer (Supplementary Fig. 7 ) i stort sett överensstämmer med ovanstående. För det första var endpointkoden den mest inflytelserika modellfaktorn. För det andra, funktionsval metod, normalisering och summering metod, klassificering metod och organisation kod bidrog också till förutsägelse prestanda, men deras bidrag var relativt liten. Prediktionsprestanda är det viktigaste kriteriet för att utvärdera prestandan hos en prediktiv modell och dess modelleringsprocess. Modellens robusthet och mekanistiska relevans och motsvarande gensignatur är dock också viktig (Supplementary Fig. 8 ) och 8.............................................................................................................. Det är, med tanke på jämförbara förutsägelser prestanda mellan två modelleringsprocesser, den som ger en mer robust och reproducerbar gensignatur över liknande datamängder (t.ex. genom att byta utbildning och valideringsset), som därför är mindre mottaglig för sporadiska fluktuationer i data, eller den som ger nya insikter till den underliggande biologin är att föredra. Reproducerbarhet eller stabilitet hos funktionsuppsättningar studeras bäst genom att köra samma modell urval protokoll på två skilda samlingar av prover, ett scenario endast möjligt, i detta fall, efter att de blinda valideringsdata distribuerades till dataanalysgrupper som ombads att utföra sin analys efter byte av deras ursprungliga utbildning och testuppsättningar. Kompletterande figurer 9 och 10 visar att även om funktionen utrymme är extremt stor för microarray data, olika team och protokoll kunde konsekvent välja de bäst presterande funktioner. Analys av listorna över funktioner indikerade att för endpoints relativt lätt att förutsäga, olika dataanalysgrupper kom fram till modeller som använde mer vanliga funktioner och överlappningen av listorna från de ursprungliga och swap analyser är större än de för svårare endpoints (kompletterande figurer. 9-11)................................................................ Graden av stabilitet i funktionslistorna kan därför kopplas till svårigheten att förutsäga problemet (Supplementary Fig. 11 ), även om flera modeller med olika funktionslistor och jämförbar prestanda kan hittas från samma datauppsättning 39. Funktionell analys av de oftast utvalda generna genom alla dataanalysprotokoll visar BLUP diagram av motsvarande faktorer som har andel variation större än 1% i a. Endpoint förkortningar (Tox., preklinisk toxicitet; BR, bröstcancer; MM, multipelt myelom; NB, neuroblastom). Endpoints H och L är patientens kön. Sammanfattande förkortningar för normalisering (GA, genetisk algoritm; RMA, robust multichipanalys). Klassificering algoritmförkortningar (ANN, artificiella neurala nätverk; DA, diskriminerande analys; Skog, slumpmässig skog; GLM, generaliserad linjär modell; KNN, K-nearest grannar; Logistik, logistisk regression; ML, maximal sannolikhet; NB, Naïve Bayes; NC, närmaste centroid; PLS, partiell minst kvadrater; RFE, rekursiv funktionseliminering; SMO, sekventiell minimal optimering; SVM, stöd vektor maskin; Tree, beslut träd). Förkortningar för val av funktionsmetod (Bscatter, mellanklass scatter; FC, veckförändring; KS, Kolmogorov-Smirnov-algoritm; SAM, signifikansanalys av mikroarrayer). © 2010 Nature America, Inc. Alla rättigheter förbehållna. VOLYM 28 NUMMER 8 AUGUST 2010 naturbioteknik A r t i c l es att många av dessa gener representerar biologiska processer som är mycket relevanta för det kliniska resultatet som förutspås 36. De könsbaserade endpointsen har den bästa överlappningen, medan svårare överlevnadsslutpunkter (i vilka sjukdomsprocesser förbryllas av många andra faktorer) endast marginellt bättre överlappar med biologiska processer som är relevanta för sjukdomen än vad som kan förväntas av slumpen. MAQC-II-dataanalysgrupperna bestod av en mångfaldig grupp, av vilka några var erfarna mikroarrayanalytiker medan andra var doktorander med liten erfarenhet. Sammantaget har gruppens sammansättning troligen imiterat det breda forskarsamhället som arbetar med att bygga och publicera modeller som härrör från mikroarraydata. De mer än 30 000 modeller som utvecklats av 36 dataanalysteam för 13 endpoints från sex olika kliniska och prekliniska datamängder är en rik källa för att belysa flera viktiga observationer. För det första var prestanda för modellprognoser i stor utsträckning beroende av endpoint (biologi) (Fig. 2c och 3). Införlivandet av flera datamängder och endpoints (inklusive positiva och negativa kontroller) i MAQC-II-studien möjliggjorde denna observation. Vissa endpoints är mycket prediktiva baserat på arten av data, vilket gör det möjligt att bygga bra modeller, förutsatt att sunda modelleringsförfaranden används. Andra endpoints är i sig svåra att förutsäga oavsett modellutvecklingsprotokollet. För det andra finns det tydliga skillnader i kompetens mellan dataanalysteam (organiseringar) och sådana skillnader är korrelerade med teamets erfarenhetsnivå. Till exempel var de högpresterande teamen som visas i figur 3 främst industriella deltagare med många års erfarenhet av analys av mikroarraydata, medan de mest mindre erfarna forskarstuderandena eller forskarna var undermåliga. Baserat på resultat från positiva och negativa endpoints, Vi märkte att enkla fel ibland gjordes, tyder på snabba insatser på grund av brist på tid eller obemärkt genomförande brister. Denna iakttagelse tyder starkt på att det behövs mekanismer för att säkerställa tillförlitligheten hos de resultat som läggs fram för tillsynsmyndigheterna, tidskriftsredaktörerna och forskarsamhället. Genom att undersöka praxis hos team vars modeller inte presterade bra, kan framtida studier kunna identifiera fallgropar som ska undvikas. På samma sätt kan metoder som antagits av högpresterande team ligga till grund för utvecklingen av goda modelleringsmetoder. För det tredje visar den interna valideringsprestandan från väl genomförd, objektiv korsvalidering en hög grad av överensstämmelse med den externa valideringsprestandan i en strikt bländningsprocess (Fig. 2).................................................................. Denna observation var inte möjlig från tidigare publicerade studier på grund av det lilla antal tillgängliga endpoints som testades i dem. För det fjärde kan många modeller med liknande prestanda utvecklas från en given datauppsättning (Fig. 2).................................................................. Liknande förutsägelse prestanda är uppnåelig när man använder olika modellering algoritmer och parametrar, och enkla dataanalysmetoder utför ofta såväl som mer komplicerade metoder 32, 40. Även om det inte är nödvändigt att inkludera samma egenskaper i dessa modeller för att uppnå jämförbar förutsägelse prestanda, endpoints som var lättare att förutsäga allmänt gav modeller med vanligare funktioner, när de analyserades av olika team (kompletterande bild. 11).................................................................. Slutligen verkade det vara viktigare att tillämpa bra modelleringsmetoder än att faktiskt välja en viss algoritm över de andra inom samma steg i modelleringsprocessen. Detta kan ses i de olika val av modelleringsfaktorer som används av team som producerade modeller som presterade bra i den blindade valideringen (tabell 2) där modelleringsfaktorer inte generellt bidrog till variationer i modellens prestanda bland väl presterande team (Fig. 5).................................................................. Sammanfattat nedan är de modellbyggsteg som rekommenderas till MAQC-II-dataanalysgrupperna. Dessa kan vara tillämpliga på mönsterbyggare i det allmänna forskarsamhället. Steg ett (design). Det finns ingen exklusiv uppsättning av steg och förfaranden, i form av en checklista, som ska följas av någon utövare för alla problem. Man bör dock följa normal god praxis när det gäller studiens utformning och förhållandet mellan provstorlek och klassificeringskomplexitet. De ofta använda alternativen för normalisering, funktionsval och klassificering är bra utgångspunkter (tabell 2). Steg två (pilotstudie eller intern validering). Detta kan åstadkommas genom bootstrap eller korsvalidering såsom de tio upprepningarna av ett femfaldigt korsvalideringsförfarande som antagits av de flesta MAQC-II-team. Proverna från pilotstudien ersätts inte för den pivotala studien, utan förstärks för att uppnå "lämplig" målstorlek. Steg 3 (Pivotal studie eller extern validering). Många utredare antar att det mest konservativa synsättet på en pivotal studie är att helt enkelt få ett test som är helt oberoende av utbildningset(n). Det är dock bra att komma ihåg utbytet 34,35 om hur bräckliga resultaten är när utbildnings- och valideringsset byts ut. Resultat från ytterligare omsampling (inklusive enkla byten som i MAQC-II) i utbildnings- och valideringsseten kan ge viktig information om modellernas tillförlitlighet och modelleringsförfarandena, men den fullständiga separationen av utbildnings- och valideringsseten bör upprätthållas 41. Slutligen gäller en flerårig fråga återanvändning av den oberoende valideringen efter ändringar av en ursprungligen utformad och validerad algoritm eller protokoll för dataanalys. En sådan process förvandlar valideringen set till en del av konstruktionen eller utbildning set 42. Markregler måste utarbetas för att undvika detta tillvägagångssätt och bestraffa det när det inträffar; och utövare bör vara på sin vakt mot att använda det innan sådana grundregler är väl etablerade. DISCUSSION MAQC-II genomförde en bred observationsstudie av det nuvarande samhällslandskapet för genuttrycksprofilbaserad prediktiv modellutveckling. Mikroarray genuttryck profilering är bland de vanligaste analytiska verktygen inom biomedicinsk forskning. Analys av de högdimensionella data som genereras av dessa experiment innebär flera steg och flera kritiska beslut punkter som kan djupt påverka sundheten i resultaten 43. Ett viktigt krav för en sund intern validering är att den måste innehålla funktionsval och parameteroptimering inom varje iteration för att undvika alltför optimistiska uppskattningar av förutsägelseprestanda 28, 29, 44. I vilken utsträckning denna information har spridits och följts av det vetenskapliga samfundet i nuvarande mikroarray analys förblir okänd 33. Det har framförts farhågor om att resultat som publicerats av en grupp av utredare ofta inte kan bekräftas av andra även om samma datamängd används 26. En oförmåga att bekräfta resultaten kan bero på flera orsaker: i) otillräcklig information ges om den metod som beskriver vilken analys som faktiskt har gjorts; ii) dataförbehandling (normalisering, genfiltrering och urval av funktioner) är för komplicerad och otillräckligt dokumenterad för att reproduceras; eller iii) felaktiga eller partiska komplexa analysmetoder 26 utförs. En tydlig men relaterad oro är att genomiska data kan ge förutsägelse modeller som, även om reproducerbar på upptäcktsdatamängden, inte kan extrapoleras väl i oberoende validering. MAQC-II-projektet gav en unik möjlighet att ta itu med några av dessa problem. Framför allt har vi inte infört några restriktioner för de modellbyggmetoder som används av dataanalysgrupperna. De har därför antagit många olika modelleringsmetoder (A r t i c l es Till exempel varierade urvalsmetoderna mycket, från statistiska signifikanstester, till algoritmer för maskininlärning, till dem som är mer beroende av skillnader i uttrycksförmåga, till dem som använder kunskap om putativa biologiska mekanismer som är förknippade med endpointen. Förutsägelsealgoritmer varierade också kraftigt. För att göra interna valideringsresultat jämförbara mellan team för olika modeller rekommenderade vi att en modells interna prestanda uppskattades med hjälp av en tio gånger upprepad femfaldig korsvalidering, men denna rekommendation följdes inte strikt av alla team, vilket också gör det möjligt för oss att undersöka interna valideringsmetoder. Mångfalden av analysprotokoll som används av teamen kommer sannolikt att nära likna den nuvarande forskningen framåt, och i detta sammanhang efterliknar verkligheten. När det gäller utrymmet för modelleringsfaktorer som undersökts, MAQC-II är en undersökning av nuvarande praxis snarare än ett slumpmässigt, kontrollerat experiment; därför bör försiktighet iakttas vid tolkningen av resultaten. Till exempel, vissa team inte analysera alla endpoints, orsakar saknade data (modeller) som kan förväxlas med andra modelleringsfaktorer. Totalt sett var det förfarande som tillämpades för att nominera MAQC-II-kandidatmodeller ganska effektivt när det gällde att välja ut modeller som utfördes någorlunda väl under valideringen med hjälp av oberoende datamängder, även om de valda modellerna i allmänhet inte gjorde lika bra ifrån sig i valideringen som i utbildningen. Den minskade prestanda som är förknippad med valideringen belyser vikten av att inte enbart förlita sig på interna valideringsprestanda, och pekar på behovet av att låta varje klassificeringskategori omfattas av minst en extern validering. Urvalet av de 13 kandidatmodellerna från många nominerade modeller uppnåddes genom en peer-review-samverkan av många experter och kunde beskrivas som långsam, tråkig och ibland subjektiv (t.ex. kunde ett dataanalysteam endast bidra med en av de 13 kandidatmodellerna). Även om de fortfarande var föremål för överoptimism var de interna och externa resultatuppskattningarna för kandidatmodellerna mer samstämmiga än de för den totala uppsättningen modeller. Översynen var således produktiv när det gällde att identifiera egenskaper hos tillförlitliga modeller. En viktig lärdom från MAQC-II är att det är nästan omöjligt att retroaktivt hämta och dokumentera beslut som togs vid varje steg under funktionsvalet och modellutvecklingsstadiet. Denna brist på fullständig beskrivning av modellen byggnadsprocessen kommer sannolikt att vara en vanlig orsak till oförmågan hos olika data analysteam att fullt ut reproducera varandras resultat 32. Därför rekommenderar vi, även om det kan vara besvärligt att noggrant dokumentera klassificeringsförfarandet, att alla genomiska publikationer innehåller kompletterande material som beskriver modellbyggandet och utvärderingsprocessen i ett elektroniskt format. MAQC-II gör sex datauppsättningar tillgängliga med 13 endpoints som kan användas i framtiden som riktmärke för att verifiera att programvara som används för att implementera nya metoder fungerar som förväntat. Genom att utsätta ny programvara för riktmärken mot dessa datamängder kan potentiella användare försäkras om att programvaran är tillräckligt mogen för att användas för utveckling av prediktiva modeller i nya datamängder. Det skulle vara fördelaktigt att ta fram alternativa sätt att avgöra om specifika genomföranden av modelleringsmetoder och förfaranden för utvärdering av prestanda är sunda och att fastställa förfaranden för att samla in denna information i offentliga databaser. Resultaten från MAQC-II-projektet tyder på att när samma datamängder tillhandahålls till ett stort antal dataanalysgrupper kan många grupper generera liknande resultat även när olika modellbyggmetoder följs. Detta är överensstämmande med studier 29,33 som fann att med tanke på god kvalitet data och ett tillräckligt antal informativa funktioner, de flesta klassificeringsmetoder, om korrekt används, kommer att ge liknande prediktiva prestanda. Detta bekräftar också rapporter 6,7,39 om små datamängder av enskilda grupper som har föreslagit att flera olika funktionsvalsmetoder och förutsägelsealgoritmer kan ge många modeller som är distinkta, men har statistiskt likartade prestanda. Sammantaget ger dessa resultat perspektiv på det stora antalet publikationer i bioinformatiklitteraturen som har undersökt de olika stegen i den multivariata prediktionsmodellens byggprocess och identifierade element som är avgörande för att uppnå tillförlitliga resultat. En viktig och tidigare underskattad observation från MAQC-II är att olika kliniska endpoints representerar mycket olika nivåer av klassificeringssvårigheter. För vissa endpoints är de data som för närvarande finns tillgängliga tillräckliga för att generera robusta modeller, medan tillgängliga data för andra endpoints för närvarande inte verkar vara tillräckliga för att ge mycket prediktiva modeller. En analys som gjorts som en del av MAQC-II-projektet och som fokuserade på bröstcancerdata visar dessa punkter mer i detalj 40. Det är också viktigt att påpeka att för vissa kliniskt betydelsefulla endpoints som studerats i MAQC-II-projektet, verkade genuttrycksdata inte vara signifikant bättre än modeller baserade på enbart kliniska kovariater, vilket belyser utmaningarna i att förutsäga utfallet för patienter i en heterogen population och det potentiella behovet av att kombinera genuttrycksdata med kliniska kovariater (opublicerade data). Noggrannheten hos information om kliniska provanmärkningar kan också spela en roll i svårigheten att få korrekta förutsägelser om valideringsprover. Till exempel var en del prover felklassificerade av nästan alla modeller (kompletterande bild. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. Det är sant även för vissa prover inom de positiva kontroll endpoints H och L, som visas i kompletterande tabell 8. Klinisk information om neuroblastompatienter för vilka det positiva kontrollmåttet L var enhetligt felaktigt klassificerat kontrollerades på nytt och könet i tre av åtta fall (NB412, NB504 och NB522) konstaterades vara felaktigt kommenterat. Den följeslagare MAQC-II papper publiceras på annat håll ger mer djupgående analyser av specifika frågor såsom de kliniska fördelarna med genomic classifiers (opublicerade data), inverkan av olika modelleringsfaktorer på förutsägelse prestanda 45, den objektiva bedömningen av microarray cross-platform förutsägelse 46, kors-vävnad förutsägelse 47, en-färg kontra två-färg förutsägelse jämförelse 48, funktionell analys av gensignaturer 36 och rekommendation av en enkel men robust dataanalys protokoll baserat på KN 32. Till exempel jämförde vi systematiskt klassificeringsprestandan från en- och tvåfärgade genuttrycksprofiler på 478 neuroblastomprover och fann att analyser baserade på endera plattformen gav liknande klassificeringsprestanda 48. Denna nygenererade enfärgsdatauppsättning har använts för att utvärdera tillämpligheten av KNN-baserade enkla dataanalysprotokoll till framtida datamängder 32. Dessutom, MAQC-II Genome-Wide Association Working Group utvärderade variabiliteten i genotyp anrop på grund av experimentella eller algoritmiska faktorer 49. Sammanfattningsvis har MAQC-II visat att nuvarande metoder som vanligen används för att utveckla och bedöma multivariata genuttrycksbaserade prediktorer av kliniskt utfall användes på lämpligt sätt av de flesta analysgrupperna i detta konsortium. Det uppstod dock skillnader i kompetens och detta understryker vikten av ett korrekt genomförande av annars stabila analysmetoder. Observationer baserade på analys av MAQC-II-datamängderna kan vara tillämpliga på andra sjukdomar. MAQC-II-datamängderna är allmänt tillgängliga och förväntas användas av forskarsamhället som riktmärken för att säkerställa korrekt modelleringspraxis. Erfarenheten med MAQC-II kliniska datauppsättningar förstärker också föreställningen att kliniska klassificeringsproblem representerar flera olika grader av prediktionssvårigheter som sannolikt kommer att vara förknippade med huruvida mRNA överflöd mätt i en specifik datauppsättning är informativa för den specifika prediktionsproblemet. Vi förväntar oss att inklusive andra © 2010 Nature America, Inc. Alla rättigheter reserverade. VOLYM 28 ANTAL 8 AUGUST 2010 naturbioteknik A r t i c l es typer av biologiska data vid DNA-, mikroRNA-, protein- eller metabolitnivåerna kommer att öka vår förmåga att mer exakt förutsäga de kliniskt relevanta effektmåtten. De riktlinjer för god modellering som fastställts av MAQC-II och de lärdomar som dragits av detta aldrig tidigare skådade samarbete utgör en solid grund från vilken andra högdimensionella biologiska data kan användas på ett mer tillförlitligt sätt för att förutsäga och anpassa medicinen. Metoder och eventuella tillhörande referenser finns i pappersversionen på http://www.nature.com/naturebiotechnology/. Anslutningskoder. Alla MAQC-II-datamängder finns tillgängliga via GEO (seriens anslutningsnummer: GSE16716), MAQC:s webbplats
|
Shi och Al. REF utvärderar ett stort antal olika modeller för att förutsäga kliniska endpoints hos människa och endpoints för toxicitet hos gnagare.
| 205,274,784 |
The MicroArray Quality Control (MAQC)-II study of common practices for the development and validation of microarray-based predictive models
|
{'venue': 'Nature Biotechnology', 'journal': 'Nature Biotechnology', 'mag_field_of_study': ['Medicine', 'Biology']}
| 14,365 |
Abstract-Written utveckling kommunikation (t.ex. e-postlistor, emission trackers) utgör en värdefull informationskälla för att bygga rekommendationer för programvaruingenjörer, till exempel för att föreslå experter, eller för att omdokumentera befintlig källkod. I detta dokument föreslår vi en ny, halvövervakad metod som heter DECA (Development Emails Content Analyzer) som använder Natural Language Parsing för att klassificera innehållet i utvecklingsmail efter deras syfte (t.ex. Funktionsförfrågan, åsiktsförfrågan, problemsökning, lösningsförslag, informationslämnande etc.), identifiering av e-postelement som kan användas för specifika uppgifter. En studie baserad på data från Qt och Ubuntu belyser en hög precision (90 %) och återkallar (70 %) av DECA i klassificering av e-postinnehåll, prestanda traditionella strategier maskininlärning. Dessutom har vi framgångsrikt använt DECA för att omdokumentera källkoden för Eclipse och Lucene, förbättra återkallandet, samtidigt som hög precision, av en tidigare metod baserad på ad-hoc heuristics.
|
Sorbo m.fl. REF föreslog en ny, halvövervakad metod som hette DECA (Development Emails Content Analyzer) som använde Natural Language Parsing för att klassificera meningarna i utvecklingsmail efter deras syfte.
| 14,546,841 |
Development Emails Content Analyzer: Intention Mining in Developer Discussions (T)
|
{'venue': '2015 30th IEEE/ACM International Conference on Automated Software Engineering (ASE)', 'journal': '2015 30th IEEE/ACM International Conference on Automated Software Engineering (ASE)', 'mag_field_of_study': ['Computer Science']}
| 14,366 |
Abstract-I detta dokument presenterar vi en hierarkisk kartläggningsmetod som gör det möjligt för oss att få exakta metriska kartor över stora miljöer i realtid. Den lägre (eller lokala) kartnivån består av en uppsättning lokala kartor som garanterat är statistiskt oberoende. Den övre (eller globala) nivån är en adjakenskurva vars bågar är märkta med den relativa placeringen mellan lokala kartor. En uppskattning av dessa relativa platser upprätthålls på denna nivå i en relativ stokastisk karta. Vi föreslår en nära till optimal slinga stängningsmetod som, samtidigt som självständighet på lokal nivå, kräver konsekvens på global nivå till en beräkningskostnad som är linjär med storleken på slingan. Experimentella resultat visar effektiviteten och precisionen i den föreslagna metoden genom att kartlägga Ada Byron-byggnaden på vårt campus. Vi analyserar också, med hjälp av simuleringar, precisionen och konvergensen av vår metod för större loopar.
|
REF föreslår en hierarkisk kartläggningsmetod som gör det möjligt att få exakta metriska kartor över stora miljöer i realtid.
| 6,663,389 |
Hierarchical SLAM: real-time accurate mapping of large environments
|
{'venue': 'IEEE Transactions on Robotics', 'journal': 'IEEE Transactions on Robotics', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,367 |
Abstract-This paper fokuserar på att karakterisera energi, latens och kapacitet kompromisser i multi-hop trådlösa ad-hoc nätverk. Därför föreslås en flermålsram för att ta fram de lösningar som är optimala för Pareto när det gäller dessa tre kriterier. Det arbete som presenteras i detta dokument förutsätter ett linjärt nätverk där överföringskrafter och reläpositioner är optimeringsvariabler. Vi studerar det asymptotiska tillståndet där avståndet mellan källa och destination är mycket högt så att antalet humle tenderar att vara oändligt. Två typer av trafik beaktas i det följande. För det första analyseras låg hastighet trafik genom att karakterisera multiobjektiva prestanda för en enda paket överföring med hjälp av en störningsfri multi-hop relästrategi. För det andra beaktas ett kontinuerligt flöde av paket från en unik källa. I det första fallet visar vi ett viktigt teorem som säger att alla Pareto optimala lösningar med avseende på fördröjnings- och energimått ger samma mål SNR på mottagarsidan. I det andra fallet belyser våra analytiska resultat hur energi/delay Pareto front rör sig när man överväger en kapacitetsbegränsning och den optimala återanvändningsfaktorn härleds.
|
I REF studerades energi-, latens- och kapacitetsutjämningar som fanns i ett trådlöst nätverk med flera alternativ.
| 6,536,028 |
Energy, latency and capacity trade-offs in wireless multi-hop networks
|
{'venue': '21st Annual IEEE International Symposium on Personal, Indoor and Mobile Radio Communications', 'journal': '21st Annual IEEE International Symposium on Personal, Indoor and Mobile Radio Communications', 'mag_field_of_study': ['Computer Science']}
| 14,368 |
Sammanfattning huvudkomponentanalys [6], Fourier-deskriptorer, neurala nätverk, orienteringshistogram [7] och partikelfilter [8]. Vi föreslår en snabb algoritm för att automatiskt känna igen en begränsad uppsättning gester från handbilder för vårt fokus erkännande av en fast uppsättning manuellt en robot styrprogram. Hand gestigenkänning är ett kommando av en robot, i en någorlunda strukturerad miljö utmanande problem i sin allmänna form. Vi överväger en i realtid. Därför är hastigheten, därav enkelheten i den fasta uppsättningen av manuella kommandon och en rimligen strukturerad algoritm viktig. Vi utvecklar och genomför en sådan miljö och utvecklar en enkel, men effektiv, procedur i detta arbete. Vårt tillvägagångssätt handlar om att segmentera förfarandet för gestigenkänning. Vår strategi innehåller hand baserat på hudfärg statistik, samt storlek begränsningar. steg för segmentering av handen regionen, lokalisera fingrarna, Vi hittar sedan tyngdpunkten (COG) i handregionen och slutligen klassificera gest. Algoritmen är också den längst bort från COG. Baserat på dessa preinvariant till översättning, rotation, och skala av handen. processing steg, vi härleder en signal som bär information om Vi visar effektiviteten av tekniken på verkliga aktiviteten av fingrarna i tecknet. Äntligen identifierar vi bilden. tecken baserat på den signalen. Vår algoritm är invariant till rotationer, översättningar och skala av handen. Dessutom, tekniken kräver inte lagring av en hand gest
|
Malima REF föreslog en algoritm som automatiskt identifierar en begränsad uppsättning handgester från bilder som används för robotkontroll för att utföra uppgifter.
| 14,481,965 |
A Fast Algorithm for Vision-Based Hand Gesture Recognition for Robot Control
|
{'venue': '2006 IEEE 14th Signal Processing and Communications Applications', 'journal': '2006 IEEE 14th Signal Processing and Communications Applications', 'mag_field_of_study': ['Computer Science']}
| 14,369 |
Abstract-Accurate metrisk lokalisering är en av de centrala utmaningarna inom mobil robotik. Många befintliga metoder syftar till att lokalisera efter att ha byggt en karta med roboten. I detta dokument presenterar vi en ny strategi som istället använder geotaggade panoraman från Google Street View som en källa till global positionering. Vi modellerar problemet med lokalisering som en icke-linjär minsta kvadratuppskattning i två faser. Den första uppskattar 3D-positionen för spårade funktionspunkter från korta monokulära kamerasekvenser. Den andra beräknar den stela kroppsomvandlingen mellan Street View panoraman och de beräknade punkterna. Den enda inmatningen av detta tillvägagångssätt är en ström av monokulära kamerabilder och beräkningar av odometri. Vi kvantifierade metodens noggrannhet genom att köra inflygningen på en robotplattform på en parkeringsplats genom att använda visuella fakta som marksanning. Dessutom tillämpade vi metoden i samband med personlig lokalisering i ett verkligt urbant scenario genom att använda data från en Google Tango tablett.
|
REF använde den mobila versionen av Tango-projektet för metriska lokaliseringsändamål baserat på Google Street View.
| 1,830,762 |
Metric localization using Google Street View
|
{'venue': '2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'journal': '2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'mag_field_of_study': ['Engineering', 'Computer Science']}
| 14,370 |
Under de senaste åren, Deep Enhancement Learning har gjort imponerande framsteg i att lösa flera viktiga referensproblem för sekventiellt beslutsfattande. Många kontrollprogram använder en generisk flerskikts perceptron (MLP) för icke-vision delar av policynätverket. I detta arbete föreslår vi en ny neural nätverksstruktur för policynätverk representation som är enkel men ändå effektiv. Det föreslagna strukturerade kontrollnätet (SCN) delar upp det generiska MLP-systemet i två separata delmoduler: en icke-linjär styrmodul och en linjär styrmodul. Intuitivt är den ickelinjära kontrollen för framåtriktad och global kontroll, medan den linjära kontrollen stabiliserar den lokala dynamiken kring resterna av global kontroll. Vi antar att detta kommer att föra samman fördelarna med både linjär och icke-linjär politik: förbättra utbildningsprov effektivitet, slutliga episodiska belöning, och generalisering av inlärd politik, samtidigt som det krävs ett mindre nätverk och är allmänt tillämplig på olika utbildningsmetoder. Vi validerade vår hypotes med konkurrenskraftiga resultat på simuleringar från OpenAI MuJoCo, Roboschool, Atari, och en anpassad 2D stadskörningsmiljö, med olika ablation och generalisering tester, tränade med flera svart-box och policy gradient utbildningsmetoder. Den föreslagna arkitekturen har potential att förbättras när det gäller bredare kontrolluppgifter genom att problemspecifika prioriteringar införlivas i arkitekturen. Som en fallstudie visar vi mycket bättre prestanda för locomotion uppgifter genom att efterlikna de biologiska centrala mönstergeneratorer (CPG) som den icke-linjära delen av arkitekturen.
|
I RL visade strukturerade kontrollnät en förbättring av flera uppgifter genom att dela upp policyn i en linjär modul och en icke-linjär modul REF.
| 3,522,594 |
Structured Control Nets for Deep Reinforcement Learning
|
{'venue': 'PMLR 80:4742-4751, 2018', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,371 |
Abstrakt. Cloud Computing har föreställts som nästa generations arkitektur för IT Enterprise. Det flyttar applikationen programvara och databaser till de centraliserade stora datacenter, där hanteringen av data och tjänster kanske inte är helt tillförlitliga. Detta unika paradigm medför många nya säkerhetsutmaningar, som inte har förståtts väl. I detta arbete studeras problemet med att säkerställa integriteten i datalagringen i Cloud Computing. I synnerhet anser vi att uppgiften att tillåta en tredje parts revisor (TPA), för molnklientens räkning, att verifiera integriteten hos de dynamiska data som lagras i molnet. Införandet av TPA eliminerar kundens medverkan genom granskning av om hans data som lagras i molnet verkligen är intakt, vilket kan vara viktigt för att uppnå stordriftsfördelar för Cloud Computing. Stödet för datadynamik via de mest allmänna formerna av datadrift, såsom blockmodifiering, införande och radering, är också ett viktigt steg mot praktiskhet, eftersom tjänster i Cloud Computing inte är begränsade till enbart arkiv- eller säkerhetskopieringsdata. Även om tidigare arbeten för att säkerställa fjärrdataintegritet ofta saknar stöd för antingen offentliga verifierbara eller dynamiska dataoperationer, uppnår detta dokument båda. Vi identifierar först svårigheterna och de potentiella säkerhetsproblemen med direkta förlängningar med helt dynamiska datauppdateringar från tidigare arbeten och visar sedan hur man konstruerar ett elegant verifieringssystem för sömlös integrering av dessa två viktiga funktioner i vår protokolldesign. För att uppnå effektiv datadynamik förbättrar vi särskilt modellen Proof of Retrievability [1] genom att manipulera den klassiska Merkle Hash Tree (MHT) konstruktionen för blocktag autentisering. Omfattande säkerhets- och prestandaanalys visar att det föreslagna systemet är mycket effektivt och påvisbart säkert.
|
REF föreslog ett dynamiskt granskningsprotokoll som kan stödja den dynamiska driften av data på molnservrarna.
| 17,232,314 |
Enabling public verifiability and data dynamics for storage security in cloud computing
|
{'venue': 'in Proc. of ESORICS’09, Saint', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,372 |
Även om sociala interaktioner är avgörande för att förstå konsumenternas beteende, har relationen mellan sociala nätverk och handelsnätverk inte utforskats i stor skala. Vi analyserar Taobao, en kinesisk konsumentmarknad som är världens största e-handel webbplats. Det som skiljer Taobao från dess konkurrenter är dess integrerade snabbmeddelanden verktyg, som köpare kan använda för att fråga säljare om produkter eller be andra köpare om råd. I vår studie fokuserar vi på hur en individs kommersiella transaktioner är inbäddade i deras sociala grafer. Genom att studera triader och den riktade stängningsprocessen kvantifierar vi närvaron av information som passerar och får insikter i när olika typer av länkar bildas i nätverket. Med hjälp av säljare betyg och granska information, vi kvantifierar sedan ett förtroendepris. Hur mycket kommer en konsument att betala för en transaktion med en betrodd säljare? Vi avslutar med att modellera detta konsumentvalsproblem: om en köpare vill köpa en viss produkt, hur (s) bestämmer han vilken butik att köpa den från? Genom att analysera prestandan hos olika funktionsuppsättningar i en informationssökningsmiljö visar vi hur de sociala graffaktorerna bidrar till att förstå konsumenternas beteende.
|
Guo m.fl. REF studerade relationen mellan sociala nätverk och konsumentbeteende för att veta hur enskilda personers kommersiella transaktioner var inbäddade i deras sociala grafer.
| 8,878,572 |
The role of social networks in online shopping: information passing, price of trust, and consumer choice
|
{'venue': "EC '11", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
| 14,373 |
Abstract-För en ortogonal frekvensdelning flera access (OFDMA) nedlänk av ett spektralt samexisterande makro- och femtonätverk, ett resursfördelningssystem skulle syfta till att maximera området spektral effektivitet (ASE) med förbehåll för begränsningar för radioresurser per överföringsintervall tillgängliga av varje femtocell. Ett optimalt resursfördelningssystem för helt decentraliserade distributioner leder dock till ett icke konvext optimeringsproblem. I detta papper används en fylld funktionsmetod för att hitta det globala maximumet av optimeringsproblem. Simuleringsresultat visar att vår föreslagna metod är effektiv och effektiv.
|
Benmesbah m.fl. I REF föreslogs en decentraliserad fördelning av spektralresurser för OFMDA-nedlänk för samexisterande makro- och femtonät.
| 2,392,816 |
Decentralized spectral resource allocation for OFDMA downlink of coexisting macro/femto networks using filled function method
|
{'venue': '2010 7th International Symposium on Communication Systems, Networks & Digital Signal Processing (CSNDSP 2010)', 'journal': '2010 7th International Symposium on Communication Systems, Networks & Digital Signal Processing (CSNDSP 2010)', 'mag_field_of_study': ['Computer Science']}
| 14,374 |
Abstract-Med den snabba utvecklingen av trådlös kommunikation, vehicular ad hoc-nätverk (VANET) har nyligen fått stor uppmärksamhet. Även om IEEE 802.11p har godkänts som standardprotokoll för medelhög åtkomstkontroll (MAC) för kommunikation mellan fordon, kan dess tvistebaserade karaktär och oförmåga att hantera dolda terminalproblem medföra hög sannolikhet för kollision i paket i situationer med hög trafiktäthet. För att övervinna bristen på IEEE 802.11p föreslås tidsdelningsbaserade protokoll baserade på flera åtkomster (TDMA). Paketkollisioner kan dock fortfarande inträffa på grund av stridigheter eller flera fordon som använder samma spår samtidigt som de närmar sig varandra, dvs. stöter på kollisioner, särskilt på tvåvägstrafikvägar. Vissa föreslog att man skulle åtgärda sammanstötningarna för tvåvägstrafik genom att dela upp en ram i två uppsättningar: en för trafiken i varje riktning. Dessa föreslagna protokoll är dock svårare att anpassa till de ojämna trafikbelastningarna i båda riktningarna och kan inte lösa problemet med fyrvägskorsningar. I detta dokument föreslår vi ett nytt TDMA-protokoll som kallas prediktionsbaserat TDMA MAC (PTMAC) baserat på ett nytt sätt att förutsäga kollisioner och effektivt minska antalet kollisioner. Såvitt vi vet är PTMAC det första protokollet som är utformat för både tvåvägstrafik och fyrvägskorsningar. Det har visat sig att kollisionerna på grund av denna förutsägbarhet kan minskas avsevärt i både tvåvägstrafik och fyrvägskorsningar, oavsett trafikbelastningen på olika vägsegment. Index Terms-Medium access control (MAC), paket kollision förutsägelse, time-division multipel access (TDMA), vehicular ad hoc-nätverk (VANET).
|
Förutsägelsebaserad TDMA MAC (PTMAC) REF upptäcker paketkollisioner på kanalerna.
| 19,312,081 |
PTMAC: A Prediction-Based TDMA MAC Protocol for Reducing Packet Collisions in VANET
|
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
| 14,375 |
Skriptidentifiering spelar en viktig roll i analysen av dokument och videor. I den här artikeln fokuserar vi på problemet med skriptidentifiering i scentextbilder och videoskript. På grund av låg bildkvalitet, komplex bakgrund och liknande layout av tecken som delas av vissa skript som grekiska, latin, etc., textigenkänning i dessa fall blir utmanande. I detta dokument föreslår vi en ny metod som innebär extraktion av lokala och globala funktioner med CNN-LSTM ramverk och vikta dem dynamiskt för skriptidentifiering. Först konverterar vi bilderna till patchar och matar in dem i ett CNN-LSTM-ramverk. Uppmärksamhetsbaserade patchvikter beräknas genom att applicera softmax-skikt efter LSTM. Därefter gör vi patch-wise multiplikation av dessa vikter med motsvarande CNN för att ge lokala funktioner. Globala funktioner extraheras också från LSTM:s senaste celltillstånd. Vi använder en fusionsteknik som dynamiskt väger de lokala och globala funktionerna för en enskild patch. Experiment har gjorts i fyra offentliga manusidentifieringsdata: SIW-13, CVSI2015, ICDAR-17 och MLe2e. Den föreslagna ramen ger överlägsna resultat jämfört med konventionella metoder.
|
I REF, Ankan Kumar Bhunia et al. föreslog en ny metod som innebar extraktion av de lokala och globala funktionerna med hjälp av CNN-LSTM-ramverk och uppmärksamhetsbaserade patchvikter beräknade genom att applicera softmax-skikt efter LSTM.
| 24,624,465 |
Script Identification in Natural Scene Image and Video Frame using Attention based Convolutional-LSTM Network
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,376 |
Mumford-Shah och Potts funktioner är kraftfulla variationsmodeller för legalisering som ofta används i signal- och bildbehandling; typiska tillämpningar är kantbevarande denoisering och segmentering. Eftersom de är både icke-smooth och icke-konvexa, är de beräkningsmässigt utmanande även för skalärdata. För data med flera värden blir problemet ännu mer involverat eftersom typiska egenskaper hos vektorrymder inte är tillgängliga. I detta dokument föreslår vi algoritmer för Mumford-Shah och för Potts legalisering av flerdimensionella signaler och bilder. För de unika problemen härleder vi lösare baserade på dynamisk programmering i kombination med (konvexa) optimeringstekniker för data med flera värden. För klassen Cartan-Hadamard-grenrör (som inkluderar datarymden i diffusion tensor imaging (DTI)) visar vi att våra algoritmer beräknar globala minimerare för alla utgångspunkter. För multivariatet Mumford-Shah och Potts problem (för bildreglering), föreslår vi en uppdelning i lämpliga subproblem som vi kan lösa exakt med hjälp av de tekniker som utvecklats för motsvarande univariat problem. Vår metod kräver inga priori-restriktioner på kantuppsättningen och vi behöver inte B Andreas Weinmann diskretisera datautrymmet. Vi tillämpar vår metod på såväl DTI som Q-balltomografi. Med hjälp av DTI-modellen får vi en segmentering av corpus callosum på verkliga data.
|
För multiple- valued data, och därmed för cirkel- valued data i synnerhet, en algoritm för Potts problem har föreslagits av REF.
| 7,961,759 |
Mumford–Shah and Potts Regularization for Manifold-Valued Data
|
{'venue': 'Journal of Mathematical Imaging and Vision', 'journal': 'Journal of Mathematical Imaging and Vision', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Physics']}
| 14,377 |
Abstract-Med tanke på den breda tillämpningen av nätverk inbäddning metoder i graf data mining, inspirerad av den kontrarimala attacken i djupinlärning, föreslår detta papper en Genetisk Algorithm (GA) baserad Euclidean Distance Attack strategi (EDA) att attackera nätverket inbäddning, för att förhindra viss strukturell information från att upptäckas. EDA fokuserar på att störa det euklideiska avståndet mellan ett par noder i inbäddningsutrymmet så mycket som möjligt genom minimala ändringar av nätverksstrukturen. Eftersom ett stort antal nedströmsnätverksalgoritmer, såsom community detektering och nod klassificering, förlitar sig på Euclidean avstånd mellan noder för att utvärdera likheten mellan dem i inbäddning utrymme, EDA kan betraktas som en universell attack på en mängd olika nätverksalgoritmer. Olika från traditionella övervakade attackstrategier, EDA behöver inte märkning information, och, såvitt vi vet, är den första oövervakade nätverk inbäddning attack metod. Vi tar DeepWalk som grund för inbäddningsmetoden för att utveckla EDA. Experiment med en uppsättning verkliga nätverk visar att den föreslagna EDA-metoden avsevärt kan minska prestandan hos DeepWalk-baserade nätverksalgoritmer, dvs. community detektering och nod klassificering, överträffar flera heuristiska attackstrategier. Vi visar också att EDA också fungerar bra på att attackera nätverksalgoritmer baserade på andra gemensamma nätverksinbäddningsmetoder såsom High-Order Proximitybevarande Embedding (HOPE) och icke-inbäddade nätverksalgoritmer som Label Propagation Algorithm (LPA) och Eigenvectors of Matrices (EM). Resultaten visar att EDA-metoden är mycket överförbar.
|
För nätverksinbäddning, Xuan et al. REF föreslog Euclidean Distance Attack (EDA), en genetisk algoritm baserad nätverk inbäddning attack metod, som fokuserar på att störa Euclidean avstånd mellan noder i inbäddning utrymme.
| 166,228,205 |
Unsupervised Euclidean Distance Attack on Network Embedding
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']}
| 14,378 |
Abstract-Den snabba tillväxten av sociala nätverk online har stärkt trådlösa användares sociala relationer, vilket i sin tur har resulterat i mer datatrafik på grund av nätverkseffekter inom det sociala området. Den ökade efterfrågan på trådlösa tjänster kan dock utmana den begränsade trådlösa kapaciteten. För att skapa en grundlig förståelse studerar vi mobilanvändarnas dataanvändningsbeteende genom att gemensamt överväga nätverkseffekten på grund av deras sociala relationer inom det sociala området och trängseleffekten i den fysiska trådlösa domänen. Speciellt utvecklar vi ett Stackelberg spel för socialt medveten dataanvändning: i steg I, en trådlös leverantör bestämmer först data prissättningen till alla användare för att maximera sina intäkter, och sedan i steg II, användare bestämma sin dataanvändning, för det givna priset, med förbehåll för ömsesidiga interaktioner under både sociala nätverk effekt och trängsel effekt. Vi analyserar två-stegs spelet via bakåt induktion. I synnerhet för steg II ger vi först förutsättningar för existensen och det unika i en användarefterfrågan jämvikt (UDE). Sedan föreslår vi algoritmer för att hitta UDE och för användare att nå UDE på ett distribuerat sätt. Vi undersöker vidare hur olika systemparametrar påverkar UDE. Därefter, för steg I, utvecklar vi en optimal prissättningsalgoritm för att maximera den trådlösa leverantörens intäkter. Vi numeriskt utvärderar prestandan hos våra föreslagna algoritmer med hjälp av verkliga data, och därmed dra användbara tekniska insikter för driften av trådlösa leverantörer: 1) när sociala nätverk effekt dominerar överbelastning effekt, marginalvinsten av den totala användningen ökar med de sociala banden och antalet användare, eller minskar med överbelastningskoefficienten; däremot, när överbelastning effekt dominerar sociala nätverk effekt, marginalvinsten minskar (eller ökar, respektive) med dessa parametrar och 2) när sociala nätverk effekt är stark, ett lägre pris bör sättas för att öka de totala intäkterna; i
|
I REF, författarna behandlar mobila användares dataanvändning beteende, genom studien av nätverkseffekter som de uppstår genom gemensamt övervägande av element både från social domän (t.ex., relationer) och den fysiska domänen (t.ex., överbelastning).
| 2,557,038 |
When Social Network Effect Meets Congestion Effect in Wireless Networks: Data Usage Equilibrium and Optimal Pricing
|
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
| 14,379 |
Vi presenterar en metod som lär sig representationer för ordbetydelser från korta videoklipp parade med meningar. Till skillnad från tidigare arbete med att lära sig språk från symbolisk input, består vår input av video av människor som interagerar med flera komplexa objekt i utomhusmiljöer. Till skillnad från tidigare dator-vision metoder som lär sig från videor med verb etiketter eller bilder med substantiv etiketter, våra etiketter är meningar som innehåller substantiv, verb, prepositioner, adjektiv och adverbs. Korrespondensen mellan ord och begrepp i videon lärs in på ett oövervakat sätt, även när videon skildrar samtidiga händelser som beskrivs med flera meningar eller när olika aspekter av en enda händelse beskrivs med flera meningar. Det lärda ordet betydelser kan därefter användas för att automatiskt generera beskrivning av ny video.
|
Nyligen presenterade REF ett system som inducerar ordobjekt kartläggningar från funktioner som extraherats från korta videor parade med meningar.
| 5,061,155 |
Grounded Language Learning from Video Described with Sentences
|
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,380 |
Abstract-Smart rutnät har nyligen vuxit fram som nästa generations elnät på grund av dess framstående funktioner, såsom distribuerad energistyrning, robust att lasta fluktuationer, och nära användar-grid interaktioner. Som en viktig del av smarta nät kan efterfrågeflexibilitet upprätthålla balansen mellan utbud och efterfrågan och minska användarnas elräkningar. Dessutom är det också viktigt att bevara användarnas integritet och it-säkerhet i smarta nät. I detta dokument föreslår vi ett effektivt system för efterfrågeflexibilitet (EPPDR) som använder en homomorfisk kryptering för att uppnå integritetsbevarande efterfrågeaggregation och effektiv respons. Dessutom undersöks en adaptiv viktig utvecklingsteknik ytterligare för att säkerställa användarnas sessionsnycklar för att vara säkra framåt. Säkerhetsanalys visar att EPPDR kan uppnå integritetsbevarande av efterfrågan på el, framtidssekretess för användarnas sessionsnycklar och utveckling av användarnas privata nycklar. I jämförelse med ett befintligt system som också uppnår framtidssekretess har PPEDR bättre effektivitet när det gäller beräknings- och kommunikations omkostnader och kan på ett anpassningsbart sätt kontrollera den viktigaste utvecklingen för att balansera avvägningen mellan kommunikationseffektivitet och säkerhetsnivå.
|
H. Li et al. Ordförande I REF föreslogs ett system för efterfrågeflexibilitet för att uppnå aggregering av krav på integritet och effektiv respons.
| 14,688,666 |
EPPDR: An Efficient Privacy-Preserving Demand Response Scheme with Adaptive Key Evolution in Smart Grid
|
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
| 14,381 |
Martínez-Cánovas, G.; Del Val Noguera, E.; Botti Navarro, VJ.; Hernández, P.; Rebollo Pedruelo, M. (2016) Nya system kan utformas, utvecklas och hanteras som samhällen av agenter som interagerar med varandra genom att erbjuda och tillhandahålla tjänster. Dessa system kan ses som komplexa nätverk där noder begränsas rationella agenter. För att kunna hantera komplexa mål måste agenter samarbeta med andra agenter för att kunna lokalisera de tjänster som krävs. Syftet med detta dokument är att formellt och empiriskt analysera under vilka omständigheter samarbete uppstår i decentraliserat sökande efter tjänster. Vi föreslår en upprepad spelmodell som formaliserar interaktionen mellan agenter i en sökprocess där varje agent har frihet att välja om de vill samarbeta med andra agenter eller inte. Agenter fattar beslut baserat på kostnaden för sina handlingar och den förväntade belöningen om de deltar genom att vidarebefordra frågor i en sökning process som slutar framgångsrikt. Vi föreslår en strategi som bygger på slumpmässiga promenader, och vi studerar under vilka förhållanden strategin är en Nash Equilibrium. Vi utförde flera experiment för att utvärdera modellen och strategin och för att analysera vilka nätverksstrukturer som är mest lämpliga för att främja samarbete.
|
Martinez m.fl. REF föreslog en upprepad spelmodell för att söka tjänsterna i komplexa nätverk, och de använde den slumpmässiga promenadstrategin för att vidarebefordra meddelanden till grannar.
| 3,872,820 |
A formal model based on Game Theory for the analysis of cooperation in distributed service discovery
|
{'venue': 'Inf. Sci.', 'journal': 'Inf. Sci.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,382 |
Vi studerar icke konvexa finita-sum problem och analysera stokastiska varians reducerade gradient (Svrg) metoder för dem. Svrg och relaterade metoder har nyligen ökat i betydelse för konvex optimering med tanke på deras kant över stokastisk lutning nedstigning (Sgd); men deras teoretiska analys nästan uteslutande förutsätter konvexitet. I kontrast, Vi bevisar icke-asymptotic klassar av konvergens (till stationära punkter) av Svrg för nonconvex optimering, och visar att det är bevisbart snabbare än Sgd och lutning nedstigning. Vi analyserar också en underklass av icke konvexa problem där Svrg uppnår linjär konvergens till det globala optimala. Vi utökar vår analys till mini-batch varianter av Svrg, visar (teoretiska) linjär upphastighet på grund av mini-batching i parallella inställningar.
|
För allmänna nonconvex ändlig-sum optimering problem, REF ; Allen-Zhu och Hazan (2016) föreslagna stokastisk varians reducerad lutning nedstigning algoritmer, som garanteras att konvergera till stationär punkt med en sublinjär hastighet.
| 5,230,337 |
Stochastic Variance Reduction for Nonconvex Optimization
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,383 |
Medan evolutionära beräkningar och evolutionsrobotar hämtar inspiration från naturen, har de länge främst fokuserat på problem med prestandaoptimering. Men evolutionen i naturen kan tolkas som mer nyanserad än en enkel optimeringsprocess. I synnerhet, naturlig utveckling är en divergerande sökning som optimerar lokalt inom varje nisch som det samtidigt diversifierar. Denna tendens att upptäcka både kvalitet och mångfald på samma gång skiljer sig från många av de konventionella algoritmerna för maskininlärning, och föreslår därmed också en annan grund för att dra slutsatsen om den största potentialen för evolutionära algoritmer. I själva verket, flera senaste evolutionära algoritmer kallas kvalitet mångfald (QD) algoritmer (t.ex., nyhet söka med lokal konkurrens och MAP-Elites) har hämtat inspiration från denna mer nyanserade vy, syftar till att fylla ett utrymme av möjligheter med bästa möjliga exempel på varje typ av uppnåeligt beteende. Resultatet är en ny klass av algoritmer som returnerar ett arkiv av olika, högkvalitativa beteenden i en enda körning. Syftet med detta dokument är att studera tillämpningen av QD-algoritmer i utmanande miljöer (särskilt komplexa labyrinter) för att etablera sina bästa metoder för ambitiösa områden i framtiden. Förutom att ge insikt i fall när QD lyckas och misslyckas, undersöks ett nytt tillvägagångssätt som hybridiserar flera vyer av beteenden (kallas beteendekarakteriseringar) i samma kör, som lyckas övervinna några av de utmaningar som är förknippade med att söka efter QD med avseende på ett beteendekarakterisering som inte nödvändigtvis är tillräckligt för att generera både kvalitet och mångfald på samma gång.
|
Vi tar inspiration från en ny klass av evolutionära algoritmer som kallas belysningsalgoritmer eller kvalitetsdiversitetsalgoritmer REF.
| 21,713,708 |
Quality Diversity: A New Frontier for Evolutionary Computation
|
{'venue': 'Front. Robot. AI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,384 |
I det här dokumentet presenterar vi designen av en Constomed Application Protocol (CoAP) proxy som kan koppla samman webbapplikationer baserade på Hypertext Transfer Protocol (HTTP) och WebSocket med CoAP-baserade trådlösa Sensor Networks. Sensornätverk används ofta för att övervaka och kontrollera fysiska objekt eller miljöer. Smarta städer är tillämpningar av detta slag. Trådlösa Sensornätverk samlar in data från sin omgivning och skickar dem till ett fjärrprogram. Detta dataflöde kan vara kort eller långlivat. Den traditionella HTTP långtidspolling som används av webbapplikationer kanske inte är tillräcklig i långsiktig kommunikation. För att övervinna detta problem, vi inkluderar WebSocket-protokollet i utformningen av CoAP proxy. Vi utvärderar prestandan hos CoAP-proxyn i termer av latens och minnesförbrukning. Testerna tar hänsyn till lång och kortlivad kommunikation. I båda fallen utvärderar vi den prestanda som uppnåtts av CoAP-proxyn enligt användningen av WebSocket och HTTP long-polling.
|
En gateway baserad på ett begränsat tillämpningsprotokoll (CoAP)-HTTP proxy föreslås, där data över lager lagras i proxy REF.
| 2,944,800 |
A Proxy Design to Leverage the Interconnection of CoAP Wireless Sensor Networks with Web Applications
|
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
| 14,385 |
Abstrakt. Cloud computing är ett paradigm som har potential att omvandla och revolutionera nästa generations IT-industri genom att göra programvara tillgänglig för slutanvändare som en tjänst. Ett moln, även allmänt känt som ett molnnätverk, består vanligtvis av hårdvara (nätverk av servrar) och en samling av programvaror som görs tillgängliga för slutanvändare på ett pay-as-you-go sätt. Flera offentliga molnleverantörer (t.ex. Amazon) som är samexisterande på en cloud computing-marknad tillhandahåller liknande tjänster (programvara som en tjänst) till sina kunder, både när det gäller karaktären av en applikation och kvaliteten på tillhandahållandet av tjänster (QoS). Beslutet om huruvida ett moln värdar (eller finner det lönsamt att vara värd) en tjänst på lång sikt skulle bero gemensamt på det pris det sätter, QoS garantier det ger sina kunder, och tillfredsställelsen av de annonserade garantier. I den första delen av tidningen utformar och analyserar vi tre inter-organisatoriska ekonomiska modeller som är relevanta för molnnätverk. Vi formulerar våra problem som icke-kooperativt pris och QoS-spel mellan flera molnleverantörer som finns på en molnmarknad. Vi bevisar att en unik ren strategi Nash jämvikt (NE) finns i två av de tre modellerna. Vår analys banar väg för varje molnleverantör att veta vilka priser och QoS-nivå som ska ställas in för slutanvändare av en viss typ av tjänst, så att leverantören kan existera på molnmarknaden. En molnleverantör tjänster slutanvändare begäran på uppdrag av molnkunder, och på grund av osäkerheten i användarens krav över tid, tenderar att övertillhandahållande resurser som CPU, ström, minne, lagring, etc., för att uppfylla QoS garantier. Som ett resultat av överallokering över långa tid skalor, är serverutnyttjandet mycket låg och molnleverantörerna måste bära onödiga slösaktiga kostnader. I detta avseende driver de pris- och QoS-nivåer som fastställts av CP efterfrågan på slutanvändare, som spelar en viktig roll i CPs uppskattning av den minimala kapaciteten för att uppfylla sina annonserade garantier. Med termen "kapacitet" menar vi ett molns förmåga att behandla användarförfrågningar, dvs. antal användarförfrågningar som behandlas per tidsenhet, vilket i sin tur avgör hur mycket resurser som ska avsättas för att uppnå en kapacitet som krävs. I den andra delen av detta dokument tar vi upp problemet med kapacitetsplanering/optimal resursförsörjning i molnnätverk med en enda nivå och flera nivåer med hjälp av en teknisk-ekonomisk strategi. Vi utvecklar, analyserar och jämför modeller som molnleverantörer kan anta för att tillhandahålla resurser på ett sådant sätt att det finns minsta belopp 2 av resurser som slösas bort, och samtidigt användaren service-nivå / QoS garantier är uppfyllda.
|
Icke-kooperativt pris och QoS-spel bland flera molnleverantörer har föreslagits av Pal och Hui REF.
| 14,495,974 |
Economic Models for Cloud Service Markets Pricing and Capacity Planning
|
{'venue': 'Theor. Comput. Sci.', 'journal': 'Theor. Comput. Sci.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,386 |
Vi presenterar en enkel metod för att lära del-av-tal taggers för språk som Akawaio, Aukan, eller Cakchiquel -språk som ingenting annat än en översättning av delar av Bibeln finns. Genom att samla över taggar från några annoterade språk och sprida dem via wordalignment på verserna, lär vi oss POS taggers för 100 språk, med hjälp av språken för att bootstrap varandra. Vi utvärderar våra tvärspråkiga modeller på de 25 språk där testuppsättningar finns, samt på ytterligare 10 för vilka vi har tagglexikon. Vårt tillvägagångssätt presterar mycket bättre (20-30%) än toppmoderna oövervakade POS taggers framkallade från bibelöversättningar, och är ofta konkurrenskraftig med svagt övervakade metoder som antar hög kvalitet parallell corpora, representativ enspråkig korpora med perfekt tokenization, och / eller tagg ordböcker. Vi gör modeller för alla 100 språk tillgängliga.
|
Agić m.fl. REF använde Bibeln för att lära sig del-av-tal (POS) taggers för lågresurser språk som Akawaio, Aukan, eller Cakchiquel för vilka Bibeln endast delvis översatts.
| 18,824,729 |
If all you have is a bit of the Bible: Learning POS taggers for truly low-resource languages
|
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,387 |
ABSTRACT Trådlösa sensornätverk (WSN) används för närvarande för övervakning och kontroll i smarta nät. För att säkerställa kvaliteten på tjänsternas (QoS) krav för smarta nättillämpningar måste WSN ge specifika tillförlitlighetsgarantier. Kvalitetsuppskattning av realtidslänken (LQE) är avgörande för att förbättra tillförlitligheten hos WSN-protokollen. Många toppmoderna LQE-metoder ger dock numeriska uppskattningar som varken är lämpliga för att beskriva de dynamiska slumpmässiga egenskaperna hos radiolänkar eller för att avgöra om tillförlitligheten uppfyller kraven i standarder för smart nätkommunikation. I detta dokument föreslås en Wavelettneural-network-baserad LQE-algoritm (WNN-LQE) som sluter gapet mellan QoS-kraven för smarta nät och egenskaperna hos radiolänkar genom att uppskatta de sannolikhetsgaranterade gränserna för förhållandet mellan paketmottagning (PRR). I vår algoritm används signal-till-brus-förhållandet (SNR) som länkkvalitetsmått. SNR är ungefär uppdelad i två komponenter: en tidsvarierande ickelinjär del och en icke-stationär slumpmässig del. Varje komponent behandlas separat innan den matas in i WNN-modellen. De sannolikhetsgaranterade gränserna för SNR erhålls från WNN-LQE-algoritmen och omvandlas sedan till uppskattade gränser för PRR via kartfunktionen mellan SNR och PRR. Jämförande experimentella resultat presenteras för att visa giltigheten och effektiviteten hos den föreslagna LQE-algoritmen. INDEX TERMS Smarta nät, trådlösa sensornätverk, servicekvalitet, kvalitetsbedömning av länkar, våget neuralt nätverk, radiolänkens tillförlitlighet.
|
Sol och al. REF föreslog en länk kvalitet estimering algoritm baserad på en våget neurala nätverk.
| 21,501,677 |
WNN-LQE: Wavelet-Neural-Network-Based Link Quality Estimation for Smart Grid WSNs
|
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
| 14,388 |
Förekomsten av koncisa icke-interaktiva argument för NP (dvs. icke-interaktiva beräkningsbaserade bevis där kontrollörens arbete i huvudsak är oberoende av den icke-deterministiska kontrollantens komplexitet) har varit en spännande fråga under de senaste två decennierna. Andra än CS-bevis i den slumpmässiga orakelmodellen [Micali, FOCS '94], är den enda befintliga kandidatkonstruktionen baserad på ett ingående antagande som är skräddarsytt för ett specifikt protokoll [Di Crescenzo och Lipmaa, CiE '08]. Vi formulerar en allmän och relativt naturlig uppfattning om en extraherbar kollisionssäker hashfunktion (ECRH) och visar att om ECRH finns, då en modifierad version av Di Crescenzo och Lipmaas protokoll är en kortfattad icke-interaktiv argumentering för NP. Dessutom är det ändrade protokollet i själva verket ett kortfattat icke-interaktivt adaptivt kunskapsargument (Snark). Vi föreslår sedan flera kandidatkonstruktioner för ECRH och avkopplingar därav. Vi visar tillämpligheten av Snarks på olika former av delegering av beräkningar, att koncis icke-interaktiv noll kunskap argument, och att koncis två-part säker beräkning. Slutligen visar vi att Snarks i huvudsak innebär förekomsten av ECRH, vilket visar att antagandet är nödvändigt.
|
En lösning för att förverkliga helt homomorfa signaturer skulle vara att använda koncisa icke-interaktiva argument för kunskap (Snarks) REF.
| 2,576,177 |
From extractable collision resistance to succinct non-interactive arguments of knowledge, and back again
|
{'venue': "ITCS '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,389 |
På senare tid har metoder för djupinlärning visat sig förbättra prestandan hos recommender-system jämfört med traditionella metoder, särskilt när granskningstext finns tillgänglig. Till exempel, en ny modell, DeepCoNN, använder neurala nät för att lära sig en latent representation för texten i alla recensioner skrivna av en målanvändare, och en andra latent representation för texten i alla recensioner för en målobjekt, och sedan kombinerar dessa latenta representationer för att få state-of-the-art prestanda på rekommendation uppgifter. Vi visar att (oförvånande) mycket av det prediktiva värdet av granskningstext kommer från recensioner av målanvändaren för målobjektet. Vi introducerar sedan ett sätt på vilket denna information kan användas i rekommendationer, även när målanvändarens granskning för målobjektet inte är tillgänglig. Vår modell, som kallas TransNets, utökar DeepCoNN-modellen genom att introducera ytterligare ett latent lager som representerar målets objektpar. Vi regulariserar sedan detta lager, vid träningstid, för att likna en annan latent representation av målanvändarens översyn av målobjektet. Vi visar att TransNets och utbyggnadar av det förbättras avsevärt jämfört med tidigare toppmoderna.
|
TransNets REF förlänger Deep-CoNN genom att införa ytterligare ett latent lager som representerar användarobjektparet.
| 9,932,413 |
TransNets: Learning to Transform for Recommendation
|
{'venue': "RecSys '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,390 |
Tillgängliga metoder för undersökning av traumatisk hjärnskada (TBI) hindras ofta, i viss mån, av de befintliga metodernas otillfredsställande förmåga att effektivt definiera och representera den strukturella konnektiviteten och de funktionella mekanismer som ligger till grund för TBI-relaterad patologi. I den här artikeln beskriver vi ett patientanpassat ramverk som möjliggör kartläggning och karakterisering av TBI-relaterade strukturella skador på hjärnan via multimodal neuroimaging och personlig connectomics. Särskilt inför vi en grafiskt driven strategi för bedömning av trauma-relaterad atrofi av vit materia kopplingar mellan kortikala strukturer, med relevans för kvantifieringen av TBI kronisk fallutveckling. Detta tillvägagångssätt gör det möjligt att informera formuleringen av grafiska neurofysiologiska och neuropsykologiska TBI-profiler baserat på de särskilda strukturella underskotten hos den drabbade patienten. Dessutom gör det möjligt att relatera resultaten från vårt arbetsflöde till den befintliga forskningen som fokuserar på de funktionella rollerna i de kortikala strukturer som är riktade. Ett grafiskt medel för att representera patientens TBI-status är relevant för det framväxande området personlig medicin och för undersökningen av neural atrofi. Nyckelord: connectomics, traumatisk hjärnskada, atrofi, rehabilitering, DTI Mycket lovande forskning som motiveras av den enorma bördan av traumatisk hjärnskada (TBI) på vård över hela världen har gjort framsteg under de senaste åren, men formuleringen av nya och användbara metoder för karakterisering av TBI sequelae fortfarande mycket önskvärd och allmänt behövs (Chen och D'Esposito, 2010). Även om TBI-relaterade diffusa axonala skador (DAI) och kortikala skador kan bidra avsevärt till både neurobeteendemässiga resultat och funktionsnedsättning, kan effekterna av dessa fenomen vara svåra att bedöma väl och att associera med påverkad funktion på ett tillfredsställande sätt (Sanz-Arigita et al., 2010). Delvis av detta skäl, den nuvarande tekniken inom TBI connectomics (kartläggning av neurala anslutningar i nervsystemet) skulle dra nytta av ytterligare förbättring av förmågan att representera, beskriva och isolera potentiell försämring. Detta kan hjälpa kliniken att (1) minska frekvensen av atrofi, (2) stimulera hjärnans återhämtning och reparation där så är möjligt, och (3) leda till neuropsykologisk resultatförbättring. Tillkomsten av metoder som kan ge ursprungliga koncisa men informativa insikter i effekten av skada på vit materia (WM) atrofi och på påverkad hjärnfunktion skulle vara välkomna av flera skäl. För det första krävs det större framsteg för att förstå hur hjärnskador påverkar patienternas neuroanatomiska, beteendemässiga och kognitiva profiler (Chesnut, 1998). För det andra kan förhållandet mellan hjärndysfunktion och neuropsykologisk försämring vara utmanande att etablera på grund av otillräcklig förståelse av WM-konnektivitetsfunktion (Bates et al., 2003). Följaktligen skulle ett brett spektrum av insatser som syftar till att förbättra patientens dysfunktion i hög grad gynnas av införandet av nya metoder för att kartlägga WM-atrofi i TBI. Den senaste tidens intresse för in vivo-kartläggning av human connectomics är tydligt vid lanseringen av Human Connectome Project 1 (HCP) av National Institutes of Mental Health and Aging 2010. Sedan dess har betydande ansträngningar ägnats åt utvecklingen av tekniker som grafiskt representerar konnektivitet av neurala strukturer (Bullmore och Sporns, 2009). Det finns dock få metoder som gör det möjligt för kliniker att utforska patientanpassade atrofiprofiler på connectome-nivå. I detta sammanhang är syftet med detta dokument att införa en patientanpassad strategi för den grafiska representationen av WM-förändringar över tiden. Den potentiella användningen av metoden illustreras med hjälp av data från tre TBI-fall, som ger möjlighet att producera detaljerad icke-invasiv karakterisering av TBI-relaterad GM/WM abnormitet och atrofi in vivo. Detta möjliggör visualisering av hjärnanslutningar som påverkas av patologi som avvikits av MRT och att relatera patientens skadeprofiler till den befintliga kroppen av vetenskaplig och klinisk kunskap om påverkad kortikal struktur funktion. Tillvägagångssättet inkluderar förmågan att kvantifiera neural atrofi av WM traktater för personlig connectomics. Följaktligen erbjuder det förmågan att integrera sådan kunskap med annan klinisk fallinformation för att informera kliniker om specifika neuroplasticitet och neurodegeneration mönster som förekommer i TBI-hjärnan. Med detta tillvägagångssätt hoppas vi kunna bidra till den kliniska vården av TBI-patienter, maximera nyttan av modern neuroimeringsteknik, och ha möjliga konsekvenser för förbättringen av resultatet i denna viktiga kliniska population. METODER Anonymiserade neuroimeringsdata förvärvades vid UCLA:s centrum för hjärnskada från tre vuxna TBI-patienter med hjälp av ett protokoll utformat och genomfört enligt Helsingforsdeklarationen. Studien godkändes av UCLA:s institutionella granskningsnämnd och av patienterna genom ett undertecknat informerat samtycke. Tre exempel på traumafall diskuteras i denna studie. Den första av dessa är en 25-årig man med TBI orsakad av trubbig skada, med en Glasgow koma score (GCS) på 14 (mild) vid sjukhusvistelse, och en Glasgow resultat score (GOS) på 3 (lägre svårt funktionshinder) när du lämnar den neurointensiva vårdenheten. Figur 1A visar prov MR-bilder från denna patient som visas i radiologisk konvention, visar fokal temporo-parietal blödning i vänstra halvklotet (LH) vid den akuta tidpunkten (röda pilar), särskilt i den akuta gradient återkallade eko (GRE) T 2-bilden. En minskning av volymen av vänster kammare är uppenbar, medan vätska försvagad inversion återhämtning (FLAIR) hyperintensiteter tyder på förekomsten av ödem som omger denna blödning. Extra-cerebrala inflammation och blödning är också uppenbara. Icke-hemorragisk ödem anges i FLAIR bilden av den gröna pilen. GRE T 2 bilden visar frontal LH blödning (blå pilar). Vid kronisk uppföljning förbättras bilateral ventrikulär och cerebral symmetri. Figur 2A illustrerar ödem (grön) och blödning (röd) som läggs på en genomskinlig hjärnmodell. Röda, gröna och blå pilar identifierar platserna för tre olika förolämpningar. Figur 2A illustrerar också den bilaterala närvaron av antero-medial ödem i frontalloberna samt blödning i vänster temporal lob. Edema i rätt temporal och parietal lobes kan förknippas med contre-coup skador. Patient 2 är en 45-årig man med TBI orsakad av en sluten huvudskada, med en GCS på 14 (mild) vid sjukhusvistelse, och en GOS på 3 (lägre svår funktionsnedsättning) vid förflyttning från NICU. Medan GCS och GOS för denna patient är samma som för patient 1, både MR avbildning ( Figur 1B ) och tredimensionell (3D) modeller av patologi ( Figur 2B ) avslöjar mer omfattande GM / WM lesioner jämfört med patient 1. Specifikt, denna patient uppvisar stora fronto-temporala blödningar och ödem, som båda också sträcka fronto-medialt och fronto-dorsally ( Figurerna 1B och 2B). För att styra ögat i lokalisera tre distinkta lesioner i 3D-modellen, färgkodade pilar tillhandahålls i båda figurerna för att enkelt relatera patologin i Figur 1 till 3D rekonstruktioner som tillhandahålls av vår automatiserade segmentering ram. Den tredje patienten som ingår i denna studie ( Figurerna 1C och 2C ) är en 62-årig man som är antagen till NICU med TBI orsakad av ett cykelfall. Hans GCS poäng vid sjukhusvistelse var 7, medan GOS vid förflyttning från NICU var 2. Patient 3 uppvisar stora frontotemporala ödem och blödningar särskilt i LH, även om trauma också förekommer kontralateralt i betydande utsträckning. Vissa mikroblödningar syns också i hjärnans bakre del. Jämförelse av MR-bilder och 3D Connectomics för rehabilitering i TBI FIGURE 2 med tredimensionella modeller av automatiskt segmenterad TBI-patologi som finns på transparenta modeller av hjärnan för varje patient. Ödem och blödning visas i grönt respektive rött. För att styra ögat i lokalisera tre distinkta lesioner i 3D-modellerna, färgkodade (röd, grön och blå) pilar ges för att identifiera platserna för de förolämpningar som anges i figur 1 med hjälp av motsvarande färger. Varje kolumn (A, B och C) motsvarar ett av de tre fallen (1, 2 respektive 3). Modeller från de tre patienterna visar, i progressiv ordning från patient 1 till patient 3, ett mönster av allt sämre kombinationer av patologisk omfattning och utfallspoäng, där patient 1 har den mildaste och patient 3 den allvarligaste av dessa. Tredimensionella skanningsvolymer förvärvades vid 3 T med hjälp av en Siemens Trio TIM-scanner (Siemens AG, Erlangen, Tyskland). MR-inköpsprotokollet omfattade www.gränsvärde.org Connectomics for rehabilitation in TBI fast spin echo (FSE) T 2 [repetition time (TR) = 3330 ms, echo time (TE) = 89 ms, flipvinkel (FA) = 120 x 512], ekotågslängd (ETL) = 18, skiva tjocklek = 5 mm, fasfält (FOV) = 100 %, provtagning = 75 %, förvärvstyp = 2D, matrismått = 512 × 512], GRE T 2 (TR = 1500 ms, TE = 7 ms, FA = 20 ̊, ETL = 2, skiva tjocklek = 3 mm, fas FOV = 75 %, provtagning = 80 %, förvärvstyp = 2D, matrismått = 384 × 512), FLAIR (TR = 8000 ms, TE = 70 ms, TI = 2375, FAT = 2375, ETL = 16, skiva tjocklek = 3 mm, fas FOV = 75 %, urval = 75 %, förvärvstyp = 384 × 512), FLAIR (TR = 8000 m. Sekventensparametrar dokumenteras också i en tidigare publikation (Irimia et al., 2011a). Scanning sessioner hölls både 1 dag (akut baslinje) och 7 månader (kronisk uppföljning) efter TBI, och samma scanner och sekvensparametrar användes för både akut och kronisk tid. Identifiering av patologi baserat på de typer av sekvenser tillgängliga utfördes med hjälp av standardprotokoll dokumenterade på annat håll (Irimia et al., 2011a). Kortfattat, icke-hemorragiska lesioner kodades som hyperintensiteter på FLAIR, och segmenteringskvaliteten bekräftades med GRE avbildning samt TSE T 2 -viktade volymer. Icke-hemorragiska skjuvningslesioner definierades som hyperintensiva lesioner synliga på T 2-viktade eller FLAIR-bilder (se figur 1). I enlighet med de tidigare riktlinjerna från Tong et al. (2003), hemorragiska lesioner definierades som hypointensiva foci som inte var kompatibla med kärl-, ben- eller artefaktstrukturer på konventionella GRE-bilder (se även Irimia et al., 2011a). WM, GM, och patologi klassificerades med 3D Slicer 2, FreeSurfer (FS, fritt tillgänglig från surfer.nmr.mgh.harvard.edu; Dale et al., 1999; Fischl et al., 1999a Fischl et al.,,b, 2004b, och atlas baserad klassificering (ABC; Pohl et al., 2007; Zoellei et al., 2007; Prastawa och Gerig, 2008), den senare har varit allmänt används för att upptäcka patologi (Prastawa et al., 2009 ). I FS segmenterades WM och den uppskattade GM-WM-gränsen tessellerades för att ge en topografiskt korrekt representation. I ABC, multimodal MR volym registrering (Maes et al., 1997) följdes av vävnad klassificering (Van Leemput et al., 1999), genom lesion segmentering med avvikande detektion (Prastawa et al., 2004), och fysisk modell uppskattning (Prastawa et al., 2003; Prastawa och Gerig, 2008). Samregistrering av MR-volymer, intensitetsnormalisering inom och mellan skanningar samt biasfältkorrigering tillämpades. Segmenteringsresultaten jämfördes gynnsamt med manuella segmenteringar av en mänsklig expert, som beskrivs i Wang et al. (2012)............................................................................................ I synnerhet, för att kvantifiera likheten mellan segmenteringarna, användes Dice koefficienten - som mäter volymetrisk överlappning av två binära segment och ligger i (0, 1) -. Segmenteringsfelkorrigering utfördes med 3D Slicer programvara enligt fastställda riktlinjer (Filippi et al., 1998, se figur 2 och resultat), och Dice koefficienter konstaterades överstiga 0,95 för alla segmenteringar, vilket tyder på utmärkt likhet mellan automatiska och användarstyrda segmenteringar. Prov 2 skiva.org MR datauppsättningar och segmenteringar som erhållits med hjälp av vårt protokoll är fritt tillgängliga från Irimia et al. (2011a)............................................................... Diffusion tensorer beräknades från DWI-avbildningar och rotationsorienterade på varje voxel. Tensorvärderade bilder justerades linjärt baserat på trilinjär interpolering av logtransformerade tensorer enligt beskrivningen i Chiang et al. (2011) och samplas om till isotropisk voxelupplösning (1,7 mm × 1,7 mm × 1,7 mm). För att rekonstruera fiberdrag bearbetades diffusionsgradientdata i inhemskt utrymme med hjälp av TrackVis 3. Denna programvara är fritt tillgänglig och dess prestanda jämfört med andra drakografi verktyg har undersökts på annat håll (se Wedeen et al., 2008 och referenser där). Databehandling arbetsflöden skapades med hjälp av LONI Pipeline 4. Kortikal och subkortikal volymetrik erhölls genom att tilldela neuroanoatomiska etiketter till voxels baserat på probabilistisk information beräknad från en manuellt märkt träningsset (Fischl et al., 2002). Metoden använder (1) den tidigare sannolikheten för en vävnadsklass som förekommer på en specifik atlasplats; (2) sannolikheten för bilden med tanke på denna vävnadsklass; och (3) sannolikheten för den lokala rumsliga konfigurationen av etiketter med tanke på denna vävnadsklass. Denna teknik är jämförbar i noggrannhet med manuell märkning (Fischl et al., 2004a) och användes för att beräkna WM, GM, amygdalar och hippocampal volymer. Kortexet var paketerat (Fischl et al., 2004a) för att beräkna kortikal volym, tjocklek, yta och krökning överallt på ytan, inklusive gyrala och sulkala strukturer (se figur 3 och resultat). Totalt 74 kortikala strukturer och 7 subkortikala strukturer avgränsades per halvklot utöver cerebellum. Hjärnstammen ingick också. Sju cortical lobes skisserades, med 21 frontallob (Fro) paketeringar, 8 insular (Ins), 8 limbic (Lim), 11 temporal (Tem), 11 parietal (Par) och 15 ockcipital (Occ). Fem representativa statistiska uppgifter beräknades för varje paketering: GM-volym, yta, genomsnittlig kortikal tjocklek, genomsnittlig krökning och efferent WM-fibertäthet per enhet GM-volym ("konnektivitetstäthet"). Connectivity representerades cirkulärt med hjälp av ett ramverk baserat på Circos programvara (Krzywinski et al., 2009). Parkelerade regioner visades som en cirkel av radiellt riktade element (ett "connectogram") som representerar vänster och höger halvklot placerade symmetriskt på motsvarande sida av den vertikala axeln (se figurerna 4-6 och Resultat). Parcelerade regioner tilldelades unika RGB-färger som visas i figur 3, och alla RGB-koder förtecknas i tabell A1 i tillägget. Arrangemang av paketeringar inom varje lob av connectogram (Figur 3 ) utfördes i ordningen av deras platser längs antero-posterior axel av den kortikala ytan i samband med den publicerade FS normal population atlas (Destrieux et al., 2010). Kortikala lober tilldelades unika färgscheman: svart till röd till gul (Fro), charlotte till turkos till skogsgrön (Ins), primros till lavendelros (Lim), etc. (Figur 3)............................................................................................... Subkortikala strukturer var färgade ljusgrå till svart. Ett otvetydigt förkortningssystem skapades för att märka varje paketering, vilket sammanfattas i tabellerna värmekartor skapades för att koda en av de fem strukturella åtgärder som är förknippade med motsvarande paketering. Fortsätter mot mitten av cirkeln, dessa åtgärder är total GM volym, total yta i samband med paketering, genomsnittlig kortikal tjocklek, genomsnittlig krökning, och anslutning per enhet volym. Detta senare mått beräknades som densiteten av fibrer med ändar inom detta paketering dividerat med paketeringens totala GM-volym. Värdet för varje strukturell åtgärd kodades som en färg med hjälp av en färgschemakartläggning som varierade från minimum till maximum av datamängden. Specifikt, den kortikala tjockleken t med värden i intervallet (t min, t max ) normaliserades som t 1 = (t − t min )/(t max − t min ). Värdet av t 1 förknippades med en unik färg; till exempel nyanser vid extremiteterna på färgkartan motsvarar t min och t max, beroende på vad som krävs. För hjärnstammen, cerebellum och subkortical strukturer, värden för area, tjocklek och krökning var inte tillgängliga från FS och deras lämpliga värmekarta poster ritades i vitt. Läsaren hänvisas till figur 4 och till avsnittet "Resultat" för ett provanslutningsogram med ovanstående egenskaper. Programvara för att generera anslutogram görs fritt tillgänglig via LONI Pipeline (se fotnot 4; se Irimia et al., 2012 för ytterligare information). FIGUR 3 till FreeSurfer paketering av en provhjärna. Visad är den yta som motsvarar WM-GM-gränssnittet (A), den piala ytan (B) och den uppblåsta ytan (C), där varje segmenterad anatomisk region visas i en annan färg enligt den färgmärkningsmetod som beskrivs i avsnittet "Metoder" (se även tillägget). Connectomics for rehabilitation in TBI FIGURE 4 och Connectogram (rekonstruerad connectomic profil) för patienten 1. Varje kortikal struktur tilldelas en unik RGB färg, som förklaras i avsnittet "Metoder", och de färger som tilldelas de paketerade regioner på den yttersta ringen av anslutningsogrammet är identiska med de motsvarande kortikala strukturer i figur 3. Bruna länkar mellan connectogram noder indikerar WM fibrer mellan en region som påverkas av patologi och en annan som inte påverkades, baserat på de automatiska segmenteringar av patologi visas i Figur 2. På liknande sätt visar grå länkar WM fibrer mellan två regioner som båda påverkades. Cirkulära färgkartor visas under anslutningsogrammet för länkar (de två första kartorna, vita till bruna och vita till svarta) och för mätvärdena kodade på de fem innersta ringarna på anslutningsogrammet. Räckvidden för var och en av dessa mätvärden är från det lägsta till det högsta antagna värdet. För att beräkna konnektivitet mellan regioner, var varje fiberkanal extremitet identifierades och varje fiber extremitet förknippades med lämplig paketering. Detta utfördes för alla fibrer som både hade sitt ursprung och slutade i två olika paketeringar. Lämpliga konnektivitetsmatris poster uppdaterades vid behov för att återspegla fiber antal ökningar (Hagmann et al.,, 2010. För att validera noggrannheten hos konnektivitetsmatrisalgoritmen reproducerades dess resultat genom att individuellt räkna in 3D Slicer alla fibrer som hade exakt en extremitet inom volymskalan av vissa givna paketering, och genom att upprepa detta förfarande över flera försökspersoner. Varje ingång i konnektivitetsmatrisen normaliserades av det totala antalet fibrer i hela hjärnan baserat på den MR-volym som förvärvades vid varje tidpunkt och de resulterande normaliserade fiberräkningarna användes för bakåtriktade beräkningar. När fibrer fanns mellan en kortikal region påverkas av patologi och en annan som var opåverkad, färgen på motsvarande länk var brun. På liknande sätt, länkar som kodas av mer ogenomskinliga nyanser av blått. Den lägsta färg opaciteten motsvarar det minsta absoluta värdet av den procentuella förändringen som är större än den valda tröskeln på 20%, och den högsta opaciteten motsvarar det maximala absoluta värdet av förändringen i fiberdensitet. mellan paketeringar som båda påverkades av patologi drogs i grått. Således kan man skilja mellan förbindelser som endast omfattar en berörd region (bruna länkar) eller två drabbade regioner (grå länkar). Ovan och överallt, regioner som påverkas av patologi anses representera regioner som innehåller patologisk vävnad av någon typ som avvikits av MRT. För connectogram som visar WM atrofi som inträffade mellan akuta och kroniska tidpunkter, länkar i samband med atrofi (minskning av fibertäthet) drogs i blått. Insynsnivån var direkt proportionell mot den procentuella förändringen av fibertätheten (se även avsnittet nedan). När det gäller connectogram som visar atrofimått (figur 7-9) anger färgerna på de fem inre ringarna på www.gränsesin.org www.gränsesin.org Frontiers in Neurology www.gränsesin.org varje connectogram procentuella skillnader i varje mått m (där m kan vara kortikal area, kortikal tjocklek, krökning, eller GM-volym), beräknade mellan akuta och kroniska tidpunkter (t 1 respektive t 2 ). Procentuell skillnad beräknades med hjälp av formeln [m(t 2 ) − m(t 1 )] × 100/m(t 1 ), dvs. som procentuella förändringar med avseende på den akuta utgångspunkten. För varje par av kortikala regioner beräknades förändringen Δ i fibertätheten D mellan t 1 och t 2 som en procentandel av fibertalet vid akut baslinje baserat på multimodala bilddata som erhållits vid de två tidpunkterna. (1) I det första steget av analysen, histogrammet (empirisk fördelning funktion) av fiberräkningar beräknades för alla anslutningar, och fibrerna som hör till topp 5% av histogrammet distribution valdes för ytterligare analys. Även om den valda tröskeln visserligen är något godtycklig, kan användaren justera dess värde till antingen mer konservativa eller mer liberala värden för undersökning av uppgifter eller av skäl som hänför sig till kriterier för statistisk signifikans. Här väljs ett värde på 5% för illustration. Det bör här noteras att det förfarande som beskrivs ovan inte omfattar det statistiska problemet med flera jämförelser, eftersom inga statistiska tester tillämpas. Istället väljs traktater ut för visning baserat på om de uppvisar atrofi över ett användarspecifikt tröskelvärde. (2) I det andra steget, den procentuella förändringen i antalet fibrer som valts i det föregående steget beräknades för varje anslutning, med hjälp av formeln I det tredje steget, de fibrer som hade beräknat förändringar i fibertäthet med absoluta värden större än 20% ( och > 20%, dvs de fyra femtedelar av fördelningen av procentuella förändringar) visades på en separat connectogram (se Resultat och figurer 7-9). Eftersom inga ökningar av fibertätheten påträffades mellan t 1 och t 2 i något ämne, kommer Δ hädanefter att antas vara negativ. Länktransparens i motsvarande anslutningsogram (figurerna 7–9 (2), skalade så att (A) den lägsta färgopaciteten motsvarar det minsta absoluta värdet av den procentuella förändringen som är större än tröskeln på 20 %, och (B) den högsta opaciteten motsvarar det högsta absoluta värdet av förändringen i fiberdensitet. Denna trestegsmetod för beräkning av betydande atrofi antogs för att undvika flera fallgropar i samband med processen att jämföra WM-fiberdensiteter som utvunnits ur DTI-volymer. För det första, steg (1) ovan säkerställer att endast fiber buntar med den största densiteten (top 5% av fiber densitet distribution) väljs för ytterligare bearbetning. Detta eliminerar det potentiella problemet med att beräkna WM atrofi för anslutningar med mycket låga fibertätheter vars närvaro i konnektivitetsmatrisen kan i själva verket vara artefakt. Särskilt, förekomsten av den senare typen av länkar kan bero på oundvikliga effekter av begränsad DTI rumslig upplösning på traktatografialgoritmer, vilket kan leda till beräkningsfel och till generering av artefaktiska traktater med mycket låga densiteter. För att säkerställa att atrofiberäkningsresultaten skulle vara tillförlitliga ansågs det därför lämpligt att endast ta hänsyn till de största extraherade fibrerna (högst 5 %) för ytterligare bearbetning. En annan försiktighetsåtgärd var att, i steg (3) ovan, endast fibrer med densiteter i toppen 5% av fördelningen som också hade absoluta värden av förändringen i fibertäthet större än 20% från t 1 till t 2 ritades i figur 7-9. Denna begränsning infördes eftersom små procentuella förändringar av fibertätheten i själva verket inte är meningsfulla, vilket är fallet på grund av metodologiska begränsningar liknande dem som beskrivs ovan för steg (1). Sammanfattningsvis gör vår kombination av konservativa restriktioner på urvalet av atrofierade fibrer att man tryggt kan identifiera fibrer som genomgår en stor mängd atrofi. Detta uppnås samtidigt som man tar hänsyn till begränsningarna av DTI som en neuroimaging teknik och av traktatografi som en beräkningsram. De funktionella rollerna för de kortikala regioner som är sammankopplade med WM fibrer som påverkas av antingen TBI eller av efterföljande atrofi identifierades från tillgänglig litteratur på Google Scholar 5 med hjälp av frågor vars sökparametrar hade genererats automatiskt i vår analysmiljö. Termer som ingår i varje sökning inkluderade namnet på den kortikala struktur som undersöks samt ämnesrelaterade nyckelord som "rehabilitering", "behandling", "återvinning" och "regenerering", vilket resulterar i webbadresser som http://scholar.google.com/scholar? q = omloppsbana + sulcus + rehabilitering, där sökorden ingår efter "="-tecknet och åtskilda av "+"-tecknen. På liknande sätt användes den kroniska atrofiprofilen för varje försöksperson för att identifiera WM-förbindelser som hade lidit av atrofi mellan de akuta och kroniska tidpunkter som var märkbara jämfört med den i resten av hjärnan. Connectogram av WM atrophy kan vara av intresse för kliniker och av annan medicinsk personal att få i sikte på effekten av TBI på en patients kliniska bild samt att undersöka atrophy trajectories. RESULTAT Utforskning av varje patients anslutningsprofil kräver hänvisning till figur 3, som visar FS-paketeringen av en provhjärna. Visar det finns ytan som motsvarar WM-GM gränssnitt (Figur 3A), den piala ytan (Figur 3B), och den uppblåsta ytan (Figur 3C), med varje paketerad anatomisk region visas i en annan färg enligt den färgmärkning metod som beskrivits tidigare. Figur 4-6 visar anslutogram (dvs. det konstruerade connectomic profiler) för patienter 1-3, respektive. Varje kortikal struktur tilldelas en unik RGB färg, som förklaras i avsnittet "Metoder", och de färger som tilldelats de paketerade regionerna på de yttersta ringarna av connectogram i länkar indikerar WM fibrer mellan två regioner som båda påverkades. Som visas i figur 4 för patient 1 tycks kortikala kopplingar som förbinder temporal- och parietalloberna bilateralt med resten av hjärnan ha påverkats signifikant av patologi, som förväntat. Strukturer som direkt påverkas på båda halvklotet inkluderar bland annat den främre cingulaten gyrus och sulcus och vinkelgyrus. Strukturer som direkt påverkas endast i LH inkluderar underlägsen occipital gyrus och sulcus och andra strukturer, medan strukturer som direkt påverkas endast i RH inkluderar underlägsna temporal gyrus. Även om lesionsbelastningen för patient 1 verkar vara mindre än för de två andra patienterna, är antalet kortikala vägar som förbinder drabbade regioner med andra delar av hjärnan ganska stort. En fördel med vår visualiseringsmetod är att den gör det möjligt att identifiera sådana kopplingar och att utforska dem systematiskt. Figur 5 visar kortikala samband i samband med patologi i patient 2. Som förväntat baserat på den information som ges i figurerna 1B och 2B bekräftas den högra frontotemporala profilen för lesioner hos denna patient av det stora antalet kortikala kopplingar som påverkas i dessa områden. För Patient 3, de många kortikala anslutningar som verkar ha påverkats omfattar alla lober på båda halvklot, vilket är förväntat med tanke på den allvarliga lesionen belastning av denna patient. Det är värt att notera att allvarlighetsgraden hos dessa tre patienter (vilket indikeras av lesionens omfattning och av GCS/GOS) tycks bekräftas av hur utbredd patologi-påverkade sambanden är i varje patients connectogram. Följaktligen kan den metod som föreslås här vara användbar för att undersöka förhållandet mellan de tidigare tre åtgärderna och kortikala nätverksegenskaper hos TBI-patienter, med möjlig relevans för ytterligare kvantifiering av deras patologiska tillstånd och för korrelation/prediktion av andra utfallsvariabler. Figur 7-9 visar atrofiprofilen för patienter 1-3. I alla tre försökspersonerna är det uppenbart att de WM-anslutningar som har upplevt störst atrofi med avseende på den akuta baslinjen i de flesta fall är anslutningar som påverkades av den primära skadan, vilket framgår av jämförelsen av dessa siffror med motsvarande anslutningsogram i figurerna 4-6. I Patient 1, till exempel, WM-förbindelsen mellan vänster centrala sulcus och vänster postcentral gyrus är en koppling med en stor fibertäthet vid akut baslinje (figur 4) som observeras för att uppleva allvarlig atrofi över tiden (Figur 7). Liknande uttalanden kan göras för samband mellan (1) den högra överlägsen frontalgyrus och den högra främre cingulerade gyrus och sulcus, (2) den högra mellersta temporal gyrus och rätt överlägsen timlig sulcus, (3) den högra överlägsen timlig sulcus och den högra vinkeln gyrus, liksom för ett stort antal andra anslutningar. Inspektion och jämförelse av figurerna 4-9 indikerar att observationer liknande dem ovan kan göras för ett stort antal anslutningar hos både patienter 2 och 3. Slutligen är det bra att notera en grupp av förbindelser som inte verkar ha drabbats av primära skador i någon av de tre fall ämnen, men som upplever dramatisk atrofi över tiden. Dessa förbindelser omfattar främst kortikala strukturer, å ena sidan, och subkortikala strukturer, å andra sidan. I synnerhet verkar inter-cerebellar anslutningar konsekvent vara föremål för anmärkningsvärd atrofi i alla tre ämnen. Detta fynd är förenligt med ett antal befintliga studier (Park et al., 2006; Spanos et al., 2007; Caeyenberghs et al., 2011) som har funnit stora cerebellar atrofi i kronisk TBI trots bristen på engagemang av cerebellum själv i den primära akuta skadan. Även om dessa studier visar att orsakerna till och dynamiken i sådana atrofimönster sannolikt inte är tillräckligt klarlagda, pekar vår analysrams förmåga att replikera dessa fynd i enskilda fall av TBI på den insikt som kan vinnas från dess användning. Det indikerar också möjligheten att vår metod kan användas för att avslöja användbar information om hur TBI påverkar den mänskliga hjärnan. Tabell 1 visar ett urval av de kortikala regioner som påverkats hos minst en av de tre patienterna, förutom 1) den funktionella beskrivningen av dessa regioner som identifierats genom olika studier från den nuvarande litteraturen och 2) en lista över kliniska studier med möjlig relevans för att förbättra graden av insikt och detalj i samband med varje TBI lesion profil. Till exempel har den främre cingulaten gyrus, som påverkades av TBI hos patienter 1 och 3, varit involverad i feldetektion (Bush et al., 2000), uppgiftsförväntning, uppmärksamhet, motivation och modulering av emotionella svar (Luu och Pederson, 2004). Följaktligen tyder lesionsprofilerna på att de kognitiv-motoriska uppgifter som beskrivs i metaanalyserna av Picard och Strick (1996) och Bush et al. (1999) kan vara informativ på grund av dessa uppgifters förmåga att selektivt rekrytera kortikal aktivitet i denna hjärnregion, och att öka den i proportion till uppgiftssvårigheter (Bush et al., 2000). De studier som är förknippade med denna kortikala struktur i tabell 1 beskriver uppgifter som omfattar två typer av uppgifter. Den första av dessa är kognitivt krävande övningar som innebär stimulus-response val i förhållande till konkurrerande strömmar av information, inklusive uppdelning-attention uppgifter, verbal-och motor-respons urval uppgifter. Den andra typen är affect-relaterade uppgifter som innefattar emotionell bearbetning och symptomprovokation uppgifter. En kortikal region som påverkas hos patienter 1 och 3 är den överlägsna temporal sulcus, där aktiveringar är förknippade med språkbehandling, audiovisuell integration, social uppmärksamhet och rörelse, eller taluppfattning (Redcay, 2008). En grundlig översyn (Redcay, 2008) ger användbar information om deltagandet av denna struktur i uppgifter inriktade på selektiva underskott att använda ögonen som en signal för att flytta uppmärksamheten, som också föreslagits av tidigare resultat hos traumapatienter (Akiyama m.fl., 2006). På liknande sätt har övningar med frågor som kräver resonemang om en annans tro (Samson m.fl., 2004) visat sig framkalla kortikala reaktioner som påverkas av funktionella skador i denna region. Jensens sulcus, även påverkad i patient 1, har förknippats med implicit bearbetning, kategorisering, och beslutsfattande (Grezes et al., 2003), samt med meningsförståelse och i behandlingen av syntaktiskt komplexa språkoperationer (Caplan et al., 1996). Bevis från lesionsstudier som granskats i Grezes et al. (2003) utmanar patienter med språkverksamhet av progressiv komplexitet. På samma sätt har supramarginal gyrus varit involverad i perception och tolkning av sensorisk och emotionell information, inklusive känslor som framkallas av ansiktsstimuli, liksom språk, kroppsbild perception, och matematiska operationer (Radua et al., 2010). Uppgifter Peeters et al. (2009) har visat på denna strukturs roll när det gäller att förstå orsakssambandet mellan verktyg och resultatet av deras användning; studien av dessa författare skisserar rutiner som skulle kunna undersökas för att få ytterligare inblick i dessa TBI-profiler. Två andra strukturer som påverkas av TBI hos dessa patienter, nämligen vinkelgyrus och underlägsen frontalgyrus, är involverade i processer relaterade till språk, matematik och kognition. Patienter med lesioner till denna struktur har ofta aritmetiska underskott och presterar dåligt i bouba / kiki uppgiften (Oberman och Ramachandran, 2008). Dessa strukturer är involverade i exakt beräkning på grund av verbal aritmetisk faktahämtning (Dehaene et al., 1999), och för att bestämma omfattningen av en persons matematiska förmågor (Grabner et al., 2007). Dessutom resultat av Roland och Friberg (1985) och av Dehaene et al. (1999) den vinkelgyrus som är förknippad med utförandet av kontinuerliga subtraktionsuppgifter och med exakt aritmetisk beräkning. Den orbital gyri har påverkats i alla tre fall patienter som diskuterats i denna studie. Dessa strukturer har upprepade gånger kopplats till belöningssystemet (Rogers et al., 1999) och origofrontal patologi har förknippats med tvångssyndrom (Zald och Kim, 1996), kemisk beroende (Goldstein et al., 2001), och depression (Bremner et al., 2002). Den datoriserade risktagningsuppgiften hos Rogers m.fl. (1999) har också belyst det bristfälliga beslutsfattandet hos neurologiska patienter som lider skada på orbital cortex. Den högra pars operacularis underlägsna frontal gyrus har länge varit känd för att vara involverad i talproduktion (Dapretto och Bookheimer, 1999; Blank et al., 2003), action observation, och imitation (Molnar-Szakacs et al., 2005). Studiet av Crosson et al. (2009)) illustrerar ett rehabiliteringsparadigm i vilket afasiska patienter som deltog i en bildbehandling visade relateralisering av ordproduktionsmekanismer till följd av tillämpad behandling. Detta tyder på att den kliniska formalismen hos Crosson et al. kan också vara lämplig för rehabilitering hos patienter med skador på detta område. Slutligen, den lägre occipital gyrus och sulcus, liksom den lägre temporal gyrus är kända att tillhöra ventral ström av visuell bearbetning (Ungerleider et al., 1998). Dessa regioner har förknippats med representationen av komplexa objekt, såsom global form. Explicit minnesträning hos kognitivt nedsatta patienter med hjälp av ett ansiktskodnings- och igenkänningsminnestest (Hampstead et al., 2011) resulterade i både ökade aktiveringar och ökad konnektivitet hos dessa patienter efter träning, vilket tyder på ett behandlingsalternativ för lesioner som påverkar dessa områden. Rehabilitering av TBI är ett oerhört viktigt folkhälsomål inte bara för att neurotraumarelaterade aktivitetsbegränsningar kan ha betydande inverkan på livsroller, utan också för att det påverkar interpersonell kommunikation, samt socialt deltagande i personliga aktiviteter i det dagliga livet. I detta sammanhang har våra resultat och metodik implikationer för den systematiska kartläggningen av människans neurala funktionsnedsättning som orsakas av detta tillstånd. För det första är detta arbete av potentiell klinisk relevans för studien av neurala atrofiförändringar. Förutom att identifiera och beskriva connectomic patientprofiler, kan den presenterade metoden användas för att generera förslag för att informera och vägleda kliniska interventioner utformade för att förbättra återhämtning. Snabbt visualisera den longitudinella utvecklingen av enskilda TBI fall med hjälp av våra diagrammatiska verktyg kan avslöja hur underskottsmönster påverkas av lesion plats, genom relativ sparring och redundans inom det distribuerade kortikala systemet under granskning, samt av neural plast förändringar som kan inträffa med återhämtning. På grund av den höga nivån av neuroanatomisk information som presenteras om den strukturella atrofi och omorganisation av hjärnan i dessa skildringar, kan de utnyttjas för att snabbt avgränsa funktionen av specifika WM fibrer eller kortikala (sub-) regioner. Därför, förutom dess relevans för det kliniska området, vår strategi har potentiella tillämpningar för formulering, validering, eller information av grundläggande vetenskapliga teorier om perceptuell inlärning och neural plasticitet. Det skulle också kunna komplettera och utvidga information som redan erhållits från tidigare djur- och människolesionsstudier. Den detaljerade beskrivning av strukturell funktionsnedsättning som vår teknik ger kan kombineras med metoden för uppgiftsval i vårt paradigm för att skapa effektivare patientinterventioner. Sådana strategier kan användas för att förklara svårigheter i arbetet och för att belysa befintliga eller framväxande kompenserande rehabiliteringsmetoder. Ett möjligt förbehåll relaterat till vår metod är att förekomsten av blödning eller vissa andra former av patologi kan ändra lokala vattenspridningsåtgärder i en omfattning som möjligen kan dölja förekomsten av WM-traktater i drabbade regioner, som extraheras med hjälp av DTI-traktografi. Det är dock inte förutsebart att denna nackdel kan påverka våra beräknade atrofifrekvenser; detta beror på att vävnadspermeation genom blod i den akuta TBI-fasen skulle vara associerad med minskad FA jämfört med den kroniska fasen. Följaktligen kan akut blödning leda till olämplig (över)skattning av WM återhämtning (på grund av ökningar i FA mellan de två tidpunkterna), men inte atrofi (som är relaterad till minskningar i FA). Därför, eftersom vår metod fokuserar på beräkning av atrofi hastigheter, är förekomsten av blödning förväntas inte påverka eller resultat avsevärt. För att uttrycka detta på ett annat sätt, resulterar förekomsten av blödning i minskad FA för vissa voxels vid baslinjen. Detta i sin tur resulterar i minskat fiberantal i hemorragiska regioner vid akut baslinje jämfört med kroniskt stadium (när blödning inte längre förekommer). Följaktligen är det rimligt att förvänta sig att den artefaktrelaterade procentuella förändringen i normaliserade fiberantal från akut baslinje till kronisk uppföljning är positiv. Men eftersom vår teknik handlar om atrofi (dvs. negativa procentuella förändringar i normaliserade fiber räkna), effekten av blödning är osannolikt att påverka våra resultat avsevärt. De flesta metoder för konnektivitet visualisering bygger på variationer av grafteori för att positionera nätverk noder, representera noder med hjälp av former, och att modulera egg egenskaper (vikt, färg, tjocklek, etc.) enligt mätvärden för konnektivitet. En populär metod för nod representation (Bassett et al., 2011; Gerhard et al., 2011; Yan et al., 2011) innebär positionering noder på 3D platser i hjärnregioner. När man betraktar denna metod i tre dimensioner, kan man koppla nätverksnoder till neuroanatomiska landmärken. En nackdel med denna representation är dock att den kan ha så många noder och kanter att förhållandet mellan dem inte kan urskiljas (Sanz-Arigita et al., 2010). Däremot, den metod som föreslås här beställer noder längs den antero-ytterligare axeln, vilket gör alla noder lika synliga för betraktaren. Även 2D-visualisering av hjärnnätverk är också möjligt om den kortikala ytan är utspridd som en 2D-ark (Palva et al., 2010; Gerhard et al., 2011), är det fortfarande något svårt att associera platser på 2D kortikalkartor till 3D-hjärntopologi. En svårighet med att visualisera connectomes är att avbilda noder med hjälp av symboler som är representativa för deras egenskaper. I Dosenbach m.fl. (2007), Spoormaker m.fl. (2010 ), Ginestet och Simmons (2011, och på andra håll, färgade cirklar eller sfärer används i detta syfte. Även om detta erbjuder möjlighet att skilja grupper av kanter efter deras egenskaper, noder, och kanter kan ibland överlappa. Detta kan delvis åtgärdas genom att ändra nodtransparens (Ginestet och Simmons, 2011), även om detta kanske inte alltid är till hjälp för mycket täta nätverk. I vårt tillvägagångssätt är däremot alla noder synliga och nodegenskaper representeras med koncentriska färgkodade ringar. En annan svårighet är hur man bäst kodar nätverkskantens egenskaper beroende på graden av anslutning mellan www.existresin.org Connectomics för rehabilitering i TBI noder. Kanter kan moduleras efter färg (Cao och Slobounov, 2010; van den Heuvel och Pol, 2010) eller tjocklek (He and Evans, 2010;, och den övre-ner uppdelningen av nervsystemet kan representeras av koncentriska cirklar, t.ex., hjärna till cortex till lober till gyral/sulkala strukturer, som i (Holten, 2006; Modha och Singh, 2010). I det senare fallet strålar kanterna från mitten av en cirkel (den översta strukturen) till omkretsen (den lägsta nivån strukturer) och den cirkulära formen av konnektivitetskurvan är tilltalande och användbar för 2D representation av relationer. En utmaning som kan hanteras genom att representera connectomes som cirkulära diagram är komplexitet och dimensionalitetsminskning. I det hierarkiska tillvägagångssättet (Holten, 2006; Modha och Singh, 2010), Detta görs via top-down organisation av anslutningar; i vår, Det kan uppnås genom att visa anslutningar olika från en hemisfär, en lob, eller från en enda hjärnstruktur, vilket gör att man kan ändra komplexiteten i connectogrammet. Det är viktigt att betona att vårt arbetsflöde gör det möjligt för användaren att använda konnektivitetsmatriser som genereras med hjälp av andra segmenterings- och konnektivitetsmatrisberäkningsmetoder än våra egna. Denna funktion kan vara att föredra framför utredare som vill använda någon annan standard för att extrahera konnektivitetsinformation från hjärnavbildningsdata. Naturligtvis, i vilken utsträckning den anslutningogram funktionalitet som föreslås kan vara användbar för utredare beror på hur korrekt informationen i anslutning matrisen är. Även om vår egen metod för att generera konnektivitetsmatriser har validerats kan man därför förvänta sig att resultaten av vårt grafiska arbetsflöde bara är lika exakta som själva konnektivitetsmatrisen. Om inte vår egen metod för att generera konnektivitetsmatriser används, är detta en faktor som ligger utanför vår kontroll, vilket ändå lämnar ohämmad den potentiella användningen och nyheten i vårt bidrag. Potentialen för återhämtning beror på patientens förmåga till regenerering av strukturer och på hans/hennes förmåga till neural plasticitet. Följaktligen är förmågan att förse TBI-forskare och rehabiliteringspersonal med information om patienternas longitudinella atrofi/regenereringsprofil enligt beskrivningen med vår grafiska metod en viktig fördel för vårt ramverk. För det första kan vår teknik för att snabbt visualisera strukturell WM-konnektivitetsbedömning göra det möjligt för kliniker att jämföra förändringar i kortikala regioner och i konnektivitet med mätvärden för patientfallsutveckling. För det andra kan detta tillvägagångssätt tillämpas på enskilda patienter samt användas för att visualisera hjärnan morfometriska och connectomics på en populationsnivå, också. För det tredje kan användningen av vår syn på grafisk representation av atrofiprofiler vara användbar i samband med personliga rehabiliteringsbehandlingar genom att informera kvalificerad personal om återhämtningsmöjligheter och genom att ge vägledning i processen för att utvärdera behovet av långtidsvård. ERKÄNNANDEN
|
Denna vy, även känd som en connectogram introducerades först av Irimia et al. Hoppa över det.
| 1,039,685 |
Patient-Tailored Connectomics Visualization for the Assessment of White Matter Atrophy in Traumatic Brain Injury
|
{'venue': 'Front. Neur.', 'journal': None, 'mag_field_of_study': ['Psychology', 'Medicine']}
| 14,391 |
Modellfria djupt förstärkande inlärningsalgoritmer har visat sig kunna lära sig ett brett spektrum av robotiska färdigheter, men kräver vanligtvis ett mycket stort antal prover för att uppnå god prestanda. Modellbaserade algoritmer, i princip, kan ge mycket effektivare lärande, men har visat sig svåra att utvidga till expressiva modeller med hög kapacitet såsom djupa neurala nätverk. I detta arbete, visar vi att neurala nätverksdynamik modeller kan i själva verket kombineras med modell prediktiv kontroll (MPC) för att uppnå utmärkt prov komplexitet i en modellbaserad förstärkning lärande algoritm, producerar stabila och rimliga gångarter som utför olika komplexa locomotion uppgifter. Vi föreslår vidare att man använder modeller för djup neural nätverksdynamik för att initiera en modellfri inlärare, för att kombinera proveffektiviteten hos modellbaserade metoder med den höga uppgiftsspecifika prestandan hos modellfria metoder. Vi demonstrerar empiriskt på MuJoCo locomotion uppgifter att vår rena modellbaserade metod tränas på bara slumpmässiga åtgärder data kan följa godtyckliga banor med utmärkt proveffektivitet, och att vår hybridalgoritm kan påskynda modellfri inlärning på höghastighetsriktmärke uppgifter, uppnå prov effektivitetsvinster på 3 − 5× på simmare, gepard, tratt och myragenter. Videor finns på https://sites.google.com/view/mbmf
|
I vårt tidigare arbete med modellbaserad förstärkningsutbildning REF studerade vi hur neurala nätverksmodeller kan möjliggöra proveffektiv inlärning av rörelsefärdigheter för simulerade referensuppgifter, genom en kombination av modellbaserat lärande och modellfri finjustering.
| 206,853,161 |
Neural Network Dynamics for Model-Based Deep Reinforcement Learning with Model-Free Fine-Tuning
|
{'venue': '2018 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2018 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Mathematics', 'Engineering', 'Computer Science']}
| 14,392 |
Vi presenterar ett nytt och effektivt tillvägagångssätt för att skapa nya kläder på en bärare genom generativt kontradiktoriskt lärande. Med tanke på en input bild av en person och en mening som beskriver en annan outfit, vår modell "redresserar" personen som önskat, samtidigt som du håller bäraren och hennes / hans pose oförändrad. Skapa nya kläder med exakta regioner som överensstämmer med en språkbeskrivning samtidigt behålla bärarens kroppsstruktur är en ny utmanande uppgift. Befintliga generativa kontradiktoriska nätverk är inte idealiska för att säkerställa global enhetlighet i strukturen med tanke på både indatafotografering och språkbeskrivning som villkor. Vi tar itu med denna utmaning genom att bryta ner den komplexa generativa processen i två villkorliga steg. I det första steget skapar vi en rimlig semantisk segmenteringskarta som lyder bärarens ställning som ett latent rumsligt arrangemang. En effektiv rumslig begränsning är formulerad för att vägleda skapandet av denna semantiska segmenteringskarta. I det andra steget används en generativ modell med ett nyligen föreslaget kartskikt för att göra den slutliga bilden med exakta regioner och texturer konditionerade på denna karta. Vi utökade DeepFashion-datasetet [8] genom att samla in meningsbeskrivningar för 79K-bilder. Vi visar effektiviteten i vår strategi genom både kvantitativa och kvalitativa utvärderingar. En användarstudie genomförs också.
|
FashionGan REF lärde sig att skapa nya kläder på den ingående bilden av personen betingad av en mening som beskriver de olika kläderna.
| 7,352,545 |
Be Your Own Prada: Fashion Synthesis with Structural Coherence
|
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
| 14,393 |
Ett stabilt konstruktionsflöde måste fånga upp konstruktioner på väldefinierade abstraktionsnivåer och gå vidare mot ett effektivt genomförande. De kritiska besluten omfattar systemets arkitektur, som kommer att utföra de beräknings- och kommunikationsuppgifter som är förknippade med designens övergripande specifikation. Att förstå applikationsdomänen är viktigt för att säkerställa en effektiv användning av designflödet. Idag saknar designkedjan tillräckligt stöd. De flesta formgivare på systemnivå använder en samling verktyg som inte är kopplade till varandra. Implementeringen fortsätter sedan med informella tekniker som involverar många mänskliga-språksinteraktioner som skapar onödiga och oönskade iterationer bland grupper av designers i olika företag eller olika divisioner. Dessa grupper har föga förståelse för sina respektive kunskapsområden. Utvecklare kan därför inte vara säkra på att dessa verktyg, kopplade genom manuell eller empirisk översättning av mellanformat, kommer att bevara designens semantik. Denna osäkerhet leder ofta till fel som är svåra att identifiera och felsöka. Flytten mot programmerbara plattformar förskjuter designimplementeringsuppgiften mot inbäddad programvarudesign. När inbäddad programvara når den komplexitet som är typisk för dagens design ökar risken dramatiskt för att programvaran inte kommer att fungera korrekt. Denna risk beror främst på bristfälliga designmetoder och ömtåliga programvarusystemarkitekturer, som beror på att funktionaliteten växer över ett befintligt genomförande som kan vara ganska gammalt och odokumenterat. Metropolis-projektet syftar till att utveckla en enhetlig ram som kan hantera dessa utmaningar. Vi designade Metropolis för att tillhandahålla en infrastruktur baserad på en modell med exakt semantik som är tillräckligt allmän för att stödja befintliga beräkningsmodeller 1 och rymma nya. Denna metamodell kan stödja inte bara funktionalitet fånga och analys, men också arkitektur beskrivning och kartläggning av funktionalitet till arkitektoniska element. Metropolis använder ett logiskt språk för att fånga icke-funktionella och förklarande begränsningar. Eftersom modellen har en exakt semantik kan den förutom simulering stödja flera syntes- och formella analysverktyg. Den första designaktiviteten som Metropolis stödjer, kommunikationen av design intention och resultat, fokuserar på samspelet mellan människor som arbetar på olika abstraktionsnivåer och bland människor som arbetar samtidigt på samma abstraktionsnivå. Metamodellen innehåller begränsningar som representerar abstrakta krav som ännu inte implementerats eller antas vara uppfyllda av resten av systemet och dess miljö. Metropolis bygger på en metamodell med formella semantik som utvecklare kan använda för att fånga design, och ger en miljö för komplex design av elektroniska system som stöder simulering, formell analys och syntes.
|
Metropolis REF föreslår användning av ett enhetligt ramverk, baserat på en metamodell med formella semantik som utvecklare kan använda för att fånga design, och en miljö för att stödja simulering, formell analys och syntes av komplexa elektroniska system, vilket ger ett adekvat stöd till designkedjan.
| 206,446,849 |
Metropolis: an integrated electronic system design environment
|
{'venue': 'IEEE Computer', 'journal': 'IEEE Computer', 'mag_field_of_study': ['Computer Science']}
| 14,394 |
Att ta fram information från ostrukturerade kliniska berättelser är värdefullt för många kliniska tillämpningar. Även om naturliga språkbehandlingsmetoder (NLP) har studerats ingående i elektroniska medicinska journaler (EMR), har få studier undersökt NLP för att extrahera information från kinesiska kliniska berättelser. I denna studie rapporterar vi utveckling och utvärdering av extraherande tumörrelaterad information från operation noter av levercancer som skrevs på kinesiska. Med hjälp av 86 operations anteckningar manuellt kommenterade av läkare som träningssetet, utforskade vi både regelbaserade och övervakade maskininlärningsmetoder. Utvärdera på osedda 29 operation anteckningar, vår bästa strategi gav 69,6% i precision, 58,3% i återkallande och 63,5% F-poäng.
|
Wang m.fl. REF undersökte extraktion av tumörrelaterad information från kinesisk-språk operation anteckningar av patienter med levercancer, och kommenterade en corpus innehåller 961 enheter.
| 2,113,251 |
Extracting important information from Chinese Operation Notes with natural language processing methods
|
{'venue': 'Journal of biomedical informatics', 'journal': 'Journal of biomedical informatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 14,395 |
Abstrakt. I detta dokument presenterar vi ett tillvägagångssätt för att modellera en befintlig webbapplikation med hjälp av att kommunicera finita automatiserade modeller baserade på de användardefinierade egenskaper som ska valideras. Vi utvecklar en metod för automatisk generering av en sådan modell från en inspelad surfning session. Den erhållna modellen kan sedan användas för att verifiera egenskaper med en modellkontroll, samt för regressionstestning och dokumentation. Till skillnad från tidigare försök är vårt tillvägagångssätt inriktat på komplexa multifönster/frame-applikationer. Vi presenterar en implementering av det tillvägagångssätt som använder modellen checker Spin och ge ett exempel.
|
Haydar m.fl. REF presenterade ett tillvägagångssätt för att modellera och verifiera en webbapplikation med hjälp av att kommunicera ändlig automata.
| 18,798,028 |
Formal Verification of Web Applications Modeled by Communicating Automata
|
{'venue': 'FORTE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,396 |
På grund av kognitiva radionäts dynamiska karaktär kräver flera användares videoströmning (med olika egenskaper för videotrafik och QoS-krav) effektiva system för dynamisk kanalurval för att utnyttja tillgängliga spektrumresurser. För att göra detta måste en trådlös användare effektivt modellera den dynamiska trådlösa miljön och uppskatta fördröjningen av videopaketöverföringen när man väljer en viss frekvenskanal. I det här dokumentet tillämpar vi den prioriterade virtuella kömodellen för dessa trådlösa användare för att anpassa deras kanalval och maximera videokvaliteter. Simuleringsresultaten visar att den föreslagna kanalurvalslösningen baserad på prioriteringsplanering överträffar det konventionella dynamiska kanalurvalet med 2 dB (PSNR). Index Terms-Video streaming, kognitiva radionätverk, prioriterad köanalys.
|
I REF föreslogs ett dynamiskt kanalurvalssystem för CR-användare för att överföra videor över flera kanaler.
| 15,645,652 |
Dynamic channel selection for multi-user video streaming over cognitive radio networks
|
{'venue': '2008 15th IEEE International Conference on Image Processing', 'journal': '2008 15th IEEE International Conference on Image Processing', 'mag_field_of_study': ['Computer Science']}
| 14,397 |
Få-shot klassificering syftar till att lära en klassificerare att känna igen osedda klasser under utbildningen med begränsade märkta exempel. Även om betydande framsteg har gjorts, gör den ökande komplexiteten i nätverksdesign, meta-lärande algoritmer och skillnader i genomförande detaljer en rättvis jämförelse svårt. I detta dokument presenterar vi 1) en konsekvent jämförande analys av flera representativa få-shot-klassificeringsalgoritmer, med resultat som visar att djupare ryggrader avsevärt minskar prestandaskillnaderna mellan metoder på datauppsättningar med begränsade domänskillnader, 2) en modifierad baslinjemetod som överraskande uppnår konkurrenskraftig prestanda jämfört med toppmoderna på både miniImageNet och CUB-datauppsättningar, och 3) en ny experimentell miljö för utvärdering av cross-domain generalization förmåga för få-shot-klassificeringsalgoritmer. Våra resultat visar att minskande intra-klass variation är en viktig faktor när funktionen ryggrad är grunt, men inte lika kritisk när man använder djupare ryggrader. I en realistisk cross-domain evaluation inställning, visar vi att en baslinje metod med en standard finjustering praxis jämförs gynnsamt mot andra state-of-the-art få-shot lärande algoritmer.
|
Ref visar nyligen att prestandan hos befintliga klassificeringsmetoder med få bilder minskar avsevärt under domänskiften.
| 102,351,185 |
A Closer Look at Few-shot Classification
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,398 |
Djupt lärande har visat sig vara en framgångsrik maskininlärningsmetod för en mängd olika uppgifter, och dess popularitet resulterar i många verktyg för djupinlärning med öppen källkod som kommer till allmänheten. Att utbilda ett djupt nätverk är vanligtvis en mycket tidskrävande process. För att ta itu med den enorma utmaningen att beräkna i djupinlärning, många verktyg utnyttja hårdvarufunktioner som multi-core processorer och många-kärniga GPU:er för att förkorta utbildning och inferens tid. Olika verktyg uppvisar dock olika funktioner och körprestanda när de tränar olika typer av djupa nätverk på olika hårdvaruplattformar, vilket gör det svårt för slutanvändare att välja ett lämpligt par av programvara och hårdvara. I detta dokument presenterar vi vårt försök att jämföra flera toppmoderna GPU-accelererade djupinlärningsprogram, inklusive Caffe, CNTK, TensorFlow och Torch. Vi fokuserar på att utvärdera körtiden prestanda (dvs. hastighet) av dessa verktyg med tre populära typer av neurala nätverk på två representativa CPU-plattformar och tre representativa GPU-plattformar. Vårt bidrag är tvåfaldigt. För det första, för slutanvändare av djupinlärningsprogram kan våra benchmarkingresultat fungera som en referens för att välja lämpliga hårdvaruplattformar och programvaruverktyg. För det andra, för utvecklare av djupinlärningsprogram, pekar vår fördjupade analys ut möjliga framtida riktningar för att ytterligare optimera körprestandan.
|
I en nyligen genomförd studie av Shi et al., REF, presenterades prestandajämförelse av några djupinlärningsprogram på multi-core CPU och många-kärniga GPUs.
| 3,040,291 |
Benchmarking State-of-the-Art Deep Learning Software Tools
|
{'venue': '2016 7th International Conference on Cloud Computing and Big Data (CCBD)', 'journal': '2016 7th International Conference on Cloud Computing and Big Data (CCBD)', 'mag_field_of_study': ['Computer Science']}
| 14,399 |
Sakernas internet (IoT) och cloud computing är två tekniker som nyligen har förändrat både akademin och industrin och påverkat vårt dagliga liv på olika sätt. Trots deras effekter har båda teknikerna dock sina brister. Även om molntjänster är billiga och bekväma, förbrukar de en enorm mängd nätverksbandbredd. Dessutom gör det fysiska avståndet mellan datakällorna och datacenteret att det ofta uppstår problem med datormolnens infrastruktur. Fog computing har föreslagits som en distribuerad tjänst datormodell som ger en lösning på dessa begränsningar. Det är baserat på en paravirtualiserad arkitektur som fullt ut använder datorfunktioner av terminalenheter och fördelarna med lokal närhet bearbetning. I detta dokument föreslås en flerskikts IoT-baserad dimdatamodell som kallas IoT-FCM, som använder en genetisk algoritm för resursfördelning mellan det terminala lagret och dimskiktet och en multi-sink-version av det minsta interferensbeaconing-protokollet (LIBP) som kallas minst interferens multi-sink-protokoll (LIMP) för att förbättra feltoleransen/robustnessen och minska energiförbrukningen i ett terminallager. Simuleringsresultat visar att IoT-FCM, jämfört med den populära max-min och dimorienterad max-min, presterar bättre genom att minska avståndet mellan terminaler och dimnoder med minst 38 % och minska energiförbrukningen med i genomsnitt 150 KWh samtidigt som det är i nivå med de andra algoritmerna när det gäller fördröjning för ett stort antal uppgifter.
|
Mamma och Al. REF föreslog en IoT-baserad dimdatamodell.
| 195,355,302 |
An IoT-Based Fog Computing Model
|
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
| 14,400 |
Vi föreslår en förlust för att lära sig djupa inbäddningar. Den nya förlusten inför inte parametrar som behöver justeras och resulterar i mycket bra inbäddningar i en rad datauppsättningar och problem. Förlusten beräknas genom att uppskatta två fördelningar av likheter för positiva (matchning) och negativa (icke-matchning) provpar, och sedan beräkna sannolikheten för att ett positivt par har en lägre likhetspoäng än ett negativt par baserat på den uppskattade likhetsfördelningen. Vi visar att sådana operationer kan utföras på ett enkelt och bitvis olika sätt med hjälp av 1D-histogram med mjuka uppdragsoperationer. Detta gör den föreslagna förlusten lämplig för att lära djupa inbäddningar med hjälp av stokastisk optimering. I experimenten presterar den nya förlusten positivt jämfört med de nyligen föreslagna alternativen.
|
Ustinova m.fl. föreslå en ny histogramförlustreferens för att träna de djupa inbäddningarna genom att göra fördelningen av likheter mellan positiva och negativa par mindre överlappande.
| 15,402,687 |
Learning Deep Embeddings with Histogram Loss
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,401 |
Abstrakt. Koncepten Autonomic and Organic Computing (AC/OC) lovar att göra moderna datorsystem säkrare och enklare att hantera. I detta dokument utökar vi den observations-/kontrollarkitektur som vanligtvis används i AC/OC-system mot ett nytt målområdeinbyggt realtidssystem. Som ett resultat av detta presenterar vi en tvåskiktad ledningsarkitektur. Vi diskuterar aspekter av intern kommunikation och utformar en kommunikationsmodell. Slutligen presenterar vi ett generiskt klassificeringssystem för ledningsarkitekturens övre skikt.
|
I REF beskrivs en kontrollarkitektur för inbyggda realtidssystem.
| 7,830,593 |
A Two-Layered Management Architecture for Building Adaptive Real-Time Systems
|
{'venue': 'SEUS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,402 |
Abstrakt. Vi tar itu med problemet med att använda opålitliga (potentiellt skadliga) kryptografiska hjälpare. Vi tillhandahåller en formell säkerhetsdefinition för säker outsourcing av beräkningar från en beräkningsbegränsad enhet till en opålitlig hjälpare. I vår modell, den kontradiktoriska miljön skriver programvaran för hjälparen, men sedan inte har direkt kommunikation med den när enheten börjar förlita sig på den. Utöver säkerheten tillhandahåller vi också en ram för kvantifiering av effektiviteten och kontrollbarheten i en outsourcingimplementation. Vi presenterar två praktiska outsourcing-säkra system. Specifikt visar vi hur man säkert outsourca modulär exponentiation, som presenterar den beräkningsmässiga flaskhalsen i de flesta publika nyckel kryptografi på beräkningsbegränsade enheter. Utan outsourcing, en enhet skulle behöva O(n) modulära multiplikationer för att utföra modulär exponentiation för n-bit exponenter. Belastningen minskar till O(log 2 n) för varje exponentiation-baserat system där den ärliga enheten kan använda två opålitliga exponentiationsprogram; vi belyser Cramer-Shoup cryptosystem [13] och Schnorr signaturer [28] som exempel. Med en avslappnad uppfattning om säkerhet, uppnår vi samma belastningsreduktion för en ny CCA2-säker kryptering system med bara en opålitlig Cramer-Shoup krypteringsprogram.
|
Baserat på dessa protokoll, Hohenberger et al. REF uppnådde outsource-säkra Cramer-Shoup-krypteringar och Schnorr-signaturer i molnmiljön.
| 9,922,526 |
How to securely outsource cryptographic computations
|
{'venue': 'In TCC 05', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,403 |
Abstrakt. Många program drar nytta av användarens platsdata, men platsdata väcker integritetsproblem. Anonymisering kan skydda privatlivet, men identiteter kan ibland härledas från förment anonym data. I detta dokument studeras en ny attack mot anonymiteten i lokaliseringsdata. Vi visar att om de ungefärliga platserna för en individs hem och arbetsplats båda kan härledas från en plats spår, då medianstorleken på individens anonymitet satt i den amerikanska arbetande befolkningen är 1, 21 och 34.980, för platser kända vid granulariteten i en folkräkning block, folkräkning spår respektive län. Platsuppgifterna för personer som bor och arbetar i olika regioner kan omidentifieras ännu lättare. Våra resultat visar att risken för omidentifiering av lokaliseringsdata är mycket större när individens hem- och arbetsplats kan härledas från uppgifterna. För att bevara anonymitet erbjuder vi vägledning för att fördunkla lokaliseringsspår innan de avslöjas.
|
Golle och Partridge visar också att möjligheten att identifiera användare baserat på anonymiserade lokaliseringsspår ökar betydligt när individens hem och arbetsplatser är kända REF.
| 5,961,287 |
On the Anonymity of Home/Work Location Pairs
|
{'venue': 'Pervasive', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,404 |
Abstrakt. Modelleringen av människors rörlighet är att anta nya riktningar på grund av den ökande tillgången på stora datakällor från mänsklig verksamhet. Dessa källor innehåller digital information om dagligen besökta platser för ett stort antal individer. Exempel på dessa uppgifter är: mobiltelefonsamtal, kreditkortstransaktioner, banksedlar, incheckningar i internettillämpningar, bland annat. I denna studie anser vi att de data som erhållits från smarta tunnelbanekort transaktioner för att karakterisera och modellera rörlighetsmönster i städer. Vi presenterar en enkel mobilitetsmodell för att förutsäga folks besökta platser med hjälp av populariteten av platser i staden som en interaktionsparameter mellan olika individer. Denna ingrediens är tillräcklig för att reproducera flera egenskaper hos de observerade resor beteende såsom: antalet resor mellan olika platser i staden, utforska nya platser och frekvensen av enskilda besök på en viss plats. Dessutom anger vi begränsningarna i den föreslagna modellen och diskuterar öppna frågor i dagens moderna statistiska modeller för människors rörlighet.
|
Hasan m.fl. REF modellerade urban mänsklig rörlighet för att förutsäga folks besökta platser med hjälp av populariteten av platser.
| 17,743,559 |
Spatiotemporal Patterns of Urban Human Mobility
|
{'venue': None, 'journal': 'Journal of Statistical Physics', 'mag_field_of_study': ['Mathematics']}
| 14,405 |
Abstract-I detta papper studeras fördelningen av förhållandet av extrema eigenvärden av en komplex Wishart matris för att beräkna den exakta beslutströskeln som en funktion av den önskade sannolikheten för falskt alarm för den maximala lägsta eigenvärde (MME) detektor. I motsats till den asymptotiska analys som rapporteras i litteraturen, anser vi att ett begränsat antal kooperativa mottagare och ett begränsat antal prover och härleda den exakta beslutströskeln för sannolikheten för falskt alarm. Den föreslagna exakta formuleringen reduceras ytterligare till två mottagarbaserade spektrumanalyssystem. Dessutom erhålls en ungefärlig formel för sluten form av den exakta tröskeln i form av en önskad sannolikhet för falsklarm för ett specialfall som har lika många mottagningsantenner och signalprov. Slutligen verifieras de analytiska exakta beslutströsklarna med Monte-Carlo-simuleringar. Vi visar att sannolikheten för att upptäcka prestanda med hjälp av de föreslagna exakta beslutströsklarna uppnår betydande resultatvinster jämfört med resultatet av den asymptotiska beslutströskeln. Index Terms-Complex Wishart matris, kooperativ spektrumanalys, eigen value-baserad detektion.
|
I REF härleds en approximation av tröskelfunktionen för system med lika många mottagningsantenner och prover.
| 15,212,188 |
On the Performance of Eigenvalue-Based Cooperative Spectrum Sensing for Cognitive Radio
|
{'venue': 'IEEE Journal of Selected Topics in Signal Processing', 'journal': 'IEEE Journal of Selected Topics in Signal Processing', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,406 |
Vi presenterar en skalbar metod för halvövervakad inlärning på grafstrukturerade data som bygger på en effektiv variant av konvolutionella neurala nätverk som fungerar direkt på grafer. Vi motiverar valet av vår konvolutionella arkitektur via en lokaliserad första ordningen approximation av spektral graf konvolutioner. Vår modell skalar linjärt i antalet grafkanter och lär sig dolda lager representationer som kodar både lokala graf struktur och funktioner i noder. I ett antal experiment på citeringsnätverk och på ett kunskapsdiagram visar vi att vårt tillvägagångssätt överträffar relaterade metoder med en betydande marginal.
|
För effektiv och skalbar semi-övervakad klassificering av grafstrukturerade data användes Ref.
| 3,144,218 |
Semi-Supervised Classification with Graph Convolutional Networks
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,407 |
Bayesian inference har stora löften om integritetsbevarande analys av känsliga data, eftersom bakre provtagning automatiskt bevarar differential integritet, en algoritmisk uppfattning om dataintegritet, under vissa villkor (Dimitrakakis et al., 2014; Wang et al., 2015b). Medan denna en bakre prov (OPS) tillvägagångssätt elegant ger integritet "gratis", det är data ineffektiv i betydelsen av asymptotic relativ effektivitet (ARE). Vi visar att ett enkelt alternativ baserat på Laplace-mekanismen, differentialskyddets arbetshäst, är lika asymptotiskt effektivt som icke-privat bakre slutledning, enligt allmänna antaganden. Denna teknik har också praktiska fördelar inklusive effektiv användning av sekretessbudgeten för MCMC. Vi visar hur praktiskt vårt tillvägagångssätt är när det gäller en tidsserieanalys av känsliga militära uppgifter från krigen i Afghanistan och Irak som avslöjats av Wikileaks-organisationen.
|
I REF visar författarna att Laplace-mekanismbaserat alternativ för "One Posterior Sample" är lika asymptotiskt effektivt som icke-privat bakre slutledning, enligt allmänna antaganden.
| 718,103 |
On the Theory and Practice of Privacy-Preserving Bayesian Data Analysis
|
{'venue': 'Proceedings of the 32nd Conference on Uncertainty in Artificial Intelligence (UAI), 2016', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,408 |
I detta dokument tar vi upp problemet med linjär regression med tungstjärtade fördelningar. Olika från tidigare studier som använder kvadratförlusten för att mäta prestandan, väljer vi den absoluta förlusten, som är kapabel att uppskatta den villkorade medianen. För att ta itu med utmaningen att både input och output kan vara tung-tailed, föreslår vi en trunkerad minimering problem, och visa att det har en O( d / n) överskottsrisk, där d är dimensionalitet och n är antalet prover. Jämfört med traditionellt arbete på 1 - regression, är den största fördelen med vårt resultat att vi uppnår en hög sannolikhet risk bunden utan exponentiella moment villkor på input och output. Dessutom, om inmatningen begränsas, visar vi att den klassiska empiriska riskminimeringen är kompetent för 1 - regression även när produktionen är tung-tailed.
|
Zhang och Zhou REF anses linjär regression med tung-tail fördelningar och visade att med hjälp av l1 förlust med trunkerad minimering kan ha fördelar över l2 förlust.
| 44,124,555 |
𝓁1-regression with Heavy-tailed Distributions
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,409 |
Abstrakt. Funktionskrav skrivs ofta med användningsfall formaterade av textmallar. Detta textbaserade tillvägagångssätt har fördelen att vara lätt att anta, men kraven kan då knappast behandlas för ytterligare ändamål som testgenerering. I detta dokument föreslår vi att automatiskt generera genom en modellomvandling ett aktivitetsschema som modellerar användningsfallsscenariot. Ett sådant aktivitetsschema låter oss gissa i en glimt det globala beteendet i ett användningsfall, och kan lätt bearbetas. Omvandlingen definieras med hjälp av QVT-relationsspråket och illustreras i en fallstudie med hjälp av ett stödverktyg.
|
I Ref föreslog författarna ett modellbaserat tillvägagångssätt för att generera aktivitetsdiagram för modellering av scenarier.
| 36,067,554 |
Visualization of Use Cases through Automatically Generated Activity Diagrams
|
{'venue': 'MoDELS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,410 |
Vi presenterar ett nytt platsigenkänningssystem som anpassar den senaste tekniken för objektförslag för att identifiera potentiella landmärken inom en bild. Det föreslagna systemet använder konvolutionella nätverksfunktioner som robusta landmärkesdeskriptorer för att känna igen platser trots allvarliga syn- och tillståndsförändringar, utan att kräva någon miljöspecifik utbildning. De färgade rutorna i bilderna ovan visar ConvNet landmärken som korrekt har matchats mellan två betydligt olika synvinklar av en scen, vilket möjliggör platsigenkänning under dessa utmanande förhållanden. Abstract-Place-erkännandet har länge varit ett ofullständigt löst problem eftersom alla tillvägagångssätt innebär betydande kompromisser. Nuvarande metoder tar upp många men aldrig alla av de kritiska utmaningarna med platsigenkänning -viewpoint-invariance, tillståndsinvarians och minimering av utbildningskrav. Här presenterar vi en strategi som anpassar den senaste tekniken för förslag till objekt för att identifiera potentiella landmärken inom en bild för platsigenkänning. Vi använder den häpnadsväckande kraften i konvolutionella neurala nätverksfunktioner för att identifiera matchande banbrytande förslag mellan bilder för att utföra platsigenkänning över extrema utseende och perspektiv variationer. Vårt system kräver ingen form av utbildning, alla komponenter är generiska nog att användas off-the-shälf. Vi presenterar en rad utmanande experiment i varierande perspektiv och miljöförhållanden. Vi visar överlägsen prestanda jämfört med nuvarande hjärtteknik. Genom att bygga vidare på befintliga och allmänt använda ramar för erkännande ger detta tillvägagångssätt dessutom ett mycket kompatibelt system för platsigenkänning med möjlighet till enkel integrering av andra tekniker såsom objektdetektering och semantisk scentolkning. Visuell platsigenkänningsforskning har dominerats av sofistikerade lokala funktionsbaserade tekniker som SIFT och SURF keypoints, handgjorda globala bilddeskriptorer som GIST och bag-of-words tillvägagångssätt. Men eftersom robotar arbetar under längre tidsperioder i verkliga miljöer har problemet med förändrade miljöförhållanden kommit i förgrunden, där konventionella igenkänningsmetoder misslyckas. För att ta itu med detta problem, ett antal tekniker har antagits -matchande bildsekvenser [27, 29, 33, 28], skapa skugga-invarianta bilder [6, 43, 25, 24], lära sig framträdande bild regioner [26] eller lärande timliga modeller som tillåter förutsägelse av förekommande förändringar [31]. Den senaste forskningen har också visat hur generiska djupinlärning-baserade funktioner som utbildats för objektigenkänning framgångsrikt kan tillämpas inom området platsigenkänning [41, 3]. Alla nuvarande strategier har dock infört minst en betydande prestanda eller användbarhet kompromiss, oavsett om det är en brist på invarians till kamera synpunkt förändringar [27, 28], omfattande miljöspecifika utbildningskrav [26], eller bristen på utseende ändrar robusthet [7]. För att visuell platsigenkänning ska vara verkligt robust måste den samtidigt ta itu med tre kritiska utmaningar: 1) tillståndsinvariant, 2) perspektivinvariant och 3) allmängiltighet (inga miljöspecifika utbildningskrav). I detta dokument presenterar vi ett enhetligt tillvägagångssätt som tar itu med alla dessa tre utmaningar. Vi använder en toppmodern metod för objektförslag för att upptäcka potentiella landmärken i bilderna. Ett konvolutionsnätverk (ConvNet) används sedan för att extrahera allmänna funktioner för vart och ett av dessa banbrytande förslag. Vi visar att ConvNet funktioner är robusta för både utseende och perspektiv förändring; de första två kritiska utmaningar. Vi betonar också att banbrytande förslag kräver ingen utbildning och ConvNet är förskolad på ImageNet, en generisk bilddatabas; den tredje kritiska utmaningen. Genom att utföra experiment på ett antal dataset visar vi att vårt system är utbildningsfritt genom att ingen uppgiftsspecifik eller ens platsspecifik utbildning krävs. Vi betonar också att endast enstaka bilder krävs för matchning och att systemet inte kräver bildsekvenser. Vi demonstrerar det allmänna i vårt system på ett antal befintliga dataset och introducerar nya utmanande platsigenkänningsdataset, samtidigt som vi jämför med de senaste metoderna. De nya bidragen i detta dokument är: 1) Ett platsigenkänningssystem som är robust för syn- och utseendevariation, som inte kräver någon miljöspecifik utbildning, och 2) Införandet av nya utmanande datauppsättningar som uppvisar extrem syn- och utseendevariation. Tidningen går vidare enligt följande. Avsnitt II ger en kort översikt över relaterat arbete. Metoden beskrivs i detalj i avsnitt III följt av en översikt över de fyra försöksgrupperna. Vi presenterar resultaten i avsnitt V innan vi avslutar med en diskussion och beskriver det framtida arbetet. Fokus för forskning på plats erkännande har nyligen gått från att känna igen scener utan betydande utseende förändringar till mer utmanande, men också mer realistiska föränderliga miljöer. Place Recognition: Metoder som tar itu med platsen igenkänning problem spänna från matchande sekvenser av bilder [27, 17, 40, 33, 29], omvandla bilder för att bli invariant mot vanliga scen förändringar såsom skuggor [6, 43, 25, 24, 21], lära sig hur miljöer förändras över tid och förutsäga dessa förändringar i bildutrymme [30, 21, 31], partikelfilterbaserade metoder som bygger upp plats igenkänning hypoteser över tid [23, 39, 22], eller bygga en karta över erfarenheter som täcker olika utseenden av en plats över tid [5]. Att lära sig hur miljöns utseende förändras kräver i allmänhet träningsdata med kända ramkorrespondenser. [17] Bygger en databas över observerade funktioner under en dag och natt. [30, 31] presenterar ett tillvägagångssätt som lär sig systematiska scenförändringar för att förbättra prestandan på ett säsongsbetonat förändringsdataset. [26] lär sig framträdande regioner i bilder av samma plats med olika miljöförhållanden. Utöver begränsningen av krav på utbildningsdata är generaliteten för dessa metoder för närvarande också okänd; dessa metoder har endast visat sig fungera i samma miljö och på samma eller mycket liknande typer av miljöförändringar som de som förekommer i utbildningsdataseten. Även om punktfunktionsbaserade metoder visade sig vara robusta mot synförändringar [7, 8, 38], till författarnas kunskap, har betydande förändringar i både syn- och miljöförhållanden inte tagits upp i litteraturen. Vi visar att robusthet mot variation i båda fallen kan hanteras utan platsspecifik utbildning. Funktionsbaserade metoder: SIFT [20], SURF [1] och ett antal efterföljande funktionsdetektorer har visat sig uppvisa en betydande grad av invarians men endast en begränsad grad av tillståndsinvarians (belysning, atmosfäriska förhållanden, skuggor, säsonger). Perceptuell förändring lika drastisk som den som illustreras i bild. 1 har visat sig vara utmanande för konventionella funktionsdetektorer [27, 44] och medan FAB-MAP [7] är robust med avseende på synförändringar, är det känt att misslyckas i förhållanden med allvarliga förändringar utseende [29, 31, 13]. Dessutom hävdade [11, 34] att FAB-MAP inte generaliserar väl till nya miljöer utan att lära sig ett nytt platsspecifikt ordförråd. [26] visar att patchar och regionbaserade metoder inom en bild kan uppvisa samma robusthet som helbildstekniker samtidigt som viss robusthet bibehålls för att skala variation, och därmed uppnå några av fördelarna med både punkt- och helbildsfunktioner. Det krävdes dock omfattande platsspecifik utbildning. I denna forskning utökar vi fördelarna med regionbaserade metoder för att ta itu med både syn- och miljöförändringar utan krav på platsspecifik utbildning. En gemensamhet mellan alla dessa metoder är att de förlitar sig på en fast uppsättning handgjorda traditionella funktioner eller arbetar på rå pixelnivå. En ny trend när det gäller datorseende, och särskilt när det gäller igenkänning och upptäckt av föremål, är att utnyttja inlärda funktioner med hjälp av djupa konvolutionella nätverk (ConvNets). Det mest framträdande exemplet på denna trend är den årliga ImageNet Large Scale Visual Recognition Challenge där under de senaste två åren många av deltagarna har använt ConvNet funktioner [36]. Flera forskargrupper har visat att ConvNets överträffar klassiska metoder för objektklassificering eller detektering som bygger på handgjorda funktioner [19, 37, 10, 12, 35]. Tillgången till förutbildade nätverksmodeller gör det enkelt att experimentera med sådana metoder för olika uppgifter: programvarupaketen Overfeat [37] och Decaf [10] eller dess efterföljare Caffe [16] tillhandahåller liknande nätverksarkitekturer som var förtränade på ImageNet ILSVRC-datauppsättningen [36]. Nyligen genomförda studier har visat att toppmoderna prestanda på plats kan uppnås med nätverk utbildade med hjälp av generiska data: [41] visade att ConvNet funktioner som representerar hela bilden överträffar nuvarande metoder för att ändra miljöförhållanden. Helbildsdrag lider emellertid av känslighet för en förändring av synsättet. Vi visar att genom att kombinera kraften i ConvNets och regionbaserade funktioner snarare än att använda helbildsrepresentationer, kan en stor grad av robusthet mot synförändringar uppnås. Följaktligen bygger vi i denna forskning på de bäst presterande aspekterna av state of the art; erkännande prestanda ConvNet tillvägagångssätt [41], och robustheten i regionbaserade metoder för att se förändring [26]. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. FÖRSLAG TILL SYSTEM I detta avsnitt beskriver vi de fem nyckelkomponenterna i vårt föreslagna platsigenkänningssystem: 1) banbrytande förslagsextraktion från den aktuella bilden 2) beräkning av en ConvNet-funktion för varje förslag 3) projektion av funktionerna i ett lägre dimensionsutrymme 4) beräkning av en matchningspoäng för varje tidigare sedd bild 5) beräkning av den bästa matchningen Bild. 2 illustrerar vårt system. Tillvägagångssättet har flera egenskaper som skiljer det från tidigare arbete: • Systemet kräver ingen uppgiftsspecifik eller platsspecifik utbildning. Den använder en off-the-shälf förtränad con-
|
Deras efterföljande arbete REF förfinade detta tillvägagångssätt genom att använda samma deskriptorteknik för objektförslag inom en bild istället för hela bilden.
| 5,437,340 |
Place Recognition with ConvNet Landmarks: Viewpoint-Robust, Condition-Robust, Training-Free
|
{'venue': 'Robotics: Science and Systems', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']}
| 14,411 |
Vid lärande med flera uppgifter löses flera uppgifter gemensamt, och man delar induktiva fördomar mellan dem. Att lära sig flera uppgifter är till sin natur ett multiobjektivt problem eftersom olika uppgifter kan stå i konflikt med varandra, vilket kräver en kompromiss. En gemensam kompromiss är att optimera ett proxymål som minimerar en viktad linjär kombination av pertaskförluster. Detta är dock endast giltigt när uppgifterna inte konkurrerar, vilket sällan är fallet. I detta dokument kastar vi uttryckligen lärande med flera uppgifter som multi-objektiv optimering, med det övergripande målet att hitta en Pareto optimal lösning. I detta syfte använder vi algoritmer utvecklade i den lutningsbaserade multiobjektiva optimeringslitteraturen. Dessa algoritmer är inte direkt tillämpliga på storskaliga inlärningsproblem eftersom de skalas dåligt med dimensionaliteten i gradienterna och antalet uppgifter. Vi föreslår därför en övre gräns för den multi-objektiva förlusten och visar att den kan optimeras effektivt. Vi bevisar vidare att optimera denna övre gräns ger en Pareto optimal lösning under realistiska antaganden. Vi tillämpar vår metod på en mängd olika djupinlärningsproblem med flera uppgifter, bland annat sifferklassificering, scenförståelse (gemensam semantisk segmentering, till exempel segmentering och djupuppskattning) och multimärkningsklassificering. Vår metod producerar mer högpresterande modeller än de senaste multi-task lärande formuleringar eller per-task utbildning.
|
Sener och Al. REF cast multi-task lärande som en multi-objektiv optimering problem, med det övergripande målet att hitta en Pareto optimal lösning.
| 52,957,972 |
Multi-Task Learning as Multi-Objective Optimization
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,412 |
I denna uppsats studerar vi problemet med att lära sig ett ytligt artificiellt neuralt nätverk som bäst passar en träningsdata uppsättning. Vi studerar detta problem i det överparameteriserade systemet där antalet observationer är färre än antalet parametrar i modellen. Vi visar att med de quadratic aktiveringar, optimering landskapet av utbildning, så ytliga neurala nätverk, har vissa gynnsamma egenskaper som gör det möjligt globalt optimala modeller för att hittas effektivt med hjälp av en mängd lokala sökheuristik. Detta resultat håller för en godtycklig utbildning data input / output par. För olika aktiveringsfunktioner visar vi också att lutningsnedstigningen, när den initieras på lämpligt sätt, konvergerar linjärt till en globalt optimal modell. Detta resultat fokuserar på en realizable modell där indata väljs i.i.d. från en Gaussisk distribution och etiketterna genereras enligt planterade viktkoefficienter. Index Terms-Nonconvex optimering, överparametriserade neurala nätverk, slumpmässig matristeori.
|
REF studerade den globala optimaliteten hos det överparameteriserade nätverket med quadratiska aktiveringsfunktioner.
| 29,068,185 |
Theoretical Insights Into the Optimization Landscape of Over-Parameterized Shallow Neural Networks
|
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,413 |
Abstract-I detta papper har vi visat att i varje underdefinierat linjärt system Ax = b det motsvarar en konstant p * (A, b) > 0 så att varje lösning på lp-normminimering problem också löser l0-norm minimering problem när 0 < p < p * (A, b). Detta fenomen kallas N P/CM P ekvivalens.
|
Dessutom har Peng, Yue och Li REF visat att det finns en konstant p(A, b) > 0, så att varje en lösning av l p -minimering också är lösningen av l 0 -minimering när 0 < p < p(A, b).
| 33,328,319 |
NP/CMP Equivalence: A Phenomenon Hidden Among Sparsity Models l0 Minimization and p Minimization for Information Processing
|
{'venue': 'IEEE Trans. Inf. Theory', 'journal': 'IEEE Trans. Inf. Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,414 |
Det matematiska biblioteket Mizar är ett av de största biblioteken för formaliserad och mekaniskt verifierad matematik. Dess språk är mycket optimerat för författarskap av människor. Liksom i naturliga språk påverkas betydelsen av ett uttryck av dess (matematiska) sammanhang på ett sätt som är naturligt för människor, men svårare att specificera för maskinmanipulering. På så sätt kan dess egna filformat göra det svårt att få tillgång till biblioteket. Själva Mizarsystemet är för närvarande det enda system som kan fungera fullt ut på biblioteket i Mizar. Här presenteras en översättning av Mizarbiblioteket till OMDAC-formatet (Open Mathematical Documents), ett XML-baserat representationsformat för matematisk kunskap. OMDAC är inriktat på maskinstöd och driftskompatibilitet genom att göra formelstruktur och kontextberoenden explicita. Mizarbiblioteket blir därmed tillgängligt för ett brett utbud av OMDoc-baserade verktyg för formell matematik och kunskapshantering. Vi exemplifierar interoperabilitet genom att indexera det översatta biblioteket i MathWebSearch-motorn, som ger en "tillämplig theorem search" tjänst (nästan) ut ur rutan.
|
Utlåtandet av teorem i hela Mizar Mathematical Library (MML) har exporterats till MMT logiska ramverk REF.
| 18,381,766 |
The Mizar Mathematical Library in OMDoc: Translation and Applications
|
{'venue': 'Journal of Automated Reasoning', 'journal': 'Journal of Automated Reasoning', 'mag_field_of_study': ['Computer Science']}
| 14,415 |
Abstract-Många algoritmer för routing i sensornätverk utnyttja giriga forwarding strategier för att få paket till sina destinationer. I detta dokument studerar vi en grundläggande diffcully sådana strategier ansikte: "lokala minimala fenomen" som am c a w paket för att fastna. Vi ger en definition av fasta noder där paket kan fastna i girig multi-hop spedition, och utveckla en lokal regel, TENT regeln, för varje nod i nätverket för att testa om ett paket kan fastna på den noden. För att hjälpa paketen få ut nf fast noder, beskriver vi en distribuerad algoritm, BOUNDHOLE, för att bygga rutter runt hål, som är anslutna reginns av nätverket med gränser som består av alla stnck noder. Vi visar att dessa hål-omgivningsrutter kan han använda i n många tillämpningar såsom geografisk routing, väg migration, mekanismer för informationslagring och identlcatinn av reginns av intresse
|
I REF finns det en beskrivning av en distribuerad algoritm, BOUNDHOLE, för att bygga rutter runt routinghålen, som är anslutna regioner i nätverket med gränser som består av alla fastsatta noder.
| 147,952 |
Locating and bypassing routing holes in sensor networks
|
{'venue': 'IEEE INFOCOM 2004', 'journal': 'IEEE INFOCOM 2004', 'mag_field_of_study': ['Computer Science']}
| 14,416 |
Konvolutionella nätverk är kraftfulla visuella modeller som ger hierarkier av funktioner. Vi visar att konvolutionsnätverken själva, tränade end-to-end, pixlar till pixel, överskrider toppmoderna i semantisk segmentering. Vår nyckelinsikt är att bygga "fullständigt konvolutionella" nätverk som tar input av godtycklig storlek och producerar motsvarande storlek utdata med effektiv slutledning och lärande. Vi definierar och specificerar utrymmet för helt konvolutionella nätverk, förklarar deras tillämpning på rumsligt täta förutsägelser uppgifter, och ritar anslutningar till tidigare modeller. Vi anpassar dagens klassificeringsnät (AlexNet [20], VGG-nätet [31] och GoogLeNet [32]) till helt konvolutionella nätverk och överför deras inlärda representationer genom finjustering [3] till segmenteringsuppgiften. Vi definierar sedan en skippa arkitektur som kombinerar semantisk information från ett djupt, grovt lager med utseende information från ett grunt, fint lager för att producera exakta och detaljerade segmenteringar. Vårt helt konvolutionella nätverk uppnår toppmodern segmentering av PASCAL VOC (20 % relativ förbättring till 62,2 % genomsnittlig IE 2012), NYUDv2 och SIFT Flow, medan slutsatsen tar mindre än en femtedel av en sekund för en typisk bild. 3431 978-1-4673-6964-0/15/$31.00 ©2015 IEEE
|
Bildsegmentering Den semantiska segmenteringsuppgiften fokuserar på bakgrundsscener och är baserad på helt konvolutionella nätverk (FCNs) REF.
| 56,507,745 |
Fully convolutional networks for semantic segmentation
|
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
| 14,417 |
Vi presenterar märkta elever i det vilda (LPW), en ny datauppsättning av 66 högkvalitativa, snabba ögonregionvideor för utveckling och utvärdering av elev detektionsalgoritmer. Videorna i vår datauppsättning spelades in från 22 deltagare på vardagliga platser på cirka 95 FPS med hjälp av en toppmodern mörk-pupil huvudmonterad ögonspårare. De täcker människor med olika etniciteter, en mångfald av vardagliga inomhus- och utomhusbelysningsmiljöer, samt naturliga fördelningar av blickens riktningar. I datasetet ingår också deltagare som bär glasögon, kontaktlinser samt smink. Vi jämför fem toppmoderna elev detektionsalgoritmer på vår datauppsättning med avseende på robusthet och noggrannhet. Vi studerar vidare påverkan av bildupplösning, synhjälpmedel, samt inspelningsplats (inomhus, utomhus) på pupillens detektionsprestanda. Våra utvärderingar ger värdefulla insikter i det allmänna problemet med elevdetektering och gör det möjligt för oss att identifiera viktiga utmaningar för robust elevdetektering på huvudmonterade ögonspårare.
|
Märkta elever i det vilda (LPW) är det enda analyserade datasetet REF som tillhandahåller videosekvenser.
| 16,256,100 |
Labeled pupils in the wild: A dataset for studying pupil detection in unconstrained environments
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,418 |
....................................... Viktade regnbågslådor som visar antibiotika tillgängliga för behandling av cystit hos vuxna med risk för komplikationer, och nackdelarna med varje läkemedel. De 10 tillgängliga antibiotikaläkemedel visas i kolumner, och de 6 nackdelar de kan presentera representeras av rektangulära röda lådor. Varje låda täcker kolumnerna som motsvarar de antibiotika som har nackdelen, och antibiotika beställdes för att begränsa "hål" i lådorna. Här finns ett enda hål (i kolumnen "ceftriaxone"). Höjden på en låda är proportionell mot betydelsen av motsvarande nackdel, vilket gör det möjligt att beräkna en poäng för varje läkemedel, genom att visuellt summera höjden av lådor staplade i läkemedlets kolumn. Här betyder lägre poäng bättre antibiotika, alltså är nitrofurantoin den bästa behandlingen. Abstract-I detta papper föreslår vi en teknik för att översätta visuellt resonemang av en perceptron. Den artificiella neuronen, eller perceptron, är en förenklad modell av en biologisk neuron. Den kan uppnå ett enkelt resonemang och lösa linjärt åtskilda problem. Trots sin begränsade tankeförmåga räcker det med att ta itu med flera verkliga problem. Den föreslagna tekniken är baserad på regnbåge lådor, en teknik för överlappande uppsättning visualisering, som har applicerats på ingång vektorer av perceptron. Vi förlängde denna teknik, vilket ledde till viktade regnbågslådor. Det kan visualisera flera ingångsvektorer och utgångsvärden för en enda perceptron. Vi tillämpade detta tillvägagångssätt för beslutsstöd i antibioterapi, för bestämning av det lämpligaste antibiotikumet vid urinvägsinfektioner, genom att ta hänsyn till egenskaperna hos varje läkemedel (t.ex. effekt, risk för biverkningar etc.). Slutligen visade en användarstudie med 11 läkare att de flesta av dem tyckte att visualiseringen var intressant och lätt att läsa.
|
I ett tidigare arbete REF introducerade vi användningen av viktade regnbågslådor, en typad visualiseringsteknik, för att trans-lating visuellt resonemang av en enda perceptron.
| 13,778,926 |
Translating Visually the Reasoning of a Perceptron: The Weighted Rainbow Boxes Technique and an Application in Antibiotherapy
|
{'venue': '2017 21st International Conference Information Visualisation (IV)', 'journal': '2017 21st International Conference Information Visualisation (IV)', 'mag_field_of_study': ['Computer Science']}
| 14,419 |
Information utvinning tekniker skapar automatiskt strukturerade databaser från ostrukturerade datakällor, såsom webben eller newswire-dokument. Trots dessa systems framgångar kommer noggrannheten alltid att vara ofullkomlig. Av många skäl är det mycket önskvärt att exakt uppskatta det förtroende systemet har för korrektheten i varje extraherat fält. Det informationsextraheringssystem vi utvärderar är baserat på ett linjär-kedje villkorat slumpmässigt fält (CRF), en probabilistisk modell som har utfört bra på informationsextrahering uppgifter på grund av sin förmåga att fånga godtyckliga, överlappande funktioner av indata i en Markov modell. Vi implementerar flera tekniker för att uppskatta förtroendet för både extraherade fält och hela multi-field poster, få en genomsnittlig precision på 98% för att hämta korrekta fält och 87% för multi-field poster.
|
REF studerar problemet med förtroendeuppskattning i ett system för informationsextraktion baserat på villkorade slumpmässiga fält med linjär kedja.
| 6,715,557 |
Confidence Estimation For Information Extraction
|
{'venue': 'Human Language Technology Conference And Meeting Of The North American Association For Computational Linguistics - Short Papers', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,420 |
Abstrakt. En allmänt använd metod för att uppnå servicenivåmål för ett programvarusystem (t.ex. en e-postserver) är att lägga till en styrenhet som manipulerar målsystemets inställningsparametrar. Vi beskriver en metod för att utforma sådana regulatorer för programvarusystem som bygger på klassisk styrteori. Den klassiska metoden fortskrider i två steg: systemidenti®cation och controller design. I systemidenti®cation konstruerar vi matematiska modeller av målsystemet. Traditionellt har detta baserats på en ®rst-principer strategi, med hjälp av detaljerad kunskap om målsystemet. Sådana modeller kan vara komplexa och dif®cult att bygga, validera, använda och underhålla. I vår metodologi är en statistisk (ARMA) modell ®t till historiska mätningar av det mål som kontrolleras. Dessa modeller är lättare att få fram och använda och tillåter oss att tillämpa styrteoretiska designtekniker på en större klass av system. När vi applicerar på en Lotus Notes grupprogramserver får vi modell-®ts med R 2 inte lägre än 75% och så hög som 98%. I controller design leder en analys av modellerna till en controller som kommer att uppnå målen servicenivå. Vi rapporterar om en analys av ett slutet kretslopp med hjälp av en integrerad kontrolllag med Lotus Notes som mål. Syftet är att upprätthålla en referenskölängd. Med hjälp av root-locus analys från kontrollteorin, kan vi förutsäga förekomsten (eller frånvaron) av regulator-inducerad svängningar i systemets svar. Sådana svängningar är inte önskvärda eftersom de ökar variabiliteten, vilket leder till att målet för servicenivån inte uppnås. Vi implementerar denna controller för en riktig Lotus Notes system, och observera en anmärkningsvärd korrespondens mellan beteendet hos det verkliga systemet och förutsägelserna av analysen. Detta indikerar att kontrollteoretisk analys är lämplig för att välja regulatorparametrar som uppfyller de önskade målen, och behovet av simuleringar minskar.
|
De flesta metoder använder historiska mätningar och minst-kvarts regression för att uppskatta parametrarna för systemkomponenter REF.
| 1,229,665 |
Using Control Theory to Achieve Service Level Objectives In Performance Management
|
{'venue': 'Real-Time Systems', 'journal': 'Real-Time Systems', 'mag_field_of_study': ['Computer Science']}
| 14,421 |
En vanlig form av sarkasm på Twitter består av en positiv känsla som kontrasteras med en negativ situation. Till exempel, många sarkastiska tweets inkluderar en positiv känsla, såsom "kärlek" eller "glädje", följt av ett uttryck som beskriver en oönskad aktivitet eller stat (t.ex., "ta examen" eller "bli ignorerad"). Vi har utvecklat en sarkasmkännare för att identifiera denna typ av sarkasm i tweets. Vi presenterar en ny bootstrapp algoritm som automatiskt lär sig listor över positiva känslofraser och negativa situation fraser från sarkastiska tweets. Vi visar att identifiera kontrasterande sammanhang med hjälp av de fraser som lärts genom bootstrappning ger bättre återkallande för sarkasm erkännande.
|
REF använde förekomsten av en positiv känsla i nära anslutning till en negativ situation fras som ett inslag för sarkasm upptäckt.
| 10,168,779 |
Sarcasm as Contrast between a Positive Sentiment and Negative Situation
|
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,422 |
Djupa neurala nätverk tränas vanligen med hjälp av stokastiska icke-konvexa optimeringsprocedurer, som drivs av gradient information uppskattas på fraktioner (batcher) av datasetet. Även om det är allmänt accepterat att batchstorlek är en viktig parameter för offline tuning, fördelarna med online-val av batch fortfarande dåligt förstådd. Vi undersöker online batch urvalsstrategier för två state-of-the-art metoder för stokastisk lutning-baserad optimering, AdaDelta och Adam. Eftersom den förlustfunktion som ska minimeras för hela datasetet är en aggregering av förlustfunktioner för enskilda datapunkter, bör intuitivt datapunkter med störst förlust beaktas (väljs i ett parti) oftare. Men begränsningarna i denna intuition och den rätta kontrollen av urvalstrycket över tiden är öppna frågor. Vi föreslår en enkel strategi där alla datapunkter rankas w.r.t. Deras senaste kända förlustvärde och sannolikheten att bli vald sönderfaller exponentiellt som en funktion av rang. Våra experimentella resultat på MNIST datasetet tyder på att valet av satser påskyndar både AdaDelta och Adam med en faktor på ca 5.
|
Till exempel, i REF ), en enkel batch urvalsstrategi baserad på förlust värden av utbildningsdata föreslås för att påskynda neurala nätverk utbildning.
| 5,324,823 |
Online Batch Selection for Faster Training of Neural Networks
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,423 |
Vi använder flerlagers Long Short Term Memory (LSTM) nätverk för att lära sig representationer av videosekvenser. Vår modell använder en kodare LSTM för att kartlägga en ingångssekvens till en fast längd representation. Denna representation avkodas med hjälp av en eller flera dekoder LSTM:er för att utföra olika uppgifter, såsom att rekonstruera inmatningssekvensen, eller att förutsäga den framtida sekvensen. Vi experimenterar med två typer av ingångssekvenser -patcher av bild pixlar och hög nivå representationer ("percepts") av videoramar extraheras med hjälp av en pretraherad convolutional nät. Vi utforskar olika designval såsom om dekoder LSTMs bör villkora den genererade produktionen. Vi analyserar resultaten av modellen kvalitativt för att se hur väl modellen kan extrapolera den lärda video representationen in i framtiden och in i det förflutna. Vi försöker visualisera och tolka de inlärda dragen. Vi stress testar modellen genom att köra den på längre tidsskalor och på out-of-domain data. Vi utvärderar vidare representationerna genom att finjustera dem för ett övervakat inlärningsproblemhumana åtgärder erkännande på UCF-101 och HMDB-51 dataset. Vi visar att representationerna bidrar till att förbättra klassificeringsnoggrannheten, särskilt när det bara finns några exempel på utbildning. Även modeller som är förträngda på orelaterade datauppsättningar (300 timmar YouTube-videor) kan hjälpa till att identifiera åtgärder.
|
Nyligen Srivastava et al. REF utbildar ett återkommande neuralt nätverk på ett kodare-dekoder-sätt för att förutsäga framtida ramar, och visar att den lärda video representation förbättrar åtgärdsigenkänning noggrannhet.
| 11,699,847 |
Unsupervised Learning of Video Representations using LSTMs
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,424 |
Vi överväger problemet med att kombinera rankingresultat från olika källor. I samband med webben, de viktigaste applikationerna inkluderar att bygga meta-sök motorer, kombinera rankningsfunktioner, välja dokument baserat på flera kriterier, och förbättra sökprecisionen genom ordföreningar. Vi d e v elop en uppsättning tekniker för rankningen aggregeringsproblem och jämföra deras prestanda med den av välkända metoder. Ett primärt mål med vårt arbete är att utforma rangordnade aggregeringstekniker som effektivt kan bekämpa \spam," ett allvarligt problem i webbsökningar. Experiment visar att våra metoder är enkla, eektiva och effektiva.
|
Till exempel, Dwork, Kumar, Naor och Sivakumar anser problemet med att kombinera ranking från flera källor i REF.
| 8,393,813 |
Rank aggregation methods for the Web
|
{'venue': "WWW '01", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,425 |
Abstract-Ett viktigt problem i positionsbaserad visuell servoing (PBVS) är att garantera att ett mål kommer att förbli inom synfältet under den tid uppgiften pågår. I detta dokument föreslår vi en dynamisk synkontrollalgoritm som, med tanke på kamerans parametriserade bana, avgör om ett godtyckligt 3D-mål kommer att förbli inom synfältet. Vi omformulerar detta problem som problemet med att avgöra om 3D-koordinaterna för målet kolliderar med den frustum som bildas av kamerafältet under kamerabanan. För att lösa detta problem beräknar och jämför vår algoritm det kortaste avståndet mellan målet och frostum med längden på den bana som beskrivs av målet i kamerans koordinatram. Dessutom visar vi att vår algoritm kan kombineras med banplaneringsalgoritmer och i synnerhet probabilistiska färdplaner (PRM). Resultat tyder på att vår algoritm är beräkningseffektiv även när målet rör sig i närheten av bildgränser. I simuleringar använder vi vår dynamiska synkontrollalgoritm tillsammans med en PRM för att planera kollisionsfria vägar samtidigt som vi garanterar att ett specifikt mål inte lämnar synfältet.
|
Leonard, Croft & Little REF föreslår ett system som säkerställer att ett mål förblir inom en sensors synfält för alla rörelser i en PRM.
| 10,664,913 |
Dynamic visibility checking for vision-based motion planning
|
{'venue': '2008 IEEE International Conference on Robotics and Automation', 'journal': '2008 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Computer Science']}
| 14,426 |
Abstract-Vi presenterar en algoritm som ger den endimensionella subrymden, där Bayes fel minimeras för C-klassen problem med homoscedestic Gaussian distributioner. Vårt huvudresultat visar att uppsättningen möjliga endimensionella utrymmen v, för vilka ordningen för den projicerade klassen innebär är identisk, definierar en konvex region med tillhörande konvex Bayes felfunktion gðv. Detta möjliggör minimering av felfunktionen med hjälp av vanliga konvexa optimeringsalgoritmer. Vår algoritm utvidgas sedan till att minimera Bayes fel i det mer allmänna fallet av heteroscedastiska distributioner. Detta görs med hjälp av en lämplig kärnkartläggningsfunktion. Detta resultat utvidgas ytterligare för att få den d-dimensionella lösningen för någon given d genom att iterativt tillämpa vår algoritm på nollutrymmet för ðd À 1-dimensionell lösning. Vi visar också hur detta resultat kan användas för att förbättra resultaten som tillhandahålls av befintliga algoritmer och härleda en låg beräkningskostnad, linjär approximation. Omfattande experimentella valideringar tillhandahålls för att demonstrera användningen av dessa algoritmer i klassificering, dataanalys och visualisering.
|
Mer nyligen föreslås en algoritm som beräknar den endimensionella subrymden där Bayes fel minimeras för flerklassiga problem med homoscedestiska datadistributioner REF.
| 13,300,827 |
Bayes Optimality in Linear Discriminant Analysis
|
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']}
| 14,427 |
Den breda tillgången på flerkärniga råvarusystem ger en möjlighet att ta itu med de latensproblem som har plackat XML-frågebehandling. Men, helt enkelt köra flera XML-frågor över flera kärnor bara adresser genomströmningsfrågan: intra-query parallellisering behövs för att utnyttja flera bearbetningskärnor för bättre latens. Mot denna ansträngning undersöker detta dokument parallelliseringen av enskilda XPath-frågor över delad adress utrymme multi-core processorer. Mycket tidigare arbete med att parallellisera XPath i en distribuerad miljö misslyckades med att utnyttja den delade minnesparallalismen i flerkärniga system. Vi föreslår en ny, end-to-end parallellization ram som bestämmer det optimala sättet att parallellisera en XML-fråga. Detta beslut bygger på en statistikbaserad metod som bygger både på frågedetaljerna och på datastatistiken. I varje skede av parallelliseringsprocessen utvärderar vi tre alternativa tillvägagångssätt, nämligen data-, fråge- och hybriddelning. För en given XPath-fråga använder vår parallelliseringsalgoritm XML-statistik för att uppskatta den relativa effektiviteten hos dessa olika alternativ och hitta en optimal parallell XPath-behandlingsplan. Våra experiment med välkända XML-dokument validerar vår parallella kostnadsmodell och optimeringsram, och visar att det är möjligt att påskynda XPath-behandling med hjälp av flerkärniga råvarusystem.
|
De studerade av sig själva om sofistikering av frågesplit strategier baserat på statistiken i ett visst dokument REF.
| 15,249,365 |
Statistics-based parallelization of XPath queries in shared memory systems
|
{'venue': "EDBT '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,428 |
Prestandan hos ansiktsdetektorer har till stor del förbättrats med utvecklingen av konvolutionella neurala nätverk. Det är dock fortfarande svårt för ansiktsdetektorer att upptäcka små, tilltäppta eller suddiga ansikten. Dessutom kan de flesta ansiktsdetektorer inte lokalisera ansikten exakt och inte uppnå höga Intersection-over-Union (IoU) poäng. Vi antar att problem inuti är otillräcklig användning av tillsynsinformation och obalans mellan semantik och detaljer på alla nivåer funktionskartor i CNN även med Feature Pyramid Networks (FPN) [15]. I detta dokument presenterar vi ett nytt engångsnätverk för ansiktsdetektering, DF 2 S 2 (Detection with Feature Fusion and Segmentation Supervision), som introducerar en effektivare funktionspyramid och en effektivare segmenteringsgren på ResNet-50 [10] för att hantera nämnda problem. Specifikt, inspirerat av FPN och SENet [11], tillämpar vi semantisk information från högre nivå funktionskartor som kontextuella signaler för att öka låg nivå funktionskartor via en rumslig och kanalvis uppmärksamhet stil, förhindra detaljer från att täckas av för mycket semantik och göra semantik och detaljer kompletterar varandra. Vi föreslår vidare en semantisk segmentering gren för att bäst utnyttja detektion övervakning information under tiden tillämpa uppmärksamhet mekanism på ett självövervakat sätt. Segmenteringsgrenen övervakas av svag segmentering mark-sanning (ingen extra annotering krävs) på ett hierarkiskt sätt, deprecated in the inference time så att det inte skulle äventyra inferencehastigheten. Vi utvärderar vår modell på WIDER FACE [32] dataset och uppnådda toppmoderna resultat.
|
DFS REF introducerar en effektivare fusionspyramid och en effektivare segmenteringsgren för att hantera hårda ansikten.
| 53,739,538 |
Learning Better Features for Face Detection with Feature Fusion and Segmentation Supervision
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,429 |
Erkännandet av aktiviteter i det dagliga livet är ett viktigt forskningsområde som varit av intresse under de senaste åren. Processen för aktivitetsigenkänning syftar till att känna igen åtgärder av en eller flera människor i en smart miljö, där en uppsättning sensorer har satts in. Vanligtvis beaktas alla händelser som uppstår under varje aktivitet för att utveckla klassificeringsmodellerna. Det ögonblick då en aktivitet startade är dock okänt i en verklig miljö. Därför är det bara de senaste händelserna som vanligtvis används. I detta dokument använder vi statistik för att bestämma den lämpligaste längden av detta intervall för varje typ av aktivitet. Dessutom använder vi ontologier för att automatiskt generera funktioner som fungerar som indata för de övervakade inlärningsalgoritmer som producerar klassificeringsmodellen. Funktionerna bildas genom att kombinera enheterna i ontologin, såsom begrepp och egenskaper. De erhållna resultaten visar en betydande ökning av noggrannheten hos de klassificeringsmodeller som genereras med avseende på den klassiska metoden, där endast sensorernas tillstånd beaktas. Dessutom visar resultaten från en simulering av en verklig miljö under en händelsebaserad segmentering också en förbättring av de flesta aktiviteter.
|
Salguero m.fl. REF använder ontologier för att automatiskt generera indata för övervakade inlärningsalgoritmer för att ta fram en klassificeringsmodell för erkännande av aktiviteter i det dagliga livet.
| 4,902,496 |
Using Ontologies for the Online Recognition of Activities of Daily Living†
|
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Engineering', 'Computer Science']}
| 14,430 |
Konvolutionella neurala nätverk definierar en exceptionellt kraftfull klass av modeller, men begränsas fortfarande av bristen på förmåga att vara rumsligt invariant till inmatningsdata på ett beräknings- och parametereffektivt sätt. I detta arbete introducerar vi en ny inlärningsbar modul, den rumsliga Transformer, som uttryckligen tillåter rumslig manipulation av data inom nätverket. Denna differentierade modul kan infogas i befintliga konvolutionella arkitekturer, vilket ger neurala nätverk förmågan att aktivt rumsligt omvandla funktionskartor, beroende på själva funktionen karta, utan någon extra utbildning övervakning eller modifiering av optimeringsprocessen. Vi visar att användningen av rumsliga transformatorer resulterar i modeller som lär sig variation till översättning, skala, rotation och mer generisk förvrängning, vilket resulterar i state-of-the-art prestanda på flera riktmärken, och för ett antal klasser av transformationer.
|
I REF presenterar författarna den rumsliga transformer, ett differentierat lager som ingår i en konvolutionell arkitektur för att lära sig affine transformationer från funktionskartorna.
| 6,099,034 |
Spatial Transformer Networks
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,431 |
För att stödja massivt antal parallella trådkontexter använder Graphics Processing Units (GPU) en enorm registerfil, som ansvarar för en stor del av GPU:s totala kraft och area. Den konventionella uppfattningen är att en stor registerfil är oundviklig för att ta emot mer parallella trådkontexter, och teknikskalning gör det möjligt att införliva allt större registerfil. I det här dokumentet visar vi att registrets filstorlek inte behöver vara stor för att rymma fler trådar sammanhang. Vi karakteriserar först den användbara livslängden för ett register och visar att registerlivslängderna varierar drastiskt mellan olika register som tilldelas en kärna. Medan vissa register är vid liv under hela den tid kärnutförandet pågår, har vissa register en kort livslängd. Vi föreslår GPU-registerfilvirtualisering som tillåter flera warps att dela fysiska register. Eftersom warps kan vara planerade för utförande vid olika tidpunkter, föreslår vi att proaktivt släppa döda register från en warp och återallokera dem till en annan warp som kan inträffa senare i tiden, vilket minskar den onödiga efterfrågan på fysiska register. Genom att använda registervirtualisering krymper vi det arkitektiserade registerutrymmet till ett mindre fysiskt registerutrymme. Genom att underprovisionera den fysiska registerfilen att vara mindre än den arkitektiserade registerfilen minskar vi dynamisk och statisk strömförbrukning. Vi utvecklar sedan en ny register throttling mekanism för att köra ansökningar som överstiger storleken på den underfördelade registerfilen utan dödläge. Vår utvärdering visar att även efter halvering av den arkitektiserade registerfilstorleken med hjälp av våra föreslagna GPU-registerfilvirtualiseringsprogram körs framgångsrikt med försumbar prestanda overhead. Tillstånd att göra digitala eller papperskopior av hela eller delar av detta arbete för personligt bruk eller klassrum beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar och att kopiorna är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, eller återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. Begär tillstånd från [email protected]. MICRO-48 december 05-09, 2015, Waikiki, HI USA Copyright 2015 ACM ISBN 978-1-4503-4034-2/15/12$15.00
|
GPU register filhantering: Genom registret livstid analys, Jeon et al. REF föreslår en mekanism för registerfilvirtualisering som dynamiskt kan frigöra döda register från en warp och fördela dem till en annan warp för att minska registrets filkapacitet.
| 9,032,283 |
GPU register file virtualization
|
{'venue': 'MICRO-48', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,432 |
Traditionella ultradense trådlösa nätverk rekommenderas som ett komplement för cellulära nätverk och är utplacerade i partiella områden, såsom hotspot och inomhusscenarier. Baserat på de massiva multi-input multi-output (MIMO) antenner och millimetervåg kommunikation teknik, 5G ultra-dense cellulära nätverket föreslås att distribuera i övergripande cellulära scenarier. Dessutom presenteras en distributionsnätsarkitektur för 5G ultra-dense cellulära nätverk. Dessutom undersöks den backhaul nätverkskapacitet och backhaul energieffektivitet ultra-dense cellulära nätverk för att svara på en viktig fråga, dvs. hur mycket förtätning kan användas för 5G ultra-dense cellulära nätverk. Simuleringsresultat visar att det finns gränser för förtätning för 5G ultra-dense cellualr nätverk med backhaul nätverkskapacitet och backhaul energieffektivitet begränsningar. Skickad till IEEE Wireless Communications.
|
I REF undersöktes en densitetströskel för små celler i ultratäta cellulära nätverk med tanke på backhaul-nätverkskapaciteten och EE.
| 5,972,986 |
5G Ultra-Dense Cellular Networks
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,433 |
I detta papper introducerar vi en ny Random Forest (RF) induktionsalgoritm som kallas Dynamic Random Forest (DRF) som bygger på en adaptiv trädinduktionsprocedur. Huvudidén är att vägleda trädinduktionen så att varje träd kommer att komplettera så mycket som möjligt de befintliga träden i ensemblen. Detta görs här genom en omsampling av träningsdata, inspirerad av att öka algoritmer, och kombineras med andra randomiseringsprocesser som används i traditionella RF-metoder. DRF-algoritmen visar en betydande förbättring i fråga om noggrannhet jämfört med standard statisk RF-induktionsalgoritm.
|
Random Forest algoritm som är baserad på en adaptiv träd induktion förfarande REF.
| 7,756,671 |
Dynamic Random Forests
|
{'venue': 'Pattern Recognit. Lett.', 'journal': 'Pattern Recognit. Lett.', 'mag_field_of_study': ['Computer Science']}
| 14,435 |
Abstract-I detta dokument föreslår vi en effektiv algoritm, kallas vektor fält konsensus, för att etablera robust punktkorrespondenser mellan två uppsättningar av punkter. Vår algoritm börjar med att skapa en uppsättning putativa korrespondenser som kan innehålla ett mycket stort antal falska korrespondenser, eller avvikelser, utöver ett begränsat antal sanna korrespondenser (inliers). Därefter löser vi för korrespondens genom att interpolera ett vektorfält mellan de två punktuppsättningarna, vilket innebär att uppskatta en konsensus av inlier punkter vars matchning följer en icke-parametrisk geometrisk begränsning. Vi formulerar detta en maximal efterhandsuppskattning (MAP) av en Bayesian modell med dolda/latenta variabler som anger om matchningar i den putativa uppsättningen är avvikande eller inliers. Vi inför icke-parametriska geometriska begränsningar på korrespondensen, som en tidigare distribution, med hjälp av Tichonov regularizers i en reproducerande kärna Hilbert utrymme. MAP uppskattning utförs av EM algoritm som genom att också uppskatta variansen av den tidigare modellen (initierad till ett stort värde) kan få bra uppskattningar mycket snabbt (t.ex., undvika många av de lokala minima som ingår i denna formulering). Vi illustrerar denna metod på datamängder i 2D och 3D och visar att den är robust för ett mycket stort antal avvikelser (till och med upp till 90 %). Vi visar också att i specialfallet där det finns en underliggande parametrisk geometrisk modell (t.ex. den epipolära linjerestriktionen) att vi får bättre resultat än standardalternativ som RANSAC om ett stort antal avvikelser finns. Detta tyder på en tvåstegsstrategi, där vi använder vår icke-parametriska modell för att minska storleken på den putativa uppsättningen och sedan tillämpa en parametrisk variant av vårt tillvägagångssätt för att uppskatta de geometriska parametrarna. Vår algoritm är beräkningseffektiv och vi tillhandahåller kod för andra att använda den. Dessutom är vårt tillvägagångssätt allmänt och kan tillämpas på andra problem, till exempel inlärning med en dåligt korrumperad uppsättning utbildningsdata.
|
Mamma och Al. I REF föreslogs en algoritm för icke-parametrisk vektorfältssamsyn för att fastställa en robust överensstämmelse mellan två uppsättningar punkter.
| 15,550,132 |
Robust Point Matching via Vector Field Consensus
|
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']}
| 14,436 |
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
|
I Snabbare R-CNN REF genereras den föreslagna begränsande rutan av ett regionalt förslagsnätverk (RPN), och därför kan hela ramverket utbildas i allmänhet.
| 10,328,909 |
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
|
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 14,437 |
Journalbilder utgör en viktig del av den kunskap som finns lagrad i den medicinska litteraturen. Bildklassificeringen har fått stor uppmärksamhet eftersom informationen om bildtyperna kan användas i olika sammanhang för att fokusera bildsökningen och filtrera bort oönskade uppgifter eller "buller", till exempel icke-kliniska bilder. Ett stort problem i figurklassificeringen är det faktum att många siffror i den biomedicinska litteraturen är sammansatta siffror och ofta innehåller mer än en figurtyp. Vissa tidskrifter separerar sammansatta figurer i flera delar, men många gör det inte, vilket kräver för närvarande manuell separation. I detta arbete föreslås och genomförs en teknik för sammansatt figurseparation baserad på systematisk detektering och analys av enhetliga rymdluckor. Den metod som diskuteras i denna artikel utvärderas på en datauppsättning av tidskriftssiffror i open access-litteraturen som skapades för ImageCLEF 2012-riktmärket och innehåller cirka 3000 sammansatta siffror. Automatiska verktyg kan lätt nå en relativt hög noggrannhet i att separera sammansatta figurer. För att ytterligare öka noggrannheten krävs insatser för att förbättra detektionsprocessen samt för att undvika överseparation med kraftfulla analysstrategier. Verktygen i denna artikel har också testats på en databas med cirka 150'000 sammansatta figurer från den biomedicinska litteraturen, vilket gör dessa bilder tillgängliga som separata figurer för ytterligare bildanalys och gör det möjligt att filtrera viktig information från dem.
|
I dokumentet REF presenteras en teknik för sammansatt bildseparation.
| 55,651,989 |
Separating compound figures in journal articles to allow for subfigure classification
|
{'venue': 'Medical Imaging', 'journal': None, 'mag_field_of_study': ['Engineering', 'Physics', 'Computer Science']}
| 14,438 |
Flerbehandlingsarkitekturer tillhandahåller hårdvara för att utföra flera uppgifter samtidigt via tekniker som simultan multitrådning och symmetrisk multibearbetning. Det problem som behandlas i detta dokument är att även om uppgifter som utförs samtidigt inte kommunicerar, kan de påverka varandras timing. För cyberfysiska systemapplikationer kan sådana störningar upphäva många av de fördelar som parallell hårdvara erbjuder och kan komplicera syntesen av programvara från modeller enormt. I detta dokument undersöks vilka förändringar som behöver göras på lägre abstraktionsnivåer för att stödja tidsisolering för effektiv programvarusyntes. Vi diskuterar tekniker på mikroarkitekturnivå, i minneshierarkin, i on-chip kommunikation, och i den instruktionsuppsättning arkitektur som kan underlätta timlig isolering. Tillstånd att göra digitala eller papperskopior av hela eller delar av detta arbete för personligt bruk eller klassrum beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar och att kopiorna är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. DAC '11 juni 5-10, 2011, San Diego, Kalifornien, USA Copyright 2011 ACM 978-1-4503-0636-2/11/06...$10.00. Kategorier och ämnesdeskriptorer Allmänna villkor Design Precisionstidsarkitekturer, PET-maskiner, mikroarkitektur, rörledningar, minneshierarki, nätverk på chip, instruktionsuppsättning arkitektur Ett cyberfysiskt system (CPS) använder inbyggda datorer för att övervaka och styra fysiska processer [8]. Dessa system är vanligtvis i återkoppling slingor sådan att de fysiska processerna påverkar beteendet hos beräkningen, och vice versa. Lägg märke till två viktiga aspekter av fysiska processer: de är i sig samtidiga, och tiden i fysiska processer fortskrider i sin egen takt; tiden är okontrollerbar. Därför, för att kontrollera fysiska processer, inbäddade datorer måste ge stöd för samtidiga beteenden och snabba reaktioner. Moderna inbyggda datorarkitekturer blir allt mer parallella med hjälp av multiprocessorteknik som multicores och simultan multitrådning (SMT). Dessa parallella arkitekturer ger högre prestanda och tillgodoser också behovet av samstämmighet. Att se till att realtidskraven uppfylls är dock en utmaning i sådana arkitekturer. Ett stort problem är att multiprocessing tekniker kan införa temporal interferens även mellan logiskt oberoende beteenden. Till exempel i en flerkärnig maskin med delade cacheminnen kan processer som körs på en kärna påverka tidpunkten för processer på en annan kärna även när det inte finns någon kommunikation mellan dessa processer. På samma sätt delar SMT [4] en omfattande superskalarrörledning över flera hårdvarugängor med instruktioner som skickas ut med hjälp av scoreboaringmekanismer. Detta gör det möjligt för trådar att uppta mer rörledning resurser när andra trådar är tomgång eller stoppas för lång latens verksamhet. Detta resulterar i temporal interferens mellan trådarna på grund av tvist om rörledningsresurser. 1 Dessutom använder symmetrisk multiprocessing (SMP) tekniker flera bearbetningsenheter som är anslutna till en 1 Flera forskargrupper har infört sätt att minska temporal interferens i SMTs genom att tilldela en realtidsgänga med högsta prioritet [2], tidsdelning i realtid tråd [12], och partitionering instruktionscache [11].
|
Bui m.fl. REF strävar efter tidsisoleringen bland flera processer genom vissa förändringar som införs på mikroarkitektursnivå, minnesarkitekturen, nätverks-på-chipet och instruktionsuppsättningens arkitektur.
| 149,652 |
Temporal isolation on multiprocessing architectures
|
{'venue': "DAC '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,439 |
Abstrakt. I den här artikeln presenterar vi en enkel men ändå snabb och robust algoritm som utnyttjar det täta spatio-temporala sammanhanget för visuell spårning. Vår strategi formulerar de spatio-temporala sambanden mellan objektet av intresse och dess lokalt täta sammanhang i en Bayesian ram, som modellerar den statistiska korrelationen mellan enkla låg nivå funktioner (dvs. bildintensitet och position) från målet och dess omgivande regioner. Spårningsproblemet uppstår då genom att man beräknar en förtroendekarta som tar hänsyn till förhandsinformationen om målplatsen och därigenom på ett effektivt sätt minskar tvetydigheten i målplatsen. Vi föreslår också ett nytt explicit anpassningssystem, som kan hantera variationer i målskalan på ett effektivt och ändamålsenligt sätt. Fast Fourier Transform (FFT) används för snabb inlärning och upptäckt i detta arbete, som bara behöver 4 FFT-operationer. Implementeras i MATLAB utan kodoptimering, den föreslagna tracker körs på 350 ramar per sekund på en i7-maskin. Omfattande experimentella resultat visar att den föreslagna algoritmen presterar gynnsamt mot toppmoderna metoder när det gäller effektivitet, noggrannhet och robusthet.
|
Dessutom Zhang, etc. föreslagna STC modell som formulerar spatio-temporala relationer mellan det intresserade objektet och dess lokalt täta sammanhang i Bayesian ram för att lösa mål tvetydighet effektivt REF.
| 8,861,891 |
Fast Visual Tracking via Dense Spatio-Temporal Context Learning
|
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,440 |
Abstract-Drunk körning, eller officiellt Köra Under In fluence (DUI) av alkohol, är en viktig orsak till trafikolyckor över hela världen. I detta dokument föreslår vi ett mycket effektivt system som syftar till tidig upptäckt och varning av farliga fordonsmanövrer som vanligtvis är relaterade till rattfylleri. Hela lösningen kräver endast en mobiltelefon placerad i fordonet och med accelerometer och orienteringssensor. Ett program installerat på mobiltelefonen beräknar accelerationer baserat på sensoravläsningar, och jämför dem med typiska rattfylleri mönster extraherade från verkliga körprov. När det finns bevis för rattfylleri kommer mobiltelefonen automatiskt att varna föraren eller ringa polisen för hjälp långt innan olyckan faktiskt inträffar. Vi implementerar detektionssystemet på Android G 1 telefon och har det testat med olika typer av körbeteenden. Resultaten visar att systemet uppnår hög noggrannhet och energieffektivitet.
|
Dai och kollegor REF föreslår en Android-applikation som syftar till realtidsdetektering och varning för farliga körhändelser som vanligtvis är relaterade till körning under påverkan (DUI) av alkohol.
| 12,468,103 |
Mobile phone based drunk driving detection
|
{'venue': '2010 4th International Conference on Pervasive Computing Technologies for Healthcare', 'journal': '2010 4th International Conference on Pervasive Computing Technologies for Healthcare', 'mag_field_of_study': ['Computer Science']}
| 14,441 |
Byggnader står för 40 % av den globala energianvändningen och bidrar till 30 % av de totala koldioxidutsläppen. Strävan efter att minska energianvändningen och de tillhörande utsläppen av växthusgaser från byggnader har fungerat som en katalysator i utvecklingen av avancerade beräkningsmetoder för energieffektiv design, förvaltning och styrning av byggnader och system. Värme-, ventilations- och luftkonditioneringssystem (HVAC) är den största källan till energiförbrukning i byggnader och idealiska kandidater för betydande minskningar av energiefterfrågan. Betydande framsteg har gjorts under de senaste årtiondena när det gäller tillämpningen av dataintelligenstekniker (CI) för HVAC-konstruktion, styrning, hantering, optimering och feldetektering och diagnos. I denna artikel presenteras en omfattande och kritisk granskning av teori och tillämpning av CI-teknik för förutsägelse, optimering, styrning och diagnos av HVAC-system. Analysen av trender visar att minimeringen av energiförbrukningen var det viktigaste optimeringsmålet i den granskade forskningen, tätt följt av optimering av värmekomfort, inomhusluftens kvalitet och passagerarpreferenser. Hardcoded Matlab-programmet var det mest använda simuleringsverktyget, följt av TRNSYS, EnergyPlus, DOE-2, HVACSim+ och ESP-r. Metaheuristiska algoritmer var den föredragna CI-metoden för att lösa HVAC-relaterade problem och i synnerhet genetiska algoritmer tillämpades i de flesta av studierna. Trots det låga antalet studier som fokuserar på multiagentsystem (MAS), jämfört med andra CI-tekniker, ökar intresset för tekniken på grund av deras förmåga att dela och övervinna ett HVAC-optimeringsproblem med förbättrad prestanda. I dokumentet identifieras också framtida framsteg och forskningsinriktningar.
|
En omfattande översyn av tillämpningen av beräkningsbaserade intelligenstekniker på byggmiljöer finns i REF.
| 4,497,145 |
Computational intelligence techniques for HVAC systems: A review
|
{'venue': None, 'journal': 'Building Simulation', 'mag_field_of_study': ['Engineering']}
| 14,442 |
Abstrakt. Nya psykoaktiva ämnen (NPS) är läkemedel som ligger i ett grått område av lagstiftning, eftersom de inte är internationellt och officiellt förbjudna, eventuellt leder till att de inte kan åtalas. Exacerbationen av fenomenet är att NPS lätt kan säljas och köpas på nätet. Här, vi anser att stora corpora av textinlägg, publiceras på online forum specialiserade på drogdiskussioner, plus en liten uppsättning kända ämnen och tillhörande effekter, som vi kallar frön. Vi föreslår ett halvövervakat tillvägagångssätt för kunskapsutvinning, tillämpat på detektion av läkemedel (bestående av NPS) och effekter från den corpora som undersöks. Baserat på den mycket små uppsättningen ursprungliga frön belyser arbetet hur ett kontrasterande tillvägagångssätt och kontextavdrag är effektiva när det gäller att upptäcka ämnen och effekter från korporan. Våra lovande resultat, som har en F1-poäng nära 0,9, banar väg för att förkorta detekteringstiden för nya psykoaktiva substanser, när dessa diskuteras och marknadsförs på Internet.
|
I ett tidigare arbete visade författarna hur man kan utnyttja en halvövervakad analysmetod för att upptäcka läkemedel och effekter i stora, domänspecifika textkorpora REF.
| 7,316,710 |
Semi-supervised knowledge extraction for detection of drugs and their effects
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,443 |
Vi föreslår en principiell strategi för att sammanfatta visuella data (bilder eller video) baserat på optimering av en väldefinierad likhetsmått. Problemet vi anser är att omrikta (eller sammanfatta) bild-/videodata i mindre storlekar. En bra "visuell sammanfattning" bör uppfylla två egenskaper: (1) Den bör innehålla så mycket som möjligt visuell information från indata; (2) Den bör införa så få som möjligt nya visuella artefakter som inte fanns i indata (dvs. bevara visuell sammanhållning). Vi föreslår en dubbelriktad likhet åtgärd som kvantitativt fångar dessa två krav: Två signaler S och T anses visuellt liknande om alla fläckar av S (på flera skalor) finns i T, och vice versa. Problemet med summering/omriktning framställs som ett optimeringsproblem för denna dubbelriktade likhetsmått. Vi visar sammanfattande resultat för bild- och videodata. Vi visar vidare att samma tillvägagångssätt kan användas för att ta itu med en mängd andra problem, inklusive automatisk beskärning, slutförande och syntes av visuell data, bildkollage, objektborttagning, fotoomkoppling med mera.
|
Begreppet visuell analogi utforskades i klassiska verk, till exempel i samband med bildre-targeting REF.
| 3,030,063 |
Summarizing visual data using bidirectional similarity
|
{'venue': '2008 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2008 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
| 14,444 |
I detta dokument studeras problemet med att inbädda mycket stora informationsnätverk i lågdimensionella vektorutrymmen, vilket är användbart i många uppgifter som visualisering, nodklassificering och länkförutsägelse. De flesta befintliga grafen inbäddningsmetoder inte skala för verkliga världen informationsnätverk som vanligtvis innehåller miljontals noder. I detta dokument föreslår vi en ny metod för inbäddning av nätverk som kallas "LINE", som är lämplig för godtyckliga typer av informationsnätverk: oriktade, riktade och/eller vägda. Metoden optimerar en noggrant utformad objektiv funktion som bevarar både de lokala och globala nätverksstrukturerna. En edge-sampling algoritm föreslås som tar itu med begränsningen av den klassiska stokastisk lutning nedstigning och förbättrar både effektiviteten och effektiviteten av inferensen. Empiriska experiment visar LINE:s effektivitet i en mängd olika verkliga informationsnätverk, inklusive språknätverk, sociala nätverk och citeringsnätverk. Algoritmen är mycket effektiv, som kan lära sig inbäddning av ett nätverk med miljontals hörn och miljarder kanter på några timmar på en typisk enda maskin. Källkoden för LINE finns tillgänglig på nätet. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
|
Bland dem inbäddade storskaliga informationsnätverk (LINE) REF en vektor till varje nod i informationsnät.
| 8,399,404 |
LINE: Large-scale Information Network Embedding
|
{'venue': "WWW '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,445 |
För att informationen från hyperspektralbilder ska kunna utnyttjas optimalt krävs det att avancerade verktyg för bildbehandling utvecklas. Detta dokument introducerar en ny hierarkisk struktur representation för sådana bilder med hjälp av binära partition träd (BPT). Baserat på metoder för sammanslagning av regioner med hjälp av statistiska mått minskar denna regionbaserade representation antalet elementära primitiver och möjliggör en mer robust filtrering, segmentering, klassificering eller informationshämtning. För att demonstrera BPT kapabiliter diskuterar vi först konstruktionen av BPT inom den specifika ramen för hyperspektral data. Vi föreslår sedan en beskärningsstrategi för att genomföra en klassificering. Märkning av varje BPT-nod med SVM-klassificeringar, ett beskärningsbeslut baserat på en föroreningsåtgärd tas upp. Experimentella resultat på två olika hyperspektraldatauppsättningar har visat de goda resultaten av en BPT-baserad representation
|
Valero m.fl. REF föreslog en regionbaserad hierarkisk representation för hyperspektrala bilder baserade på binärt partitionträd (BPT).
| 10,527,029 |
New hyperspectral data representation using binary partition tree
|
{'venue': '2010 IEEE International Geoscience and Remote Sensing Symposium', 'journal': '2010 IEEE International Geoscience and Remote Sensing Symposium', 'mag_field_of_study': ['Computer Science']}
| 14,446 |
Abstract-En mängd applikationer för mobilanalys i verkliga livet håller på att bli tillgängliga, särskilt inom områdena livslogging, fitness-spårning och hälsoövervakning. Dessa applikationer använder mobila sensorer inbäddade i smarta telefoner för att känna igen mänskliga aktiviteter för att få en bättre förståelse för mänskligt beteende. Framsteg har gjorts, men erkännande av mänsklig verksamhet är fortfarande en utmanande uppgift. Detta beror delvis på det breda utbudet av mänskliga aktiviteter samt på den stora variationen i hur en viss aktivitet kan utföras. Att använda funktioner som tydligt skiljer mellan olika verksamheter är av avgörande betydelse. I detta dokument föreslår vi en strategi för att automatiskt extrahera diskriminerande egenskaper för erkännande av verksamhet. Speciellt utvecklar vi en metod baserad på Convolutional Neural Networks (CNN), som kan fånga lokalt beroende och skala invarians av en signal som det har visat i taligenkänning och bildigenkänning domäner. Dessutom föreslås en modifierad viktdelningsteknik, som kallas partiell viktdelning, och tillämpas på accelerometersignaler för att få ytterligare förbättringar. De experimentella resultaten på tre offentliga dataset, Skoda (montering linje aktiviteter), Opportunity (aktiviteter i köket), Actitracker (jogging, promenader, etc.), indikerar att vår nya CNN-baserade metod är praktisk och ger högre noggrannhet än befintliga toppmoderna metoder.
|
I REF antar författarna ett konvolutionellt neuralt nätverk för att utföra aktivitetsigenkänning med enbart accelerometersignaler.
| 11,151,160 |
Convolutional Neural Networks for human activity recognition using mobile sensors
|
{'venue': '6th International Conference on Mobile Computing, Applications and Services', 'journal': '6th International Conference on Mobile Computing, Applications and Services', 'mag_field_of_study': ['Computer Science']}
| 14,447 |
Abstract-I detta dokument presenterar vi en ny metod, kallad multiview fuzzy questing, som gör det möjligt att fråga ofullständiga, otydliga och heterogent strukturerade data som lagras i en relationsdatabas. Denna metod har implementerats i MIEL-programvaran. MIEL används för att fråga Sym'Previus databas som samlar information om beteendet hos patogena bakterier i livsmedel. I denna databas är uppgifterna ofullständiga eftersom det inte finns någon information om alla tänkbara livsmedelsprodukter och alla möjliga bakterier; uppgifterna är heterogena eftersom de kommer från olika källor (vetenskaplig bibliografi, industridata osv.); uppgifterna kan vara otydliga på grund av komplexiteten i de underliggande biologiska processer som är inblandade. För att hantera heterogenitet frågar MIEL databasen genom flera vyer samtidigt. För att fråga ofullständiga data, MIEL föreslår att använda en suddig uppsättning, som uttrycker användarens frågeinställningar. Fuzzy uppsättningar kan definieras på en hierarkisk domän av värden, kallas en ontologi (värden av domänen är anslutna med hjälp av en typ av semantisk länk). MIEL föreslår också två valfria funktioner för att hjälpa användaren att fråga databasen: i) MIEL kan använda ontologin för att förstora förfrågan för att hämta de närmaste uppgifterna som motsvarar urvalskriterierna; och ii) MIEL föreslår fuzzy completing regler för att hjälpa användaren att formulera sin fråga. För att fråga otydliga data som lagras i databasen med fuzzy urvalskriterier, MIEL använder fuzzy mönster matchning.
|
REF use multi-view fuzzy questing, där fuzzy uppsättningar kan definieras på en hierarkisk domän av värden som kallas ontologi (värden av domänen är anslutna med hjälp av en typ av semantisk länk), för att fråga ofullständiga, oprecisa och heterogent strukturerade data som lagras i en relationsdatabas med fuzzy urvalskriterier.
| 12,614,844 |
Fuzzy querying of incomplete, imprecise, and heterogeneously structured data in the relational model using ontologies and rules
|
{'venue': 'IEEE Transactions on Fuzzy Systems', 'journal': 'IEEE Transactions on Fuzzy Systems', 'mag_field_of_study': ['Computer Science']}
| 14,448 |
På grund av de växande prestandakraven blir inbyggda system allt mer komplexa. Samtidigt förväntas de också vara tillförlitliga. Det är mycket svårt att garantera tillförlitligheten i komplexa system. Följaktligen finns det ett stort behov av konstruktioner som gör det möjligt att använda okontrollerade komponenter som operativsystem i realtid (RTOS) utan att kräva att de är korrekta för att garantera säkerheten. I detta arbete föreslår vi ett nytt tillvägagångssätt för att utforma en styrenhet som gör det möjligt för systemet att starta om och förbli säkert under och efter omstarten. Genom att komplettera denna styrenhet med en kopplingslogik kan systemet använda komplex, okontrollerad styrenhet för att driva systemet så länge det inte äventyrar säkerheten. En sådan design tolererar också fel som uppstår i de underliggande programvarulager som RTOS och middleware och återhämtar sig från dem genom systemnivå omstarter som återinitierar programvaran (mellanprogram, RTOS, och program) från en lässkyddad lagring. Vår strategi är genomförbar med hjälp av en kommersiell off-the-shelf (COTS) bearbetningsenhet. För att visa effektiviteten i vår lösning, implementerar vi helt en controller för en 3 graders frihet (3DOF) helikopter. Vi testar systemet genom att injicera olika typer av fel i applikationerna och RTOS och verifiera att systemet förblir säkert.
|
Annat arbete finns REF där författarna föreslår förfaranden för att utforma en styrenhet (kallas baskontrollant) som gör det möjligt att på ett säkert sätt starta om hela datasystemet vid körtid.
| 7,269,562 |
Application and system-level software fault tolerance through full system restarts
|
{'venue': "ICCPS '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,449 |
Vi tillämpar konvolutionella neurala nätverk (ConvNets) för uppgiften att skilja patologiska från normala EEG-inspelningar på Temple University Hospital EEG Abnormal Corpus. Vi använder två grundläggande, grunda och djupa ConvNet arkitekturer nyligen visat att avkoda uppgiftsrelaterad information från EEG åtminstone samt etablerade algoritmer utformade för detta ändamål. Vid avkodningen av EEG-patologin uppnådde båda ConvNet betydligt bättre noggrannhet (ca 6% bättre, 85% jämfört med 79%) än det enda publicerade resultatet för denna datauppsättning, och var fortfarande bättre när man använde bara 1 minut av varje inspelning för utbildning och bara sex sekunder av varje inspelning för testning. Vi använde automatiserade metoder för att optimera arkitektoniska hyperparametrar och fann spännande olika ConvNet arkitekturer, t.ex., med max pooling som den enda icke-linjäritet. Visualiseringar av ConvNets avkodningsbeteende visade att de använde spektraleffektförändringar i frekvensområdet delta (0-4 Hz) och theta (4-8 Hz), eventuellt tillsammans med andra funktioner, i överensstämmelse med förväntningar från spektralanalys av EEG-data och från de medicinska rapporterna. Analysen av de medicinska rapporterna visade också att det är möjligt att öka noggrannheten genom att integrera kontextuell information, t.ex. försökspersonernas ålder. Sammanfattningsvis utgör ConvNets och visualiseringstekniker som används i denna studie ett nästa steg mot kliniskt användbar automatiserad EEG-diagnos och etablera en ny baslinje för framtida arbete med detta ämne.
|
Bland annat Schirrmeister et al. REF utnyttjade konvolutionella neurala nätverk (CNN) för att skilja patologiska från normala EEG inspelningar och når state-of-the-art prestanda.
| 5,692,066 |
Deep learning with convolutional neural networks for decoding and visualization of EEG pathology
|
{'venue': '2017 IEEE Signal Processing in Medicine and Biology Symposium (SPMB)', 'journal': '2017 IEEE Signal Processing in Medicine and Biology Symposium (SPMB)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,450 |
Även om onlinetjänster uppstår på alla områden i livet, är omröstningsförfarandet i många demokratier fortfarande pappersbaserat eftersom säkerheten för dagens online-röstningsteknik är mycket omtvistad. Vi tar upp frågan om tillförlitliga online-röstningsprotokoll och erinrar därför om deras säkerhetskoncept med dess förtroendeantaganden. Inspirerad av Bitcoin-protokollet analyseras utsikterna för distribuerade online röstningsprotokoll. Ingen betrodd myndighet antas garantera röstsekretess. Dessutom upprätthålls rösträttens integritet av alla väljare själva och utan en svag länk blir protokollet mer robust. Vi introducerar en taxonomi av begrepp om distribution i online röstning protokoll som vi tillämpar på utvalda online röstning protokoll. Följaktligen verkar blockchain-baserade protokoll vara lovande för online-röstning på grund av deras likhet med pappersbaserade protokoll.
|
I REF introducerar författarna en taxonomi av ytterligare begrepp för distribuerade röstningsprotokoll.
| 7,125,311 |
Distributed Protocols at the Rescue for Trustworthy Online Voting
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,451 |
Vi strävar efter att studera modelleringsbegränsningarna för de gemensamt använda boostrade beslutsträden. Inspirerad av framgångarna med stora, datahungriga visuella igenkänningsmodeller (t.ex. Djupa konvolutionella neurala nätverk), fokuserar detta dokument på förhållandet mellan modellering kapacitet för svaga inlärare, dataset storlek, och dataset egenskaper. En uppsättning nya experiment på Caltech Fotgängar Detection-riktmärket resulterar i den mest kända prestandan bland icke-CNN-tekniker under drift med snabb körhastighet. Dessutom är prestandan i nivå med djupa arkitekturer (9,71% log-genomsnittlig felfrekvens), medan endast HOG+LUV-kanaler används som funktioner. Slutsatserna från denna studie har visat sig generalisera över olika objektdetekteringsdomäner, vilket framgår av FDDB:s referensvärde för ansiktsdetektering (93,37 % noggrannhet). Trots den imponerande prestationen avslöjar denna studie den begränsade modelleringskapaciteten hos den gemensamma trädmodellen, vilket motiverar ett behov av arkitektoniska förändringar för att konkurrera med flera nivåer och mycket djupa arkitekturer.
|
Åhn-Bar et al. REF använder den förstärkta beslut träd klassificerare för att upptäcka ansikten.
| 7,581,698 |
To boost or not to boost? On the limits of boosted trees for object detection
|
{'venue': '2016 23rd International Conference on Pattern Recognition (ICPR)', 'journal': '2016 23rd International Conference on Pattern Recognition (ICPR)', 'mag_field_of_study': ['Computer Science']}
| 14,452 |
Abstrakt. Detta dokument handlar om rankning av dokument i informationssökning. I system för insamling av information tyder den allmänt accepterade principen om sannolikhetsrankning (PRP) på att dokument för optimal hämtning bör rangordnas efter minskande sannolikhet för relevans. I detta dokument presenterar vi ett nytt dokumentrankningsparadigm, där vi hävdar att en bättre, mer generell lösning är att optimera topp-n-rankade dokument som helhet, snarare än att rangordna dem självständigt. Inspirerade av den moderna portföljteorin inom finans, kvantifierar vi en rangordnad lista med dokument utifrån dess förväntade totala relevans (medelvärde) och varians; den senare fungerar som ett mått på risk, som sällan studerades för dokumentrankning i det förflutna. Genom analysen av medelvärdet och variansen, visar vi att en optimal rankning är den som maximerar den totala relevansen (medelvärdet) av den rangordnade listan på en given risknivå (variation). Baserat på denna princip, vi sedan härleda en effektiv dokument ranking algoritm. Det utvidgar PRP genom att beakta både osäkerheten i relevanta prognoser och samband mellan hämtade dokument. Dessutom kvantifierar vi fördelarna med diversifiering och visar teoretiskt att diversifiering av dokument är ett effektivt sätt att minska risken för rangordning av dokument. Experimentella resultat på det samverkande filtreringsproblemet bekräftar de teoretiska insikterna med förbättrad rekommendationsprestanda, t.ex. uppnådd över 300% prestandavinst över den PRP-baserade rankingen på den användarbaserade rekommendationen.
|
Vår förstudie om samarbetsfiltrering har visat att rankning härledd från analysen av medelvärde och varians förbättrar rekommendationsprestanda avsevärt REF.
| 17,956,898 |
Mean-Variance Analysis: A New Document Ranking Theory in Information Retrieval
|
{'venue': 'ECIR', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,453 |
Det kan vara utmanande att träna multi-task neurala nätverk som överträffar eller ens matcha deras en-task motsvarigheter. För att hjälpa till med detta föreslår vi att man använder sig av kunskapsdestillation där modeller med en enda uppgift lär ut en modell med flera uppgifter. Vi förhöjer denna utbildning med lärar glödgning, en ny metod som gradvis övergår modellen från destillation till övervakad inlärning, vilket hjälper multi-task modellen överträffar sina en-task lärare. Vi utvärderar vårt tillvägagångssätt genom att finjustera BERT på GLUE-riktmärket. Vår metod förbättrar konsekvent över standard enkel-task och multi-task utbildning.
|
I naturliga språkbehandling (NLP) använde BAM REF BAN för att destillera från en-task modeller till en multi-task modell, vilket hjälper multi-task modellen överträffar sina en-task lärare.
| 85,464,175 |
BAM! Born-Again Multi-Task Networks for Natural Language Understanding
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,454 |
Abstract-Regression testning är en dyr, men viktig, process. Tyvärr kan det finnas otillräckliga resurser för att göra det möjligt att återställa alla testfall under regressionstester. I denna situation, test fall prioritering tekniker syftar till att förbättra effektiviteten av regressionstestning genom att beställa testfallen så att de mest fördelaktiga utförs först. Tidigare arbete på regressionstest fall prioritering har fokuserat på Greedy Algorithms. Det är dock känt att dessa algoritmer kan producera suboptimala resultat eftersom de kan konstruera resultat som endast betecknar lokala minima inom sökområdet. Däremot syftar metaheuristiska och evolutionära sökalgoritmer till att undvika sådana problem. Denna uppsats presenterar resultat från en empirisk studie av tillämpningen av flera giriga, metaheuristiska, och evolutionära sökalgoritmer till sex program, från 374 till 11,148 rader kod för tre val av fitness metrisk. Papperet behandlar problem med valet av fitness metrisk, karakterisering av landskapet modalitet, och fastställande av den mest lämpliga sökteknik att tillämpa. De empiriska resultaten kopierar tidigare resultat om Greedy Algorithms. De kastar ljus över arten av regressionstestningsytan, vilket tyder på att den är multimodal. Resultaten visar också att Genetiska Algoritmer presterar bra, även om Greedy-metoder är förvånansvärt effektiva, med tanke på landskapets multimodala natur.
|
Eftersom de två giriga algoritmerna kan producera suboptimala resultat, Li et al. REF tillämpade metaheuristiska algoritmer för kodtäckningsbaserad prioritering.
| 8,781,614 |
Search Algorithms for Regression Test Case Prioritization
|
{'venue': 'IEEE Transactions on Software Engineering', 'journal': 'IEEE Transactions on Software Engineering', 'mag_field_of_study': ['Computer Science']}
| 14,455 |
Vi introducerar Imagination-Augmented Agents (I2As), en ny arkitektur för djupt förstärkande lärande som kombinerar modellfria och modellbaserade aspekter. I motsats till de flesta befintliga modellbaserade metoder för att stärka inlärning och planering, som föreskriver hur en modell ska användas för att komma fram till en politik, lär sig I2As att tolka förutsägelser från en inlärd miljömodell för att konstruera implicita planer på godtyckliga sätt, genom att använda förutsägelserna som ytterligare sammanhang i djupgående politiska nätverk. I2As visar förbättrad dataeffektivitet, prestanda och robusthet mot missspecifikation av modeller jämfört med flera baslinjer.
|
Senare föreslås imagination-Augmented Agents (I2As) REF som lär sig att generera och tolka förutsägelser som ytterligare sammanhang för djupgående politiska nätverk.
| 13,301,124 |
Imagination-Augmented Agents for Deep Reinforcement Learning
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,456 |
Abstrakt. Drivs av djupa neurala nätverk och storskaliga dataset, scentext detektionsmetoder har utvecklats avsevärt under de senaste åren, ständigt uppfriskande prestanda register på olika standard riktmärken. Men begränsad av representationerna (axeljusterade rektanglar, roterade rektanglar eller fyrhörningar) som används för att beskriva text, kan befintliga metoder bli korta när det gäller mycket mer friform text instanser, såsom böjd text, som faktiskt är mycket vanliga i verkliga scenarier. För att ta itu med detta problem föreslår vi en mer flexibel representation för scentext, kallad TextSnake, som på ett effektivt sätt kan representera textinstanser i horisontella, orienterade och böjda former. I TextSnake beskrivs en textinstans som en sekvens av beställda, överlappande diskar centrerade vid symmetriska axlar, av vilka var och en är associerad med potentiellt variabel radie och orientering. Sådana geometriska attribut uppskattas via en modell för Fully Convolutional Network (FCN). I experiment uppnår textdetektorn baserad på TextSnake toppmoderna eller jämförbara prestanda på Total-Text och SCUT-CTW1500, de två nypublicerade riktmärkena med särskild tonvikt på böjd text i naturliga bilder samt de allmänt använda datauppsättningarna IC-DAR 2015 och MSRA-TD500. TextSnake överträffar basvärdet för totaltext med mer än 40 % i F-åtgärd.
|
Nyligen använde TextSnake REF beställda diskar för att representera kurvtext för kurvtextdetektering.
| 49,570,059 |
TextSnake: A Flexible Representation for Detecting Text of Arbitrary Shapes
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,457 |
Abstract-Vi föreslår en ny oövervakad inlärningsram för att modellera aktiviteter och interaktioner i trånga och komplicerade scener. Inom vårt ramverk används hierarkiska Bayesianska modeller för att koppla samman tre element i visuell övervakning: visuella funktioner på låg nivå, enkla "atomiska" aktiviteter och interaktioner. Atomiska aktiviteter är modellerade som distributioner över låg nivå visuella funktioner, och multiagent interaktioner modelleras som distributioner över atomiska aktiviteter. Dessa modeller lärs ut på ett oövervakat sätt. Med tanke på en lång videosekvens samlas rörliga pixlar i olika atomaktiviteter och korta videoklipp samlas i olika interaktioner. I detta dokument föreslår vi tre hierarkiska Bayesianska modeller: blandningsmodellen Latent Dirichlet Allocation (LDA), blandningsmodellen Hierarchical Dirichlet Processes (HDP) och modellen Dual Hierarchical Dirichlet Processes (Dual-HDP). De främjar befintliga ämnesmodeller, t.ex. LDA [1] och HDP [2]. Med hjälp av befintliga LDA- och HDP-modeller inom vårt ramverk kan endast rörliga pixlar samlas i atomaktiviteter. Våra modeller kan samla både rörliga pixlar och videoklipp i atomaktiviteter och i interaktioner. LDA-blandningsmodellen förutsätter att det redan är känt hur många olika typer av atomiska aktiviteter och interaktioner som förekommer i scenen. HDP-blandningsmodellen bestämmer automatiskt antalet kategorier av atomaktiviteter. Dual-HDP bestämmer automatiskt antalet kategorier av både atomisk verksamhet och interaktioner. Våra datauppsättningar är utmanande videosekvenser från trånga trafikscener och tågstationen scener med många typer av aktiviteter sam-kommande. Utan spårning och mänsklig märkning, vår ram slutför många utmanande visuella övervakningsuppgifter av brett intresse såsom: 1) upptäcka och ge en sammanfattning av typiska atomiska aktiviteter och interaktioner som förekommer i scenen, 2) segmentera långa videosekvenser i olika interaktioner, 3) segmentera rörelser i olika aktiviteter, 4) upptäcka abnormitet, och 5) stödja höga frågor om aktiviteter och interaktioner. I vårt arbete formuleras dessa övervakningsproblem på ett öppet, rent och probabilistiskt sätt jämfört med ad hoc-karaktären hos många befintliga strategier.
|
Tre hierarkiska Bayesian-modeller REF – LDA-blandningsmodellen, HDP-blandningsmodellen och den dubbla HDP-modellen – föreslogs i Wangs forskning.
| 4,242,592 |
Unsupervised Activity Perception in Crowded and Complicated Scenes Using Hierarchical Bayesian Models
|
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 14,458 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.