src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Vi presenterar en övervakad maskininlärning algoritm för metonymin upplösning, som utnyttjar likheten mellan exempel på konventionell metonymy. Vi visar att syntaktiska huvudmodifierare relationer är en hög precision funktion för metonymy erkännande men lider av data sparseness. Vi övervinner delvis detta problem genom att integrera en tesaurus och införa enklare grammatiska egenskaper, vilket bevarar precisionen och ökar minnet. Vår algoritm generaliserar över två nivåer av kontextuell likhet. De resultat som dras är mer komplexa än de slutsatser som görs i ordagrann meningsskiljaktighet. Vi jämför även automatiska och manuella metoder för syntaktisk funktionsextraktion. | Till exempel föreslog REF en maskininlärningsalgoritm för metonymy upplösning. | 10,549,991 | Syntactic Features And Word Similarity For Supervised Metonymy Resolution | {'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,400 |
Vi föreslår SPARFA-Trace, ett nytt maskininlärningsbaserat ramverk för tidsvarierande lärande och innehållsanalys för utbildningstillämpningar. Vi utvecklar ett nytt meddelande som passerar-baserat, blind, ungefärligt Kalman filter för sparse faktoranalys (SPARFA) som gemensamt spårar inlärarkonceptet kunskap över tid, analyserar inlärarkonceptet kunskapstillstånd övergångar (som orsakas av interaktion med inlärningsresurser, såsom läroboksavsnitt, föreläsningsvideor, etc., eller glömska effekt), och uppskattar innehållet organisation och svårighet av frågorna i bedömningar. Dessa mängder beräknas enbart från binärt värderade (korrekta/okorrekta) graderade svarsdata och de specifika åtgärder som varje elev utför (t.ex. besvarar en fråga eller studerar en inlärningsresurs) vid varje tidpunkt. Experimentella resultat på två kursdataset online visar att SPARFA-Trace kan spåra varje elevs koncepts kunskapsutveckling över tid, analysera kvaliteten och innehållets organisation av inlärningsresurser och uppskatta frågeuppfattningsföreningarna och frågesvårigheterna. Dessutom visar vi att SPARFA-Trace uppnår jämförbar eller bättre prestanda när det gäller att förutsäga oobserverade inlärarsvar jämfört med befintliga metoder för samverkansfiltrering och kunskapsspårning. | Nyligen utvecklade REF SPARFA-Trace, ett ramverk för inlärare och innehållsanalys som spårar en inlärares kunskapsutveckling genom sekvensen av material han/hon har tillgång till och bedömningar han/hon svarade. | 624,943 | Time-varying learning and content analytics via sparse factor analysis | {'venue': "KDD '14", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 5,401 |
När en kund outsourcar ett jobb till en tredje part (t.ex. molnet), hur kan kunden kontrollera resultatet, utan att utföra beräkningen på nytt? Det senaste arbetet med bevisbaserad kontrollerbar beräkning har gjort betydande framsteg på detta problem genom att införliva djupa resultat från komplexitetsteori och kryptografi i inbyggda system. Dessa system fungerar dock inom en statslös modell: de utesluter beräkningar som interagerar med RAM eller en disk, eller för vilka kunden inte har full input. Detta dokument beskriver Pantry, ett byggt system som övervinner dessa begränsningar. Pantry består av bevisbaserad kontrollerbar beräkning med opålitlig lagring: klienten uttrycker sin beräkning i form av smältar som intygar att ange, och verifiable outsources som beräkning. Med Pantry utökar vi verifiabiliteten till MapReduce-jobb, enkla databasfrågor och interaktioner med privat stat. Därför tar Pantry ytterligare ett steg mot praktisk bevisbaserad kontrollerbar beräkning för realistiska tillämpningar. | I bevisbaserad kontrollerbar beräkning REF, leverantören returnerar resultaten av en frågad beräkning, tillsammans med ett bevis för denna beräkning. | 5,688,018 | Verifying computations with state | {'venue': "SOSP '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,402 |
Wrapper induktion är problemet med att automatiskt sluta en fråga från kommenterade webbsidor i samma mall. Denna fråga bör inte bara välja det kommenterade innehållet korrekt utan också annat innehåll som följer samma mall. Utöver att exakt matcha mallen, vi anser två ytterligare krav: (1) omslag bör vara robust mot en stor klass av ändringar på webbsidorna, och (2) induktionsprocessen bör vara bullertålig, dvs. tolerera något felaktiga (t.ex. maskingenererade) prover. Nyckeln till vår strategi är ett frågespråk som är tillräckligt kraftfullt för att möjliggöra korrekt urval, men tillräckligt begränsat för att tvinga bullriga prover att generaliseras till omslag som väljer de troliga avsedda objekt. Vi introducerar ett sådant språk som delmängd av XPATH och visar att även för ett sådant begränsat språk, vilket framkallar optimala frågor enligt en lämplig poängsättning är ogenomförbart. Inte desto mindre, vår wrapper induktionsram drar slutsatsen mycket robusta och bullertåliga frågor. Vi utvärderar frågorna på ögonblicksbilder från webbsidor som ändras över tid som tillhandahålls av Internet Archive, och visar att de inducerade frågorna är lika robust som de mänskliga-gjorda frågor. Frågorna överlever ofta hundratals ibland tusentals dagar, med många förändringar i den relativa positionen för de valda noderna (inklusive ändringar på mallnivå). Detta beror på de få och diskriminerande ankare (mellanhand valt) noder av de genererade frågorna. Frågorna är mycket resistenta mot positivt buller (upp till 50 %) och negativt buller (upp till 20 %). | Furche m.fl. REF studerade problemen med både extraktion robusthet och bullerresistenta, men deras metod måste kommentera webbsidor manuellt och är inte en helt automatisk metod. | 5,790,118 | Robust and Noise Resistant Wrapper Induction | {'venue': "SIGMOD '16", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,403 |
Dagens dator-mänskliga gränssnitt är typiskt utformade med antagandet att de kommer att användas av en kraftfull person, som använder en typisk uppsättning av inmatnings- och utgångsenheter, som har typiska perceptuella och kognitiva förmågor, och som sitter i en stabil, varm miljö. Varje avvikelse från dessa antaganden kan drastiskt hindra personens effektivitet-inte på grund av någon inneboende hinder för interaktion, men på grund av en obalans mellan personens effektiva förmågor och de antaganden som ligger bakom gränssnittet design. Vi hävdar att automatisk personlig gränssnittsgenerering är en genomförbar och skalbar lösning på denna utmaning. Vi presenterar vårt Supple-system, som automatiskt kan generera gränssnitt anpassade till en persons enheter, uppgifter, preferenser och förmågor. I detta dokument definierar vi formellt gränssnittsgenerering som ett optimeringsproblem och visar att problemet, trots ett stort lösningsutrymme (av upp till 10 17 möjliga gränssnitt), är möjligt att beräkna. I själva verket, för en viss klass av kostnadsfunktioner, Supple producerar exakta lösningar i under en sekund för de flesta fall, och i lite över en minut i värsta fall påträffas, vilket möjliggör run-time generation av användargränssnitt. Vi visar vidare hur flera olika designkriterier kan uttryckas i kostnadsfunktionen, vilket möjliggör olika typer av personalisering. Vi visar också hur detta tillvägagångssätt möjliggör omfattande användar- och systeminitierade run-time-anpassningar av gränssnitten efter att de har genererats. Suple är inte avsett att ersätta mänskliga användargränssnittsdesigners-instead, det erbjuder alternativa användargränssnitt för de människor vars enheter, uppgifter, preferenser och förmågor inte i tillräcklig utsträckning behandlas av handgjorda design. Faktum är att resultaten av vår studie visar att, jämfört med tillverkarnas standard, gränssnitt som automatiskt genereras av Suple avsevärt förbättrar hastigheten, noggrannheten och tillfredsställelsen hos personer med motoriska funktionsnedsättningar. | SUPLE är ett system som automatiskt genererar personliga användargränssnitt för enskilda användare baserat på deras motorfunktioner REF ). | 3,783,544 | Automatically Generating Personalized User Interfaces with Supple | {'venue': 'Artif. Intell.', 'journal': 'Artif. Intell.', 'mag_field_of_study': ['Computer Science']} | 5,404 |
ABSTRACT Mobile edge computing (MEC) är ett lovande paradigm för att tillhandahålla molnkomputeringskapacitet i nära anslutning till mobila enheter i femte generationens (5G) nätverk. I detta dokument studerar vi energieffektiva avlastningsmekanismer (ECO) för MEC i 5G heterogena nät. Vi formulerar ett optimeringsproblem för att minimera energiförbrukningen i avlastningssystemet, där energikostnaden för både uppgiftsdatorer och filöverföring beaktas. Inbegripet 5G heterogena näts multiaccessegenskaper utformar vi sedan ett ECO-system som tillsammans optimerar avlastning och tilldelning av radioresurser för att uppnå en minimal energiförbrukning under latensbegränsningarna. Numeriska resultat visar en förbättring av energieffektiviteten i vårt föreslagna ECO-system. INDEX TERMS Energieffektivitet, avlastning, beräkning av mobila kanter, 5G. | Zhang m.fl. har föreslagit ett energieffektivt avlastningssystem för att minimera energiförbrukningen under latensbegränsningarna för mobila edge computing i 5G heterogena nät REF. | 18,366,887 | Energy-Efficient Offloading for Mobile Edge Computing in 5G Heterogeneous Networks | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 5,405 |
Abstract-The Iterative Closest Point (ICP) algoritm är en av de mest använda metoderna för point-set registrering. Emellertid, som baseras på lokal iterativ optimering, ICP är känd för att vara mottagliga för lokala minima. Dess prestanda bygger kritiskt på initieringens kvalitet och endast lokal optimalitet garanteras. I detta dokument presenteras den första globalt optimala algoritmen, Go-ICP, för Euclidean (rigid) registrering av två 3D-punktuppsättningar enligt L 2-felet metrisk definieras i ICP. Go-ICP metoden är baserad på en gren-och-bundet (BnB) system som söker igenom hela 3D rörelseutrymme SE(3). Genom att utnyttja den speciella strukturen av SE(3) geometri, härleder vi nya övre och nedre gränser för registreringsfelfunktionen. Lokal ICP integreras i BnB-systemet, som påskyndar den nya metoden samtidigt som den garanterar global optimalitet. Vi diskuterar också utvidgningar och tar upp frågan om extra robusthet. Utvärderingen visar att den föreslagna metoden kan producera tillförlitliga registreringsresultat oavsett initiering. Go-ICP kan användas i scenarier där en optimal lösning är önskvärd eller där en god initiering inte alltid är tillgänglig. Index Villkor-3D punktuppsättning registrering, global optimering, gren-och-bundet, SE(3) rymdsökning, iterativ närmaste punkt! | Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. I REF föreslogs "Globalt optimalt ICP", som integrerar ett system med gren och band (BnB) som söker i 3D-rörelseutrymmet. | 689,166 | Go-ICP: A Globally Optimal Solution to 3D ICP Point-Set Registration | {'venue': 'IEEE transactions on pattern analysis and machine intelligence', 'journal': 'IEEE transactions on pattern analysis and machine intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 5,406 |
AbstractThis paper presents Scribe, en skalbar multicastinfrastruktur på applikationsnivå. Scribe stöder ett stort antal grupper, med ett potentiellt stort antal medlemmar per grupp. Scribe är byggd på toppen av Pastry, en generisk peer-topeer objekt plats och routing substrat överlagrat på Internet, och utnyttjar Pastrys tillförlitlighet, självorganisering, och lokala egenskaper. Pastry används för att skapa och hantera grupper och för att bygga effektiva multicast träd för spridning av meddelanden till varje grupp. Scribe ger garantier för bästa tillförlitlighet, men vi beskriver hur en ansökan kan utöka Scribe för att ge större tillförlitlighet. Simuleringsresultat, baserade på en realistisk topologimodell för nätverk, visar att Scribe skalar över ett brett spektrum av grupper och gruppstorlekar. Dessutom balanserar det belastningen på noderna samtidigt uppnå acceptabel fördröjning och länka stress jämfört med IP multicast. | SCRIBE REF är ett ESM-protokoll byggt ovanpå Pastry. | 899,542 | SCRIBE: A large-scale and decentralized application-level multicast infrastructure | {'venue': 'IEEE Journal on Selected Areas in Communications (JSAC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,407 |
I den här artikeln diskuterar vi egenskaperna hos den probabilistiska grova uppsättningen över två universer i detalj. Vi presenterar parameterberoendet eller den kontinuerliga av de lägre och övre approximationen på parametrar för probabilistisk grov uppsättning över två universer. Vi undersöker också vissa egenskaper hos osäkerhetsmåttet, dvs. den grova graden och precisionen, för probabilistiska grova uppsättningar över två universer. Under tiden pekar vi på begränsningen av osäkerhetsmåttet för den traditionella metoden och definierar sedan den allmänna Shannonentropi som täcker-baserat på universum. Sedan diskuterar vi osäkerhetsmåttet på kunskapens granularitet och grov entropi för probabilistisk grovuppsättning över två universer enligt det föreslagna konceptet. Slutligen testas metodernas och slutsatsernas giltighet genom ett numeriskt exempel. | Ma REF presenterade parameterberoendet eller den kontinuerliga av de lägre och övre approximationen av parametrar för probabilistiska grovuppsättningar över två universer, och diskuterade osäkerhetsmåttet på kunskapens granularitet och grov entropi för probabilistiska grovuppsättningar över två universer enligt det föreslagna konceptet. | 30,779,631 | Probabilistic rough set over two universes and rough entropy | {'venue': 'Int. J. Approx. Reason.', 'journal': 'Int. J. Approx. Reason.', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 5,408 |
Graph-baserade semi-övervakade inlärningsalgoritmer (SSL) har framgångsrikt använts för att extrahera klass-instance par från stora ostrukturerade och strukturerade textsamlingar. En noggrann jämförelse av olika grafbaserade SSL-algoritmer på den uppgiften har dock saknats. Vi jämför tre graf-baserade SSL-algoritmer för klass-intance förvärv på en mängd olika grafer konstruerade från olika domäner. Vi tycker att den nyligen föreslagna MAD-algoritmen är den mest effektiva. Vi visar också att utvinning av klassintans kan förbättras avsevärt genom att lägga till semantisk information i form av exemplifierade kanter som härrör från en självständigt utvecklad kunskapsbas. Alla våra koder och data kommer att göras tillgängliga för allmänheten för att uppmuntra reproducerbar forskning på detta område. | REF genomförde en jämförande studie av grafalgoritmer och visade att klassintance extraktion kan förbättras med hjälp av ytterligare information som kan modelleras som instansattributkanter. | 12,363,276 | Experiments in Graph-Based Semi-Supervised Learning Methods for Class-Instance Acquisition | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,409 |
Abstract-Opportunistic routing [2], [3] har visat sig förbättra nätverkets dataflöde, genom att tillåta noder som hör överföringen och närmare destinationen att delta i vidarebefordra paket, dvs., i skotarlistan. Noderna i skotarlistan prioriteras och den lägre prioritetsspeditören kommer att kassera paketet om paketet har vidarebefordrats av en högre prioritetsspeditör. Ett utmanande problem är att välja och prioritera skotarlistan så att en viss nätverksprestanda optimeras. I det här dokumentet fokuserar vi på att välja och prioritera skotarlistan för att minimera energiförbrukningen vid alla noder. Vi studerar båda fall där transmissionseffekten hos varje nod är fast eller dynamiskt justerbar. Vi presenterar en energieffektiv opportunistisk ruttstrategi, betecknad som EEOR. Våra omfattande simuleringar i TOSSIM visar att vårt protokoll EEOR presterar bättre än det välkända ExOR-protokollet (när det anpassas i sensornätverk) när det gäller energiförbrukning, förhållandet paketförlust och den genomsnittliga leveransfördröjningen. | REF studerar urvalet och prioriteringen av vidarebefordran listan för att minimera den totala energiförbrukningen för WSNs. | 807,873 | Energy-Efficient Opportunistic Routing in Wireless Sensor Networks | {'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']} | 5,410 |
En bilds stil spelar en viktig roll för hur den betraktas, men stilen har inte uppmärksammats särskilt mycket i forskningen om datorseende. Vi beskriver ett tillvägagångssätt för att förutsäga bildstil, och gör en grundlig utvärdering av olika bildfunktioner för dessa uppgifter. Vi finner att funktioner inlärda i ett flerlagersnätverk i allmänhet presterar bäst även när de tränas med objektklass (inte stil) etiketter. Våra storskaliga inlärningsmetoder resulterar i den bästa publicerade prestandan på en befintlig datauppsättning av estetiska betyg och fotografiska stilanteckningar. Vi presenterar två nya dataset: 80K Flickr fotografier kommenterade med 20 curated stil etiketter, och 85K målningar kommenterade med 25 stil / Genre etiketter. Vårt tillvägagångssätt visar utmärkt klassificeringsprestanda på båda dataseten. Vi använder de inlärda klassificeringarna för att utöka traditionell tag-baserad bildsökning för att ta hänsyn till stilistiska begränsningar, och demonstrera korsdataset förståelse av stil. | REF beskrev ett tillvägagångssätt för att förutsäga bildstilen genom att utvärdera olika visuella funktioner. | 7,453,329 | Recognizing Image Style | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,413 |
Nya studier har använt mönsterklassificeringsalgoritmer för att förutsäga eller avkoda aktivitetsparametrar från individuella fMRI aktivitetsmönster. För fMRI avkodning, är det viktigt att välja en lämplig uppsättning voxels (eller funktioner) som indata till dekoder, eftersom närvaron av många irrelevanta voxels kan leda till dålig generalisering prestanda, ett problem som kallas overpassing. Även om individuella voxlar kan väljas baserat på enhetlig statistik, kan den resulterande uppsättningen voxlar vara suboptimal om korrelationer mellan voxlar innehåller viktig information. Här föreslår vi en ny linjär klassificeringsalgoritm, som kallas sparse logistic regression (SLR), som automatiskt väljer relevanta voxels samtidigt som man uppskattar deras viktparametrar för klassificering. Med hjälp av simuleringsdata bekräftade vi att SLR automatiskt kan ta bort irrelevanta voxels och därmed uppnå högre klassificeringsprestanda än andra metoder i närvaro av många irrelevanta voxels. SLR visade sig också effektivt med verkliga fMRI data från två visuella experiment, framgångsrikt identifiera voxels i motsvarande platser av visuell cortex. SLR-selected voxels ledde ofta till bättre prestanda än de utvalda baserat på ensidig statistik, genom att utnyttja korrelerat buller bland voxels för att möjliggöra bättre mönsterseparation. Vi drar slutsatsen att SLR ger en robust metod för fMRI-avkodning och kan även fungera som ett fristående verktyg för val av voxel. © 2008 Elsevier Inc. Alla rättigheter förbehållna. Konventionell fMRI dataanalys har främst fokuserat på voxel-by-voxel funktionell kartläggning med hjälp av den allmänna linjära modellen, där stimuli eller beteendeparametrar används som regressorer för att redogöra för BOLD-svaret (Friston et al., 1995; Värre et. al., 2002). Nyligen har mycket uppmärksamhet ägnats åt mönsterklassificering, eller avkodning, som ett alternativ till konventionell funktionell kartläggning. I detta tillvägagångssätt kan fMRI aktiveringsmönster för många voxels användas för att karakterisera subtila skillnader mellan olika stimuli eller individers beteende/mentala tillstånd. Det pionjärarbete som utfördes av Haxby et al. (2001) har visat att brett fördelade fMRI-aktivitetsmönster kan diskriminera bilder av visuella objekt, som inte lätt kan särskiljas genom den konventionella funktionella kartläggningen (se även Strother m.fl., 2002; Spiridon och Kanwisher, 2002; Cox och Savoy, 2003; Carlson m.fl., 2003; Mitchell m.fl. Al., 2004; Laconte et. al., 2005; O'Toole et al., 2005 för andra exempel). Dessutom har avkodningsmetoden visat sig användbar när det gäller att ta fram information om finskaliga kortikala representationer, som man har trott ligger bortom fMRI:s resolution. Tong (2005, 2006) visade att visuella egenskaper på låg nivå, såsom orientering och rörelseriktning, kan avkodas på ett tillförlitligt sätt genom att gruppera svagt selektiva signaler i enskilda voxlar. Eftersom kortikala kolumner som representerar orientering eller rörelseriktning tros vara mycket mindre än standard fMRI-voxlar, kan signalen i varje voxel uppstå från voxelprovtagning med fördomar på grund av variation i fördelningen av kortikala funktionskolonner eller deras vaskulära tillförsel. Decoding analyse kan utnyttja sådan subtil information, som finns i enskilda voxels, för att få robust selektivitet från ensemble aktivitetsmönstret för många voxels ("förnimmelse särdrag selektivitet"). För omfattande granskningar, se Haynes och Rees (2006) och Norman et al. (2006). För fMRI-avkodning är det av flera skäl viktigt att välja en lämplig uppsättning voxlar som indata för klassificeringsanalys. För det första kan val av voxel förbättra avkodningsprestandan. fMRI-avkodningsanalys sker i form av övervakad inlärning (klassificering eller regression), där voxelvärden är indatavariabler eller "funktioner", och en stimulans/uppgiftsparameter är utdatavariabeln eller'märkt'-kategorin. I övervakad inlärning, alltför många funktioner kan ibland leda till dålig generalisering prestanda, ett problem som kallas overpassing. NeuroImage 42 (2008) Innehållsförteckningar tillgängliga på ScienceDirect NeuroImage j o ur n a l h o m e p a g e : w w w. e l sv i e r. c o m / l o c a t e / y n i m g Med många justerbara modellparametrar förknippade med funktionerna, kan inlärningsmodellen passa till det buller som finns i träningsdata, och generalisera dåligt till nya testdata. I en typisk fMRI experiment, endast tiotals eller kanske hundratals prover (task block eller volymer) erhålls, medan hela hjärnan kan innehålla så många som hundra tusen voxels eller funktioner. Således kan fMRI avkodning lätt leda till övermontering om alla tillgängliga voxels används som inmatningsfunktioner. Stöd vektormaskiner (SVM), en av de mest populära klassificeringarna i fMRI-avkodningslitteraturen, undviker detta problem genom att samtidigt minimera det empiriska klassificeringsfelet och maximera marginalen (Boser et al., 1992; Vapnik, 1998). Generaliseringsprestanda för SVM kommer dock fortfarande att försämras om alltför många irrelevanta funktioner inkluderas. För det andra, Voxel val är också användbart för att förstå neural information kodning. Voxels kan väljas baserat på separat anatomisk eller funktionell kunskap, så att avkodning prestanda för en uppsättning voxels kan jämföras med en annan. Ju högre prestanda desto troligare är det att voxlarna representerar information som är relevant för uppgiften. Även om noggrann undersökning är nödvändig för att avgöra om voxels representerar den avkodade uppgift parametern eller någon annan korrelerad variabel (Kamitani och Tong, 2005), jämförelser av avkodning prestanda för olika hjärnområden kan ge en kraftfull metod för att kartlägga den information som finns tillgänglig i lokala regioner (se även Kriegeskorte et al., 2006). I de flesta tidigare studier har voxels valts ut baserat på anatomiska landmärken, funktionella localizers (t.ex. retinotopisk kartläggning), eller en voxel-by-voxel univariat statistisk analys som erhållits från utbildningsdata eller data från ett separat experiment. De valda voxlarna användes sedan som indatafunktioner för avkodningsanalys. Ett alternativ till voxelval för att minska dimensionaliteten är att projicera det ursprungliga funktionsutrymmet i ett subutrymme med färre dimensioner med hjälp av huvudkomponentanalys (PCA) (Carlson et al., 2003) eller oberoende komponentanalys (ICA). De nya dimensionerna kan sedan användas som indatafunktioner för avkodningsanalys. Sådana tvåstegsmetoder för urval av funktioner och avkodningsanalys har visat sig vara effektiva. Men de kan vara suboptimala eftersom voxel / fenomen urval inte tar hänsyn till diskriminabiliteten av multi-voxel mönster. I detta papper introducerar vi nya linjära klassificeringsalgoritmer för binär och multi-klass klassificering, som vi kommer att hänvisa till som gles logistisk regression (SLR) respektive gles multinomial logistisk regression (SMLR). (Observera att termen SLR kommer att användas för att hänvisa till både binära och multi-klass klassificerare om distinktionen inte är kritisk). SLR är en Bayesian förlängning av logistisk regression, som samtidigt utför funktionen (voxel) urval och utbildning av modellparametrar för klassificering. Den använder automatisk relevansbestämning (ARD) (MacKay, 1992; Neal, 1996) för att bestämma vikten av varje parameter vid uppskattning av parametervärden. Denna process väljer bara några få parametrar som viktiga och rensar bort andra. Den resulterande modellen har en gles representation med ett litet antal uppskattade parametrar. Vid fMRI-avkodning ger denna glesa skattningsmetod en metod för val av voxel (feature), som skulle kunna förbättra avkodningsprestandan genom att undvika övermontering. Dessutom kan voxels utvalda av SLR bidra till att avslöja specifika hjärnregioner, inom en stor uppsättning indata voxels, som är relevanta för en uppgift. Vi använder SLR inte bara som ett alternativ till konventionella klassificeringsmetoder som Fishers linjära discriminant och SVM, utan också som ett funktionsval eller verktyg för "feature ranking". För att rangordna relevansen av voxels, tillämpar vi SLR upprepade gånger på uppsättningar av prover slumpmässigt utvalda från träningsdata, och få en total rang av varje voxel baserat på dess urvalsfrekvens. Efter att voxels har valts ut genom detta rankningsförfarande kan vilken modell eller algoritm som helst användas för klassificering. Vi använder en oberoende testdatauppsättning, som inte används för funktionsval, vid utvärdering av klassificeringsprestanda. Om testdata var inblandade i urvalsprocessen, skulle prestandan bli felaktigt bättre än slumpen även i avsaknad av diskriminerande mönster (Baker et al., 2007). I denna studie utvärderar vi först prestandan hos SLR med hjälp av simulerade data och visar sedan egenskaper för voxels utvalda av SLR med hjälp av två verkliga fMRI dataset. Med hjälp av enkla simuleringsdata visar vi att SLR verkligen kan välja relevanta funktioner (voxels) bland ett stort antal irrelevanta. Detta gör det möjligt för SLR att upprätthålla en hög klassificeringsprestanda i närvaro av irrelevanta egenskaper, medan andra klassificeringsmetoder, såsom SVM och regulariserad logistisk regression (RRR), är mindre robusta. Därefter använder vi SLR till fMRI data som erhållits medan observatörer såg en stimulans i en av fyra visuella kvadranter. Vi finner att SLR väljer voxels vars platser överensstämmer med känd funktionell anatomi. Med hjälp av fMRI data av orientering river stimuli experiment, Vi finner också att SLR-valda voxels kan skilja sig från dem som väljs genom ensidiga jämförelser av olika arbetsförhållanden och kan leda till överlägsen prestanda. Ytterligare analyser tyder på att SLR kan utnyttja korrelationer mellan voxels, som inte kan upptäckas av den konventionella unika statistiken, och därmed uppnå överlägsen avkodning prestanda. Metoder I detta avsnitt beskriver vi först logistisk regression (LR) och multinomiell logistisk regression (MLR), som ger probabilistiska modeller för att lösa binära respektive multi-klass klassificeringsproblem, respektive. Parametrarna i modellerna beräknas med metoden med största sannolikhet. Denna metod kan dock endast tillämpas när antalet prover är större än antalet egenskaper. Här, den logistiska regressionsmetoden utvidgas till en Bayesian ram genom att använda en teknik som kallas automatisk relevansbestämning (ARD) från neurala nätverk litteratur (MacKay, 1992; Neal, 1996). Genom att kombinera LR eller MLR med ARD erhålls sparsam logistisk regression (SLR) eller sparsam multinomiell logistisk regression (SMLR). ARD ger en effektiv metod för beskärning av irrelevanta egenskaper, så att deras tillhörande vikter automatiskt sätts till noll, vilket leder till en gles viktvektor för klassificering. Genom hela papperet är skaklar och vektorer betecknade med kursiv normala ansiktsbokstäver (t.ex. x) och med djärva bokstäver (t.ex. x, på), respektive. Införlivandet av en vektor x är betecknad med x t. Den linjära discriminant funktion som separerar två klasser S 1 och S 2 representeras av den viktade summan av varje funktionsvärde; t är en vikt vektor inklusive en bias term (nedan kan vi utelämna en bias term). Hyperplanet f(x; ska) = 0 bestämmer gränsen mellan två klasser. LR gör det möjligt att beräkna sannolikheten för att en indata vektor hör till kategori S 2, genom en logistisk funktion, Observera att p varierar från 0 till 1, och är lika med 0,5 när f(x; på) = 0 (dvs.. på gränsen) och närmar sig 0 eller 1 när f(x; på) närmar sig minus oändlighet eller oändlighet (dvs. långt från gränsen). Denna sannolikhet p tolkas som sannolikheten att en indatafunktionsvektor x tillhör klass S 2 (omvänt tillhör x klass S 1 med sannolikhet 1 - p). För matematisk formulering, låt oss införa en binär slumpmässig variabel y sådan att y = 0 för S 1 och y = 1 för S 2. Eftersom N input-output data prover {(x 1,y 1 ),..., (x N, y N )}, är sannolikheten funktionen uttrycks som Sedan varje term i produkten av Eq. (3) representerar sannolikheten för att observera det n:te provet (p n om y n = 1, 1 − p n om y n = 0), produkten representerar sannolikheten att observera hela uppsättningen dataprover. Således skulle vi vilja hitta parametervektorn så att denna sannolikhetsfunktion maximeras. Denna maximering är likvärdig med maximering logaritmen av sannolikhetsfunktionen, Funktionen l( ska) är en ganska komplicerad icke-linjär funktion eftersom p n implicit beror på en parametervektor. Eftersom lutningen och hessian av l( på) kan erhållas i sluten form, kan denna maximering göras genom Newton metoden effektivt (Bishop, 2006, pp. Detta anslag är avsett att täcka utgifter för tjänstemän och tillfälligt anställda som arbetar med politikområdet Hälsa och konsumentskydd. Det noteras att denna optimering alltid konvergerar till en unik maximal punkt eftersom den hessiska matrisen är positiv överallt i parameterutrymmet. För ett prov x-prov för vilket klassen är okänd, tilldelas klass S 2 om f(x; ska) N 0 (eller motsvarande om p-test N 0,5) och klass S 1 om f(x; ska) b 0. Vid klassificeringsproblem i flera klasser har varje klass sin egen linjära särskiljande funktion; där C är antalet klasser. Därefter beräknas sannolikheten för att observera en av klasserna S c med hjälp av softmax-funktionen (Bishop, 2006, s. 356) som Observera att antalet viktparametrar som ska uppskattas är C × D eftersom varje klass har sin egen viktparametervektor (Fig. 1 a)............................................................................................................ Med hjälp av träningsdata, dessa viktparametrar uppskattas genom att maximera följande sannolikhetsfunktion, Denna maximering uppnås igen med Newton metoden eftersom lutningen och Hessian kan skrivas i sluten form (Bishop, 2006, pp. Avsnitt 2B001.c omfattar inte "teknik" för "utveckling", "produktion" eller "produktion" av utrustning som specificeras i avsnitt 2B001.c. För att behandla flerklassens utmatningsetikett på ett liknande sätt som Eq. (3) En binär vektor y=[y (1),..., y (C) ] införs så att y (c) =1 om x tillhör klass S c och y (c) =0 annars. För ett prov x test där klassen är okänd, tilldelas den klass som maximerar P(S 1 på x test ),..., P(S C på x test ). För neuroimeringsdata är det ofta så att antalet prover är färre än antalet egenskaper (voxlar). LR och MLR är inte tillämpliga på sådana data på grund av den okonditionerade hessiska matrisen. Därför måste viktparametrarna begränsas på något sätt. En metod är att införa en legaliseringsterm med L2 norm, eller motsvarande, för att anta en Gaussian föregående fördelning med en noll medelvektor och en sfärisk kovariansmatris (regulariserad logistisk regression, RLR). Automatisk relevant bestämning (ARD) kan också uppnå detta mål genom att anta en Gaussian tidigare med en noll medelvektor och en diagonal kovariansmatris vars diagonala element är justerbara hyper-parametrar som reglerar möjliga värden för motsvarande viktparametrar. RLR antar den tidigare distributionen som ges av P( ska tillα) = N(0, α − 1 I D ) där I D är identitetsmatrisen av storlek D × D. SLR antar den ARD tidigare ges av där ska d är den dth elementet av ska. Skillnaden mellan RLR och SLR tidigare är att alla viktparametrar delar en enda variansparameter i RLR medan varje viktparameter har sin egen justerbara variansparameter i SLR. I full-bayesian formulering, SLR vidare antar den icke-informativa föregående distributionen för hyper-parameters, Den hyper-parametern kallas relevans parametern. Denna parameter styr det möjliga intervallet för en motsvarande viktparameter (se bild). 1 b)............................................................................................................... ARD tidigare kan tillämpas på MLR på ett liknande sätt. Föreskrifterna antas för varje element i viktparametervektorerna för varje klass en De probabilistiska klassificeringsmodellerna, bestående av EKG. (3), (4), (9), (10) och (7), (8), (11), (12) kallas sparsam logistisk regression (SLR) respektive sparsam multinomiell logistisk regression (SMLR). Viktparametrarna beräknas som det marginella bakre medelvärdet. Eftersom den marginella bakre fördelningen inte kan härledas i sluten form, tillämpar vi variationsvinkeln Bayesian approximation och Laplace approximation (se bilaga A för närmare information). Algoritmen för att beräkna det bakre medelvärdet blir en iterativ algoritm som alternativt uppdaterar två ekvationer: viktparametrar uppdateras samtidigt som relevansparametrar och relevansparametrar uppdateras vid fastställande av viktparametrar. Det visar sig att de flesta av de uppskattade α d s divergerar till oändlighet, och därmed motsvarande vikter ( på d s) blir nollor. Som ett resultat, leder lösningen till en gles modell där många av funktionerna x d är effektivt beskurna. Faul och Tipping (2002) har analyserat sparsamhetens mekanism ur ett matematiskt perspektiv. Här beskriver vi metoden för funktionsval baserat på SLR. Avkodningsförfarandet består av tre steg; 1) urval av funktioner, 2) utbildning av en klassificering och 3) utvärdering av generaliseringsprestanda. Detta avsnitt fokuserar på funktionen urvalsmetod i det första steget. Alla klassificeringar som Fishers linjära discriminant, LR, SVM eller SLR, kan användas i det andra och det tredje steget, när funktionerna väljs. Vår metod kan betraktas som en sorts variabel rankningsmetod. Den variabla rankingmetoden innebär att tilldela en poäng till varje funktion, och sedan välja ett visst antal funktioner enligt deras poäng. I t.ex. T-värdesrankningsmetoden tilldelas ett T-värde som kvantifierar den statistiska skillnaden mellan två räntevillkor varje funktion. Funktioner väljs sedan utifrån deras T-värden. SLR kan användas för att tilldela poäng till funktioner baserat på klassificeringsprestandan och urvalsfrekvensen, som vi refererar till som urvalsräkningsvärde (SC-värde). Grundidén är att funktioner som upprepade gånger väljs ut med bra klassificeringsprestanda bland en mängd olika träningsdatamängder kan vara viktiga, så höga SC-värden bör tilldelas. För att genomföra idén använder vi en form av korsvalidering. Det första steget till att beräkna SC-värden är att dela in den ursprungliga träningsdatamängden i två datauppsättningar enligt vissa pre- har sin egen diskriminant funktion, som beräknar den inre produkten av viktparametervektorn på etiketten (.) och en indatafunktionsvektor (x). Funktionen softmax omvandlar utdata från de diskriminerande funktionerna till sannolikheten att observera varje etikett. Etiketten med största sannolikhet väljs som utmatningsetikett. Binär logistisk regression skiljer sig något från multinomiell logistisk regression. Sannolikheten kan beräknas genom den logistiska omvandlingen av en enda diskriminantfunktion som skiljer två klasser åt (motsvarande 1 – 2 ) t x). SLR använder denna konventionella modell för (multinom) logistisk regression, men uppskattningen av viktparametrar innebär en ny algoritm baserad på automatisk relevansbestämning. b) SLR behandlar viktparametrarna som slumpmässiga variabler med tidigare fördelningar. Den föregående av varje parameter i antas ha en Gaussian fördelning med genomsnitt 0. Precisionen (omvänt varians) av den normala fördelningen betraktas som en hyper-parameter α i, kallas en relevans parameter, med en hyper-prior fördelning definieras av en gammafördelning. Relevansparametern styr intervallet för motsvarande viktparameter. Om relevansparametern är stor, toppar sannolikheten kraftigt vid noll som tidigare kunskap (vänster panel), och därmed tenderar den uppskattade viktparametern att vara partisk mot noll även efter observation. Å andra sidan, om relevansparametern är liten, är sannolikheten brett fördelade (höger panel), och därmed den uppskattade vikt parametern kan ta ett stort värde efter observation. Medan vår iterativa algoritm beräknar den bakre fördelningen av modellen, skiljer sig de flesta relevanta parametrar till oändlighet. Därför blir motsvarande viktparametrar effektivt nollor, och kan beskäras från modellen. Denna process för att fastställa parametrarnas relevans kallas ARD. För närmare information om algoritmen, se bilaga A. specificerad andel (t.ex. 80%-20%). En datamängd används för att uppskatta viktparametrarna för SLR och den andra för att utvärdera klassificeringens prestanda. Genom att generera ett antal slumpmässiga divisioner av den ursprungliga datamängden och upprepa stegen för parameteruppskattning och prestandautvärdering, kan vi få många uppskattningar av viktvektorer med deras motsvarande mått på klassificeringsnoggrannhet. Därefter kan SC-värdet definieras med den totala frekvensen för varje vald funktion, viktad med klassificeringsnoggrannhet (se bild). 2 för scheman). Mer exakt, låt på k ð och p(k) betecknar den uppskattade parametervektorn och klassificeringsprestanda (procent) som följer av kth-divisionen. Därefter definieras SC-värdet för dth-funktionen av var I(•) betecknar en indikatorfunktion som tar värdet av 1 om villkoret inom parentesen är uppfyllt, 0 annars. K är antalet upprepningar och ska d k ð och är uppskattningen av dth-elementet i och k ð. För att utesluta resultaten av dålig klassificeringsprestanda, ingår endast datauppsättningar med klassificeringsprestanda som överstiger slumpnivå p slump i sammanfattningen. Det bör noteras att en ytterligare datamängd som inte används för att beräkna SC-värden krävs för att utvärdera generaliseringens prestanda för de valda funktionerna. Vi utvecklade en blandningsmått för att kvantifiera effekten av korrelationer mellan egenskaper på klassificeringsprestanda. Blandningsmåttet kvantifierar i vilken utsträckning klassificeringens prestanda underlättas av att det finns korrelerade strukturer i uppgifterna. Beräkning av shufflemåttet innebär slumpvis permutation (shuffling) ordningen av prover inom varje klass och varje funktionsdimension och sedan jämföra klassificeringsprestanda med hjälp av de ursprungliga indata med den med hjälp av bluffed indata. Den logiska grunden bakom blandning är att slumpmässig permutation av ordningen av prover kommer att ta bort eventuella korrelationer mellan funktioner samtidigt som den lokala uppsättningen av värden som observeras för varje funktion och tillstånd. För enkelhetens skull, låt oss överväga ett binärt klassificeringsproblem och fokusera på en funktionsdimension. Prover av denna funktion dimension betecknas av en kolumn vektor z =[z 1 ] t, där z n (c) är det nth provet av klass c och z (c) är insamling av prover som tillhör klass c. Genom att slumpmässigt permutera ordningen av prover inom z (1) och z separat, får vi shuffled funktion värden z suf =[z suf (1),z suf (2) ] t. Efter shuffle operation ovan, eventuella korrelationer mellan den shuffled funktionsdimension och de andra funktion dimensioner elimineras. Observera att blandning inte ändrar marginalfördelningen eftersom endast ordningsföljden för proverna ändras. Genom att applicera shuffle-funktionen på alla funktionsmått kan korrelationerna mellan alla par av dimensionerna tas bort. Med hjälp av de blandade funktionsvärdena och de ursprungliga funktionsvärdena definierar vi shufflemåttet enligt följande; • Tågparametrar för en klassificering med hjälp av de ursprungliga funktionsvärdena och sedan utvärdera klassificeringsnoggrannheten (procent korrekt) p original. • Tåg parametrar för en klassificering med hjälp av blandade funktionsvärden (chuffling tillämpas på alla dimensioner) och sedan utvärdera klassificering noggrannhet p shuffle. • Blandningen mått definieras av p korrelation = p orginal − p shuffle. Bilda. 2............................................................... SLR-baserat rankningsförfarande för voxel. En hel datamängd är slumpmässigt uppdelad i K-par av tränings- och testdataset. För varje par appliceras SLR på träningssetet för att lära sig viktparametrarna, vilket resulterar i glest val av parameter. Därefter utvärderas klassificeringsprestandan med hjälp av testuppsättningen. Poängen för varje parameter (SC-värde) definieras genom antalet urval i SLR-uppskattningar i K-tid, viktade enligt motsvarande provningsresultat (procent korrekt). O. Yamashita m.fl. / NeuroImage 42 (2008) 1414-1429 Eftersom shuffleoperationen i steg 2 använder slumpmässiga tal bör p-shuffle beräknas som genomsnittet av många upprepningar av steg 2 för att ta bort potentiellt buller på grund av slumpmässiga tal. Simuleringsdata Simuleringsdata genererades från två D-dimensionella normala fördelningar med medelvärde för μ 1 och kovarians 1 för klass 1, och med medelvärde för μ 2 respektive kovarians 2 för klass 2. Medel och kovarianer ges genom att D kan vara lika med 10, 100, 500, 1000, 1500, 2000 inmatningsfunktioner. Endast de första 10 särdragen var relevanta för klassificeringen i två klasser; de återstående D-10 särdragen var irrelevanta. Graden av relevans i de första 10 dimensionerna manipulerades av medelvärdena i klass 1, som började från 0,1 och ökade upp till 1,0 med 0,1. Varje dimension hade en avvikelse på 1, och det fanns ingen korrelation mellan dimensionerna. För varje D skapades 100 träningsprover och 100 testprover (50 för varje klass). Vi analyserade simuleringsdata med hjälp av tre klassificeringar; SLR, linjär regulariserad logistisk regression (RRR) och linjär stöd vektor maskin (SVM). För att uppskatta viktparametrar för SLR och RLR använde vi algoritmerna i bilaga A. Antalet iterationer var satt till 500 för SLR respektive 50 för RLR. För SVM använde vi LIBSVM (http://www.csie.ntu.edu.tw/~cjlin/libsvm/) och tillämpade alla standardparametrar (t.ex. Avräkningsparameter C = 1). Varje funktion normaliserades separat för att ha medelvärde 0 och varians 1 innan användning SLR, RLR eller SVM. Vi utvärderade testprestandan genom att utföra 200 Monte Carlo-simuleringar; resultaten visar genomsnittlig klassificeringsprestanda och dess standardfel. Fyra kvadrantstimuli experiment För att utvärdera effekten av SLR-klassaren genomförde vi ett enkelt visuellt experiment där stimuli presenterades i en av de fyra visuella kvadranterna på varje stimulansblock, och platsen för stimulansen måste avkodas. I det fyra kvadrantstimuli-experimentet deltog fyra friska försökspersoner som gav skriftligt informerat samtycke. Experimentet byggde på en konventionell blockdesign. Rött och grönt (CIE-koordinaterna 0.346, 0.299 respektive 0.268 respektive 0.336) visade sig i en av fyra kvadranter (övre höger, nedre höger, nedre vänster och övre vänster, förkortat som "UR", "LR", "LL" och "UL" nedan) i 15 s, följt av 15 s av en fixeringsperiod ('F'). En körning bestod av tre upprepningar av UR-F-LR-F-LL-F-UL-F-block. Ordningen av block randomiserades inte. Varje ämne genomförde 6 körningar. Under försöket erhölls ekoplanära bilder av hela hjärnan (TR=3 s, TE=49 ms, FA 90 grader, FOV 192 × 192 mm, 30 skivor, voxelstorlek 3 × 3 × 5 mm, inget mellanrum; 64 × 64 matris) med hjälp av en 1,5 T MRT-scanner (Shimadzu Marconi, MAGNEX ECLIPSE). En tredimensionell anatomisk scanning erhölls också från varje försöksperson med en T1-vägd RF-FAST-sekvens (TR/TE/TI/NEX, 20 ms/2.26 ms/-/1 FA 40 grader, FOV 256 mm × 256 mm och 256 × 256 matriser), vilket ger sagittalskivor med en tjocklek på 1 mm och en upplösning i planet på 1 × 1 mm. Dessutom förvärvades en tredimensionell anatomisk scanning med samma position som EPI med en T2-vägd RF-FAST-sekvens (TR/TE/TI/NEX, 5468 ms/80 ms/-/2 FA 90 grader, FOV 192 mm × 192 mm och 256 × 256 matriser), vilket gav tvärgående skivor med en tjocklek på 5 mm och en upplösning i planet på 0,75 × 0,75 mm. Följande fMRI förbehandlingssteg användes. För borttagning av rörelseartefakt, justerades EPI-avbildningar till den första EPI-avsökningen och registrerades tillsammans med T2 anatomiska avbildningar. Ingen rumslig utjämning tillämpades. Verktygslådan SPM2 (http://www.fil. jon.ucl.ac.uk/spm/) användes för bildbehandling. För klassificeringsanalysen bestod den ingående vektorn av tidsmedelvärdet för BOLD-svaret för varje voxel för varje stimulansblock, med användning av alla voxlar som fanns tillgängliga i nackloben. Den occipital loben (ca 1500 voxels) identifierades genom att omvandla occipital lobe av standard MNI hjärnan (Maldjian et. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. 2003 (Maldjian et. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. , 2004 till en individuell hjärna med hjälp av verktygslådan för deformation av SPM2. Genomsnittligt BOLD-svar för varje stimulansblock beräknades baserat på den genomsnittliga signalnivån för volymerna 2–5 efter stimulansstart (dvs. 6–15 s efter stimulus), efter korrigering vid baslinjen genom att subtrahera det genomsnittliga svaret inom varje körning. Slutligen, genomsnittliga BOLD svar av varje voxel för varje block var concatenated över alla körningar för att bilda en vektor. Vektorer från många utvalda voxlar, med etiketter som indikerar stimulanstillståndet, tjänade som ingång till klassificeringen. Vi utvärderade SSLR:s prestanda på de fyra kvadrantdata genom att använda en permission-one-run-out korsvalidering förfarande. Fem av de sex körningarna användes som träningsdata (60 prov) och den återstående körningen tjänade som testdata (12 prov). Denna process upprepades för alla körningar. Featurevektorer normaliserades så att varje voxel hade medelvärden 0 och varians 1, med linjära skalningsfaktorer beräknade från träningsdata. Samma skalningsfaktorer tillämpades för testdata. Vi gjorde samma analys med hjälp av en flerklassig version av RLR som kallas regularized multinomial logistic regression (RMLR, se bilaga A) för att jämföra klassificeringsnoggrannhet med och utan voxel val. Observera att antalet initiala parametrar är fyra gånger antalet voxlar (6000 parametrar om 1500 voxels användes), eftersom var och en av de fyra uppgiftsförhållandena har sin egen linjära diskriminant funktion med en viktparameter för varje voxel (en) (en (en), en (en LR), en (en LL), en (en) ). Orientering rivning stimuli experiment Vi använde data från Kamitani och Tong (2005), där ett försöksperson tittade på en av de åtta möjliga orientering stimuli medan hjärnaktivitet övervakades i retinotopiska visuella områden (V1-V4) med hjälp av standard fMRI procedurer. För att undersöka översessionens generalisering analyserade vi två experimentella 1419 O. Yamashita et al. / NeuroImage 42 (2008) 1414-1429 datamängder som registrerats med ungefär en månads mellanrum (dag 1 och dag 2) från samma person. Data från dag 1 och dag 2 tjänade som tränings- och testdata (24 block för varje orientering under båda sessionerna). Se Kamitani och Tong (2005) för närmare information. Vi utförde binära klassificeringar av alla par av åtta orienteringar (totalt 28 par) snarare än åtta klass klassificering. Resultaten kombinerades sedan i fyra grupper enligt orienteringsskillnaden mellan stimuli: 22,5 grader (8 par), 45 grader (8 par), 67,5 grader (8 par) och 90 grader (4 par), eftersom avkodningsnoggrannheten beror på orienteringsskillnaden. Analyser utfördes med voxels från V1-V4 (647 voxels totalt) som rangordnades efter T-värdet eller SC-värdet med hjälp av dag 1-data. T-värden beräknades för varje voxel baserat på konventionell T-statistik, som jämförde svaren på de två riktningar som ska klassificeras. SC-värden beräknades enligt det förfarande som beskrivs ovan (80 % utbildning, 20 % test). Voxlar med M högsta rang, antingen med T-värdet eller med SC-värdet, valdes som element i egenskapsvektorn för klassificering (M varierade från 5 till 40). Därefter beräknades de linjära vikterna för den logistiska regressionsmodellen (utan gles uppskattning) med hjälp av dag 1-data, och klassificeringsprestandan utvärderades med hjälp av dag 2-data. Innan logistisk regression tillämpades normalisering så att varje vald voxel har ett medelvärde 0 och varians 1. Ovanstående förfarande upprepades för alla de 28 paren. Genomsnittlig klassificeringsprestanda för T-värde rangordnade voxels och SC-värde rangordnade voxels jämfördes vid fyra nivåer av orienteringsskillnad. Därefter genomförde vi shuffleanalysen på T-värdet och SC-värdet rankade voxels för att undersöka effekten av voxelkorrelation på klassificeringsprestandan. Shufflemåttet beräknades för varje par och voxelnummer, genom att upprepa blandning av träningsdata 300 gånger. Resultat Vi testade först prestandan hos SLR med hjälp av en simulerad datauppsättning där vi fixade antalet relevanta funktioner och varierade antalet irrelevanta funktioner inom uppsättningen. Denna datauppsättning, även om den är mycket förenklad, fångar ett potentiellt problem som kan uppstå med fMRI-data: voxelmönster inne i en liten hjärnregion visar aktivitet som är relevant för den givna uppgiften, men majoriteten av voxels är irrelevanta. Vi jämförde testprestanda mellan SLR och linjär regulariserad logistisk regression (RRR), som använder samma logistiska modell som SLR men saknar ARD-förfarandet för att minska antalet dimensioner. Vi beräknade också testprestanda för stödvektormaskiner (SVM) för jämförelse. På bild. 3 a), testprestanda för SLR, RLR och SVM ritas som en funktion av antalet indatafunktioner D. prestandan för SLR var lägre och jämförbar med den för RLR respektive SVM, när det totala antalet funktioner är litet, så att de flesta funktioner är relevanta (observera att det finns 10 relevanta funktioner). SLR börjar dock överträffa RLR och SVM eftersom antalet irrelevanta funktioner ökar. Även om resultaten av SLR, RLR och SVM sjunker av när antalet irrelevanta funktioner ökar, är avlämningen mycket långsammare för SLR, vilket tyder på att SLR är mer robust mot förekomsten av irrelevanta funktioner än de andra två metoderna. På bild. 3 b, Det genomsnittliga antalet funktioner som valts av SLR ritas. Antalet utvalda egenskaper var något större än antalet för de relevanta dimensionerna för ett antal initiala indatamått (D = 100-2000). Även om flera irrelevanta inslag valdes ut i dessa fall, togs de flesta av de irrelevanta egenskaperna bort. Resultatet blev att SLR:s resultat inte föll av så mycket som det visas i Fig. 3 a.................................................................. När det gäller D = 10, där alla funktioner är relevanta, var det genomsnittliga antalet utvalda funktioner färre än 10. Detta "överbefolkande" ligger till grund för SLR:s dåliga resultat vid D = 10 bild. 3............................................................... Utvärdering av SLR med hjälp av simuleringsdata. Dataprover för binär klassificering genererades slumpmässigt från två Gaussiska distributioner. Endast de första 10 dimensionerna var inställda på att vara informativa med graderade genomsnittliga skillnader. Observera att eftersom problemet här är binärt, antalet dimensioner/funktioner är identiskt med det av viktparametrar. På bild. 3 a............................................................... Bilda. 3 c) visar hur ofta var och en av de relevanta egenskaperna valdes ut av SLR. Vi kan observera att dimensioner med högre relevans (stor genomsnittlig skillnad) tenderar att väljas oftare, medan de totala frekvenserna minskar med antalet initiala funktioner. Dessa resultat visar att även om funktionen val av SLR tenderar att överprune svagt relevanta funktioner, det automatiskt väljer mycket relevanta funktioner, tar bort de flesta av de irrelevanta funktioner, och bidrar till att förbättra klassificeringen prestanda i närvaro av många irrelevanta funktioner. Därefter applicerade vi SLR på experimentella fMRI-data som erhållits från en enkel visuell stimuleringsstudie. I varje block av detta experiment, en paj-formad fladdrande checkerboard presenterades i en av de fyra visuella fält kvadranter (se Metoder). Decoding analys utfördes för att förutsäga vilken visuell kvadrant som fick stimulering med hjälp av fMRI aktivitetsmönster från synbar cortex. Denna datauppsättning tillät oss att testa om placeringen av SLR-selected voxels överensstämmer med känd funktionell anatomi av retinotopic visuell cortex (Engel et al., 1994). Eftersom klassificeringsproblemet här omfattar fyra klasser använde vi sparse multinomial logistisk regression (SMLR), den flerklassiga versionen av SLR. Eftersom var och en av de fyra arbetsförhållandena har sin egen linjära diskriminantfunktion, definierad av en viktparameter för varje voxel (- = (-) (UR), - (LR), - (LL), - (UL) ), kan SMLR användas för att identifiera relevanta voxels för var och en av de fyra arbetsförhållandena. Vi utvärderade SMLR:s och RMLR:s prestanda med hjälp av ett korsvalideringsförfarande med en permission-one-run-out. Testprestandan och antalet parametrar som visas är medelvärden över 6 datauppsättningar för korsvalidering. Tabell 1 sammanfattar klassificeringsnoggrannheten och antalet egenskaper som används med och utan gles uppskattning för fyra försökspersoner. Antalet parametrar med gles uppskattning är det totala antalet icke-noll parametrar i ska (UR), och (LR), och (LL), (UL). Observera att antalet funktioner som används för RMLR är lika med det ursprungliga antalet funktioner för SMLR. Med början från cirka 6000 parametrar valde SMLR ut mycket få parametrar (8,4 ± 2,2 mellan försökspersonerna) men uppnådde ändå hög avkodningsnoggrannhet (91,3 ± 8,7 % mellan försökspersonerna; slumpnivå 25 %). Dess prestanda var jämförbar med den för RMLR (89,9 ± 9,2 % för alla försökspersoner) med hjälp av alla occipital voxels. Detta visar att SSLR kan välja ett litet antal effektiva parametrar utan att försämra klassificeringen. Vi fann dock inte någon betydande förbättring av prestandan med en gles uppskattning av SMLR. Detta beror förmodligen på att de första voxlarna hade valts ut i förväg av bläckfiskmasken, så att många av voxlarna innehöll information som var användbar för klassificeringsuppgiften. Vi inspekterade de platser för voxels utvalda av SSLR. Bilderna i mitten av Bild. 4 visa ofta utvalda voxlar (identifieras mer än 3 gånger i 6 korsvalideringssteg) med nackloben mask överlagd på T2-anatomiska bilden för subjekt 1. Observera att var och en av de fyra linjära särskiljande funktionerna, som innebär närvaron av stimulansen i varje kvadrant, hade sin egen uppsättning utvalda voxlar. Färgen anger motsvarande kvadrant för varje vald voxel. I detta ämne, endast en voxel valdes för tre kvadranter, och tre för den återstående kvadranten. Platserna för dessa Voxels fint matchade den kända retinotopic organisationen av visuell cortex: Voxels för de fyra kvadranterna hittades i motsvarande region av den visuella cortex (t.ex., Voxel för den övre vänstra kvadranten hittades i den ventrala stranden av den högra calcarine sulcus). De utvalda voxlarna matchade också väl med voxels som visade höga F-värden från ANOVA 1-vägsanalysen (data som inte visades). Den genomsnittliga BOLD-tiden (30 s från stimulansstarten) för de valda voxels för varje stimulansplats visas också i bild. 4........................................... Varje voxel visar ett mycket selektivt svar på den stimulans som presenteras i motsvarande kvadrant. Dessa resultat visar att SSLR automatiskt kan hitta voxlar som är selektivt aktiverade av de enskilda arbetsförhållandena. Det bör noteras att vi observerade variabilitet i de utvalda voxels, även om de utbildningsdata som användes för det 6-faldiga korsvalideringsförfarandet innebar betydande överlappningar. Detta tyder på att de voxels som valts ut av SLR är något känsliga för innehållet i träningsdatauppsättningen. Men om vi fokuserar på voxels konsekvent utvalda över flera iterationer, de flesta av dessa hittades nära kalkarinsulcus i den primära visuella cortex (genom visuell inspektion av sagittal skivor), och deras relativa positioner matchade väl med den retinotopiska organisationen av V1. Dessa tendenser upptäcktes i de flesta fall, med undantag för villkor UR och UL för subjekt 3. Slutligen tillämpade vi SLR på fMRI-data som erhållits medan ett ämne tittade på galler av åtta olika inriktningar (Kamitani och Tong, 2005). Ritningar av olika inriktningar framkallar endast subtila skillnader i aktivitet i varje voxel, till skillnad från de stimuli som presenteras i de fyra olika kvadranterna. Således måste flera voxlar kombineras för att uppnå höga nivåer av orienteringsselektiv prestanda, som vi kallar "sensemble feature selection". SLR kan ge ett effektivt sätt att hitta kombinationer av voxlar för korrekt avkodning genom att ta bort irrelevanta voxlar. För denna analys introducerar vi SC-värderankningsmetoden som sorterar voxels enligt urvalsfrekvensen av SLR viktad med korsvalideringsnoggrannheten. Sedan jämför vi den med T-värdets rankningsmetod baserad på voxel-by-voxel univariat statistik som direkt jämför två villkor som ska klassificeras. Först jämförde vi skillnaden mellan de två rankningsmetoderna, genom att plotta SC-värden och T-värden för voxels sorterade tabell 1 Jämförelse av SMLR och RMLR i testprestanda och antalet parametrar för avkodning av fyra kvadranter Denna tabell sammanfattar resultaten av permission-one-run-out korsvalidering för fyra försökspersoner. Kolumnen för 'Test performance' visar de genomsnittliga korrekta procentsatserna och standardavvikelserna beräknade av SMLR och RMLR. Kolumnen "Antal parametrar" visar det genomsnittliga antalet parametrar (och standardavvikelserna) Tabell 1 Jämförelse av SMLR och RMLR i testprestanda och antalet parametrar för avkodning av fyra kvadranter Denna tabell sammanfattar resultaten av permission-one-run-out korsvalidering för fyra ämnen. Kolumnen för 'Test performance' visar de genomsnittliga korrekta procentsatserna och standardavvikelserna beräknade av SMLR och RMLR. Kolumnen "Antal parametrar" visar det genomsnittliga antalet parametrar (och standardavvikelser) som valts av SMLR och de som används av RMLR. Observera att RMLR inte utför voxel/feature val av sig själv. Antalet parametrar som används av RMLR är alltså fyra (dvs. antalet klasser) gånger antalet initiala indatavoxlar. För det andra undersökte vi om SC-rankade voxels leder till bättre prestanda än T-värde rankade voxels. Bilda. 6 visar testprestanda för SC-rankade voxlar och T-värdet rankade voxlar. Procent korrekt klassificering är plottad mot det antal voxlar som valts från toppen av leden. Resultaten av 28 binära klassificeringar grupperas enligt orienteringsskillnaderna (22,5, 45, 67,5 och 90 grader). SCrankade voxels i allmänhet överträffade T-värdet rankade voxels. Prestandaskillnaderna med hjälp av de topprankade 40 voxels är 6,5 %, 6,3 %, 10,4 % respektive 4,7 % för orienteringsskillnader på 22,5, 45, 67,5 respektive 90 grader. Signifikanta skillnader i de totala prestationsprofilerna observerades för alla fyra orienteringsjämförelser (tvåvägs ANOVA, upprepad mätning, [rankningsmetod] × [voxeltal], signifikant [rankningsmetod] effekt P b 0,05, ingen signifikant [voxeltal] effekt förutom 90 graders skillnadsgrupp och ingen signifikant interaktion). Det kan verka förbryllande att voxlar med låga T-värden, som inte ger distinkta svar på olika arbetsförhållanden, kan leda till högre klassificeringsnoggrannhet. Det är dock känt att icke särskiljande egenskaper, som i detta fall har låga T-värden, kan göra de multivariata mönstren i två (eller fler) klasser mer diskriminerande om de är korrelerade med särskiljande egenskaper (t.ex., Avervek et al., 2006). Bilda. 7(a) visar ett sådant exempel, där värdena för de två första voxels i Bild. 5 visas i en spridd komplott. Den röda diamanten och blå korset betecknar prover märkta med 0 grader respektive 135 grader. Den grå linjen är den linjära gräns som beräknas genom logistisk regression med hjälp av figuren. 4........................................... Decoding av fyra kvadrantstimuli. Platserna för voxels som valts av SLR visas på den anatomiska bilden. Fyllda rutor indikerar utvalda voxlar för var och en av de fyra kvadranterna som i legenden. Observera att i den multinomiska logistiska regressionsmodellen har varje klass (kvadrant) sina egna viktparametrar (se bild). 1 )............................................................................................................... Färgen anger den klass som den valda viktparametern tillhör. Den ljusare regionen visar nackmasken, från vilken en första uppsättning voxels identifierades. Endast ett fåtal voxlar valdes för denna uppgift (sex voxlar totalt för detta ämne), och de valda voxlar för varje kvadrant hittades på vertikalt och horisontellt vända platser, i enlighet med den visuella fältkartläggningen i den tidiga visuella cortex. Försöksgenomsnittliga BOLD-tidskurser (procentuell signalförändring i förhållande till resten) ritas för var och en av de valda voxelerna. Tid 0 motsvarar stimulansstarten. Färgen här anger stimulans villkor (en av de fyra kvadranterna) som i legenden. första fem voxlar (motsvarande den vänstra punkten av x-axeln i bild. 6(b) ) som funktionsvektorer. Gränsen är alltså en projektion från det femdimensionella funktionsutrymmet. Histogram av värdena för den första och den andra voxel visas längs de horisontella respektive vertikala axlarna. Dessa histogram visar att den första dimensionen är dåligt diskriminerande mellan de två klasserna jämfört med den andra dimensionen. Men man kan också se att närvaron av den första dimensionen gör de två dimensionella mönstren mer diskriminerande. Detta beror på att de två voxelerna är negativt korrelerade i termer av deras genomsnittliga respons på de två klasserna ("signalkorrelation") medan de är positivt korrelerade för proverna inom varje klass ("bullerkorrelation") (Avervek et al., 2006). Därför verkar SLR kunna utnyttja buller korrelation för att uppnå hög avkodning noggrannhet. (Fig. 5 ) visas i en scatter tomt och histogram. De röda diamanterna och de blå korsen representerar 0 grader respektive 135 graders prover i träningsdatamängden. Den grå linjen är den diskriminerande gräns som uppskattas av logistisk regression. Histogram visar fördelningen av proverna längs axlarna på den första och den andra voxel, och längs axeln ortogonal till den särskiljande gränsen. Den första voxelaxeln (x-axeln) är dåligt diskriminerande (vilket visas av det låga T-värdet i bild). 5 ), medan den andra voxel (y-axeln) är mer diskriminerande. När dessa voxlar kombineras (axelns ortogonala till den särskiljande gränsen) blir fördelningen av två klasser ännu mer diskriminerande. Observera att den diskriminerande gränsen ger bättre diskriminering än den andra voxel ensam. Den första voxel skulle kunna bidra till diskrimineringen genom sitt samband med den andra voxel, även om den har ett lågt T-värde och är dåligt diskriminerande i sig. b) Värdena i de ursprungliga uppgifterna a) blandades inom varje voxel och klass så att korrelationen mellan voxels togs bort från fördelningen för varje klass. histogrammen för två individuella voxlar är identiska med dem för de ursprungliga uppgifterna (a). Men den diskriminerande gränsen är annorlunda: diskrimineringen är nästan uteslutande beroende av den andra voxel. 1423 O. Yamashita m.fl. / NeuroImage 42 (2008) 1414-1429 Slutligen utvärderades effekten av voxelkorrespondenser på testklassificeringens prestanda med hjälp av ett shuffleförfarande som avlägsnar korrelationer genom att slumpmässigt permutera ordning på prover inom varje klass och varje dimension (se Metoder för detaljer). Bilda. 7 b) visar provernas fördelning efter blandning av proverna i bild. 7 a)................................................................. Man kan se att man blandar bort korrelationen mellan första och andra voxel medan de endimensionella histogrammen inte påverkas. Därefter beräknade vi skillnaden i testprestanda mellan de ursprungliga uppgifterna och de blandade uppgifterna, där avvikelser över noll indikerar förbättrad klassificering på grund av korrelationer mellan voxlar. Blandningsförfarandet tillämpades på binära klassificeringar med hjälp av alla voxelnummer i Bild. 6 av alla 28 par av åtta orienteringar, och resultaten ritas av de fyra orienteringsskillnaderna (Fig. 8)................................................................. Shuffle åtgärder för de 40 SCranked voxels, respektive nådde 4,1%, 5,3%, 5,2% och 8,5% för grupperna med 22,5, 45, 67,5 och 90 graders skillnad, medan de för T-värde rankade voxels var mycket mindre (-0,7%, 1,6%, 2,1% och 8,0%). Dessutom, om vi undersöker skillnaden i testprestanda mellan kurvorna som följer av SC-värde och T-värdesrankning i Bild. 6 och de i Bild. 8, De former ser mycket lik. Jämförelsevärdet mellan skillnadens kurvor i figurer. 6 och 8 var 0,73 i genomsnitt över de 28 paren. Detta tyder på att skillnaden i testprestanda mellan SC-värderankning och univariat T-värdesrankning delvis förklaras av nyttan med att välja Voxels med bullerkorrelation vid användning av SC-värderankningsmetoden. Det bör noteras att shuffle-måttet (eller någon åtgärd som utvärderar högre moment) kanske inte fungerar tillförlitligt i ett högdimensionellt funktionsutrymme eftersom prover endast distribueras glest (känd som "dimensionens förbannelse"). Därför bör man vara försiktig med att tolka resultaten av blandning när antalet voxlar är stort. Vi har infört en ny linjär klassificering för fMRI-avkodning, sparsam logistisk regression (SLR). SLR är en binär/ multi- classifier med möjlighet att automatiskt välja voxels som är relevant för ett givet klassificeringsproblem. Med hjälp av en uppsättning simuleringsdata och två uppsättningar verkliga experimentella data har vi visat följande: (1) SLR kan automatiskt välja relevanta funktioner, och därmed förhindra övermontering i viss utsträckning; (2) de platser för SLR-valda voxels är förenliga med känd funktionell anatomi; (3) SLR-valda voxels skilde sig från de platser som valts genom konventionell voxelmässigt univariat statistik, och den tidigare överträffade den senare i klassificering; (4) denna skillnad i klassificering prestanda kan delvis redovisas av korrelationsstrukturen bland de utvalda voxels. Simuleringsstudien visade att SLR kan överträffa andra klassificeringsmetoder för datamängder med ett stort antal irrelevanta funktioner, genom att automatiskt ta bort dem. Prestandan hos andra klassificeringsapparater, såsom regulariserad logistisk regression (RRR) och stödvektormaskin (SVM), försämrades anmärkningsvärt med ökningen av antalet irrelevanta funktioner. Som visas i det fall där alla funktioner är relevanta (D = 10) valde SLR inte alltid alla relevanta funktioner, men fångade många av de mycket relevanta funktionerna. Effekten av utelämnade relevanta voxlar på klassificeringsprestandan förväntas därför vara liten. Även mycket relevanta funktioner valdes ut mindre ofta med mer irrelevanta egenskaper. Som ett resultat av detta sjönk prestandan för SLR gradvis med antalet irrelevanta egenskaper, men lutningen var mindre brant än de andra två metoderna. Resultaten från kvadrantens visuella stimuleringsförsök tydde på möjligheten att tolka glest uppskattade parametrar ur fysiologisk synvinkel. Vid avkodningsanalys används klassificeringsprestanda ofta som ett index för funktionell selektivitet i ett område, eller en uppsättning voxlar. Här kunde vi identifiera relevanta hjärnregioner med hjälp av de icke-nollviktsparametrar som valts ut av SLR. I SSLR (sparse multinomial logistic regression, multinomial version av SLR) har varje klass sin egen uppsättning parametrar. Fördelningen av utvalda voxlar för varje klass ger således en klassspecifik kortikalkarta. Det bör dock noteras att eftersom denna kartläggning tyder på att Voxels bäst klassificerar data från olika experimentella förhållanden, är de inte Bild. 8............................................................... Effekten av blandning på prestandan hos SC-rankade voxels och T-rankade voxels. Samma analys som i bild. 6 utfördes med bluffade träningsdata. Skillnaden i testprestanda mellan den ursprungliga och den blandade träningsdatan beräknades (chuffle measure). Det genomsnittliga shufflemåttet (över 300 gånger shuffling) ritas upp som en funktion av antalet voxlar, för SC-rankade voxels (blå) och T-rankade voxels (röd) och för fyra orienteringsskillnader. O. Yamashita m.fl. / NeuroImage 42 (2008) 1414-1429 den kompletta uppsättningen voxels som kan vara involverade i ett givet experimentellt tillstånd. Denna metod kan betraktas som en tröskelversion av den SVM-baserade kartläggningsmetod som föreslås av LaConte et al. (2005), där viktparametrar beräknade med linjär SVM används för kartläggning. Vår metod kan vara mer robust, eftersom den tar hänsyn till variabiliteten i uppskattningen (se alfa-steget av SLR-algoritmen i bilaga A). För ytterligare förbättring av kartläggningen kan det vara att föredra att kartlägga voxlar som är gemensamma för flera utbildningsdatamängder med hjälp av en korsvalideringsteknik, som är grunden för den SLR-baserade voxelvalsmetoden (eller urvalstalet (SC) rankningsmetoden). Analysen av orienteringsdata visade att SC-värdet rangordnade voxels skilde sig från T-värdet rankade voxels, och att SC-rankade voxels överträffade T-värdet rangordnade voxels i klassificeringen av orientering. Dessutom fann vi att denna skillnad i prestanda delvis kan förklaras av korrelationsstrukturen mellan voxels. Även om klassificeringsprestandan visas i bild. 6 beräknades med logistisk regression, kvalitativt liknande resultat erhölls när linjär SVM, linjär RLR, eller Gaussian blandning klassificerare (MATLAB, classificate.m) användes. Det finns några kommentarer om denna analys. För det första övervägde vi endast upp till 40 voxels vid jämförelse av prestandan för SC-värde rankade voxels och den för T-värde rankade voxels. Detta beror på att SC-värden under 40 blev nästan nollor, vilket gjorde det omöjligt att på ett tillförlitligt sätt rangordna dessa voxels med SC-värden. För det andra visar shufflemåttet nyttan av voxelkorrelation under antagandet att fördelningen av utbildnings- och testdatamängder är stationär. Värden för denna shuffle åtgärd kan påverkas av icke-stationäritet mellan fördelningen av Dag 1 och Dag 2. Eftersom både SC- och T-värdesrankningen beräknas utifrån samma utbildningsdatamängd bör de dock inte ha särskilda fördomar i fråga om (icke-)stationaritet. Även i närvaro av icke-stationaritet bör skillnaden i shufflemått mellan SC- och T-värdets rankning återspegla skillnaden i fördelen med voxelkorrelation. För det tredje observerade vi signifikant icke-noll shuffle åtgärder även för T-värde rankade voxels. Även om val av voxel baserat på T-värdesrankning bortser från korrelationer mellan voxlar, kan voxels valda för deras höga T-värde ändå korreleras med varandra. För det fjärde innebär jämförelsen mellan T-värde rankad voxels och SC-värde rankad voxels i själva verket två faktorer: skillnaden i algoritmen (univariat T-värde vs. multivariat SLR) och skillnaden i dataprovtagningsmetoden. För att kontrollera den senare faktorn har vi beräknat en bootstrap-fördelning av T-värdet med hjälp av en omsamplingsprocedur som är jämförbar med den som används för SC-värdets rankning. Därefter rangordnades voxels efter det genomsnittliga eller normaliserade genomsnittet (uppdelat på standardavvikelsen) av fördelningen. I båda fallen ändrades inte testprocenten korrekt från den ursprungliga T-värdesrankningen, där varje T-värde endast beräknades en gång med hjälp av hela träningsdata, vilket tyder på att skillnaden i algoritmen var huvudfaktorn för jämförelsen. SLR är en bekväm klassificering i flera avseenden. Det kan fungera även när antalet träningsdata prover är mindre än antalet voxels (features). Det kan minimera övermontering genom att automatiskt ta bort irrelevanta voxels, och kan användas för voxel val. Det kräver inte justering parametrar manuellt. Således skulle tillämpningen av SLR kunna visa sig vara lika användbar som SVM, som har blivit allt populärare i flera nyligen genomförda fMRI-studier (Cox och Savoy, 2003; Mitchell et al., 2004; LaConte et al., 2005; Tong, 2005, 2006; Haynes et al., 2007 och så vidare). Det är intressant att jämföra egenskaperna hos SLR och SVM. Både SLR och linjär SVM definieras av en linjär diskriminant funktion, och innebär gles uppskattning av parametrar. Parametrarna i SLR är dock förknippade med funktioner, medan parametrarna i SVM är associerade med prover. Den linjära diskriminanta funktionen hos SLR är f x; ska ð på 1⁄4 ska t x 1⁄4 Således ligger diskriminantfunktionen för SVM i utrymmet för den ursprungliga dimensionen D. Därför är endast SLR utrustad med egenskapen funktionsval. På grund av denna funktionsvalsförmåga verkar SLR fungera bättre än SVM om en funktionsvektor består av många irrelevanta funktioner, vilket framgår av våra simuleringsresultat. För att få fram den optimala Voxel-undergruppen från en initialt stor Voxel-uppsättning krävs i allmänhet en omfattande kombinatorisk sökning. Denna sökning blir emellertid ointressant med även ett blygsamt antal voxels. En alternativ metod är att hantera varje voxel självständigt, som T-värdet rankad voxel urvalsförfarandet gör. Men denna metod försummar beroendet bland voxels. En bra kompromiss kan vara den sökljusmetod som föreslås av Kriegeskorte et al. (2006), där korrelationsstrukturen bland en lokal uppsättning voxlar (voxlar inom en sfär med 4 mm radie) i en "sökljus" används. Denna metod tar dock inte hänsyn till potentiella korrelationer mellan rumsligt avlägsna voxlar. I motsats, SLR-baserat voxel val kan utnyttja korrelationsstrukturen bland alla voxels i den ursprungliga voxel uppsättningen, utan att kräva en uttömmande kombinatorisk sökning, även om resultatet kan vara suboptimal. För regressionsproblem, Jo-Anne Ting et al. (2008 visas) jämförde matchning mellan funktioner som valts med ARD-metoden och de som valts med brute-force-metoden. De visade att de flesta funktioner (neuroner) som valts med ARD-metoderna matchade med dem som valts med brute-force-metoden (över 90%). Deras resultat kan också stödja giltigheten av funktionen val av SLR. En nackdel med SLR är beräkningskostnaden (tid och minne). Som anges i tillägg A är skattningsalgoritmen en iterativ algoritm med den hessiska matrisen inversion av storlek D × D, där D är antalet funktionsmått eller voxlar. När det gäller 10 000 dimensioner är det svårt att hålla en matris av storlek 10 000 × 10 000 i minnet. Även om en matris kan hållas i minne, en matris inversion av storlek D × D kräver också beräkningstid proportionell till D 3. I vårt exempel på det fyra kvadrantexperimentet tar det ungefär 1 timme att analysera data från ett ämne som utför hela leave-one-run-out-proceduren med en Linux-maskin med en 1425 O. Yamashita et al. / NeuroImage 42 (2008) 1414-1429 2,66 GHz-processor och ett 4 GB-minne. En metod för att övervinna detta beräkningsproblem är direkt approximation av den logistiska funktionen med hjälp av en variationsparameter (Jaakkola och Jordanien, 2000; Bishop och Tipping, 2000). Detta tillvägagångssätt kräver inte explicit beräkning av den hessiska matrisen. Nyligen har vi implementerat denna uppskattningsalgoritm. Även om denna approximation endast gäller för binär klassificering, kan vi nu genomföra en helhjärna klassificering analys. Ett annat tillvägagångssätt är det sekventiella uppdateringsförfarandet för komponentvis. Två olika algoritmer baserade på detta tillvägagångssätt har föreslagits för den logistiska regressionsmodellen med ARD-modellen (Tippning och Faul, 2003) och för multinomial logistisk regression med Laplace tidigare (Krishnapuram et al., 2005). Dessa algoritmer kräver mindre minne och mindre beräkning än vår metod. I synnerhet kräver den senare algoritmen bara minne och beräkningstid proportionell mot D, som är mycket mindre än de som krävs av vår algoritm. Jämförelse av beräkningstid, klassificeringsprestanda och överlevande voxels mellan vår algoritm och dessa sekventiella algoritmer kan vara ett intressant framtida arbete. Vår nuvarande metod är begränsad till linjär klassificering. Det är möjligt att utvidga ramen till icke-linjära diskriminanta funktioner genom att kombinera en kärnfunktion med den automatiska relevansbestämningstekniken (ARD). Men detta tillvägagångssätt skulle kunna kosta mycket mer beräkningsresurser och drabbas hårdare av problemet med lokala minima. | Yamashita m.fl. utvecklat Sparse Logistik Regression (SLR) för att förbättra prestandan hos klassificeringsmodeller REF. | 15,790,320 | Sparse estimation automatically selects voxels relevant for the decoding of fMRI activity patterns | {'venue': 'NeuroImage', 'journal': 'NeuroImage', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 5,414 |
ABSTRACT Trådlösa sensornätverk (WSN) kommer att integreras i det framtida Internet som en av komponenterna i sakernas Internet, och kommer att bli globalt adresserbara av alla enheter som är anslutna till Internet. Trots den stora potentialen i denna integration, medför det också nya hot, såsom exponering av sensornoder för attacker från Internet. I detta sammanhang måste lätta autentiserings- och nyckelavtalsprotokoll finnas på plats för att möjliggöra säker kommunikation från början till slut. Nyligen, Amin et al. föreslog ett protokoll om ömsesidig autentisering med tre faktorer för WSN. Men vi identifierade flera brister i deras protokoll. Vi fann att deras protokoll lider av smart kort förlust attack där användarens identitet och lösenord kan gissas med hjälp av offline brute force tekniker. Dessutom lider protokollet av kända sessionsspecifika tillfälliga informationsattack, vilket leder till avslöjande av sessionsnycklar i andra sessioner. Dessutom är protokollet sårbart för spårning attack och misslyckas med att uppfylla användaren ospårbarhet. För att åtgärda dessa brister presenterar vi ett lättviktigt och säkert användarautentiseringsprotokoll baserat på Rabin cryptosystemet, som har egenskapen beräkningsasymmetri. Vi utför en formell verifiering av vårt föreslagna protokoll med hjälp av ProVerif för att visa att vårt system uppfyller de erforderliga säkerhetsegenskaperna. Vi presenterar också en omfattande heuristisk säkerhetsanalys för att visa att vårt protokoll är säkert mot alla möjliga attacker och ger de önskade säkerhetsfunktionerna. De resultat vi fick visar att vårt nya protokoll är en säker och lätt lösning för autentisering och nyckelavtal för Internetintegrerade WSNs. INDEX TERMS Autentisering, biometriska kännetecken, nyckelhantering, integritet, Rabin kryptosystem, smartkort, trådlösa sensornätverk. | Som ett botemedel, Jiang et al. REF byggde ett förbättrat användarautentiseringssystem med tre faktorer på Rabin cryptosystem för WSN. | 3,343,893 | Lightweight Three-Factor Authentication and Key Agreement Protocol for Internet-Integrated Wireless Sensor Networks | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 5,415 |
Att överföra beräkningar för hantering av kognitiva radionät (CRN) till ett datormoln öppnar möjligheten att implementera nya, möjligen mer exakta och kraftfulla resurshanteringsstrategier. Algoritmer för att upptäcka kommunikationskanaler som för närvarande används av en primär sändare och identifiera skadliga noder med hög sannolikhet kan baseras på tidigare historia; när förtroendet beräknas av de mobila enheterna är detta tillvägagångssätt inte möjligt eftersom sådana algoritmer kräver enorma mängder data och intensiva beräkningar. I detta dokument introducerar vi en molntjänst baserad på en ny trust management algoritm; denna lösning, som är tillämplig på infrastruktur-baserade och ad hoc CRNs, säkerställer säker och robust drift i närvaro av skadliga noder. Vi diskuterar de ekonomiska fördelarna, skalbarheten och robustheten hos den föreslagna tjänsten för olika nätverkskonfigurationer och parametrar. Nyckelord: trust management; historikbaserad algoritm; molnapplikationer; mobila enheter; molntjänster; molnet elasticitet; kognitiva radionätverk. | En molntjänst för stark centraliserad förtroendehantering införs i REF. | 29,013,013 | A cloud service for trust management in cognitive radio networks | {'venue': 'IJCC', 'journal': 'IJCC', 'mag_field_of_study': ['Computer Science']} | 5,416 |
Medan randomiserade online-algoritmer har tillgång till en sekvens av enhetliga slumpmässiga bitar, deterministiska online-algoritmer med råd har tillgång till en sekvens av råd bitar, dvs. bitar som ställs in av en allsmäktig orakel innan behandlingen av begäran sekvens. Råd bits är minst lika hjälpsamma som slumpmässiga bits, men hur hjälpsamma är de? I detta arbete undersöker vi kraften i råd bits och slumpmässiga bitar för online maximal bipartite matchning (MBM). Den välkända Karp-Vazirani-Vazirani-algoritmen [24] är en optimal randomiserad (1‐1 e ) kompetitiv algoritm för MBM som kräver tillgång till enhetliga slumpmässiga bitar (n log n). Vi visar att "log( 1 )n) rådgivning bits är nödvändiga och O( 1 5 n) tillräcklig för att erhålla en (1 - )- konkurrenskraftig deterministisk rådgivning algoritm. Dessutom, för en stor naturlig klass av deterministiska rådgivningsalgoritmer, visar vi att och (log log n) rådgivning bitar krävs för att förbättra på 1 2 - konkurrenskraften hos den bästa deterministiska online-algoritm, medan det är känt att O(log n) bitar är tillräckliga [9]. Sist ger vi en randomiserad online-algoritm som använder cn slumpmässiga bitar, för heltal c ≥ 1, och ett konkurrensförhållande som närmar sig 1 − 1 e mycket snabbt som c ökar. Till exempel om c = 10, då skillnaden mellan 1 - 1 e och det uppnådda konkurrensförhållandet är mindre än 0,0002. | På nätet med rådgivning modell för bipartit matchning, Dürr et al REF tillämpa Böckenhauer et al de-randomization idé för att visa att för varje > 0, det finns en (ineffektiv) O(log n) rådgivning algoritm uppnå förhållandet (1 - ) (1 - 1 e ). | 8,279,844 | On the Power of Advice and Randomization for Online Bipartite Matching | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 5,417 |
Bildomfattning kan uppnås effektivare om vi har en bättre förståelse för bildsemantiken. I den här artikeln analyserar vi den translationella symmetrin, som finns i många verkliga bilder. Genom att upptäcka den symmetriska latticen i en bild kan vi sammanfatta, istället för att bara förvränga eller beskära, bildinnehållet. Detta öppnar ett nytt utrymme för bildstorlek som gör det möjligt för oss att manipulera, inte bara bild pixlar, utan också semantiska celler i lattice. Som en allmän bild innehåller både symmetri & icke-symmetri regioner och deras natur är olika, föreslår vi att ändra storlek symmetri regioner genom summering och icke-symmetri region genom förvrängning. Skillnaden i att ändra strategi framkallar diskontinuitet vid deras gemensamma gräns. Vi visar hur man minskar artefakten. För att uppnå praktisk storleksändring för allmänna bilder utvecklade vi en snabb symmetridetektionsmetod som kan detektera flera olika symmetriregioner, även när gitterna är böjda och perspektivmässigt sedda. Jämförelser med de senaste teknikerna för att ändra storlek och en användarstudie genomfördes för att validera den föreslagna metoden. Övertygande visuella resultat har visat sig vara effektiva. | REF ändrar storlek på arkitektoniska modeller i en bild genom att uttryckligen utnyttja symmetri. | 28,112,817 | Resizing by symmetry-summarization | {'venue': 'SIGGRAPH 2010', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,418 |
Abstract Partiell etikettinlärning syftar till att lära sig av utbildningsexempel som var och en förknippas med en uppsättning kandidatetiketter, bland vilka endast en etikett är giltig för utbildningsexempel. Den grundläggande strategin för att lära sig av exempel på partiell märkning är disambition, dvs. genom att försöka återställa informationen om mark-sanning-märkning från kandidatetiketten. Som ett av de populära maskininlärningsparadigmerna har maximal marginalteknik använts för att lösa problemet med partiell märkningsinlärning. Befintliga försök utför disambiguation genom att optimera marginalen mellan den maximala modelleringsutgången från kandidatetiketter och den från icke-kandidater. Icke desto mindre bortser denna formulering från marginalen mellan marktruth-etiketten och andra kandidatetiketter. I detta dokument föreslås en ny maximal marginalformulering för deletikettinlärning som direkt optimerar marginalen mellan grundetiketten och alla andra etiketter. Specifikt, den prediktiva modellen lärs genom en omväxlande optimering förfarande som samordnar uppgiften mark-truth etikett identifiering och marginal maximization iterativt. Omfattande experiment på artificiella såväl som verkliga dataset visar att det föreslagna tillvägagångssättet är mycket konkurrenskraftigt mot andra väletablerade metoder för partiellt lärande. | Därför utarbetade Yu och Zhang REF en ny SLL maximal marginal formulering baserad på stöd vektor maskiner (SVMs) som direkt maximerar marginalen mellan marktruth etiketten och alla andra etiketter. | 1,508,328 | Maximum margin partial label learning | {'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']} | 5,419 |
Abstrakt. Även om ett autonomt mobilt ad hoc-nätverk (MANET) är användbart i många scenarier, är en MANET ansluten till Internet mer önskvärt. Denna sammankoppling uppnås genom att man använder gateways, som fungerar som broar mellan en MANET och Internet. Innan en mobil nod kan kommunicera med en Internet-värd måste den hitta en rutt till en gateway. Det krävs alltså en mekanism för att upptäcka portarna. I detta dokument MANET routing protokoll ad hoc On-Demand Distance Vector (AODV) utvidgas för att uppnå sammankopplingen mellan en MANET och Internet. Dessutom undersöks och jämförs tre metoder för upptäckt av gateway. Frågan om huruvida konfigurationsfasen med gateway bör initieras av gateway, av den mobila noden eller genom att blanda dessa två tillvägagångssätt diskuteras. Vi har implementerat och simulerat dessa tre metoder och diskuterar fördelarna och nackdelarna med de tre alternativen. | De traditionella mekanismerna för upptäckt av gateway beskrivs och simuleras i REF. | 14,433,184 | Performance of Internet Access Solutions in Mobile Ad Hoc Networks | {'venue': 'EuroNGI Workshop', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,420 |
Detta dokument undersöker användningen av djup förstärkning lärande (DRL) i utformningen av en "universal" MAC-protokoll som kallas Deep-reforcement Inlärning Multiple Access (DLMA). Konstruktionsramen är delvis inspirerad av visionen av DARPA SC2, en treårig tävling där konkurrenterna ska komma med en ren design som "bästa dela spektrum med alla nätverk, i alla miljöer, utan förkunskaper, utnyttja maskininlärningsteknik". Även om omfattningen av DARPA SC2 är bred och innebär omdesign av PHY, MAC och Network lager, är detta papper fokus smalare och endast omfattar MAC design. I synnerhet anser vi att problemet med att dela ankomst- och avgångstider mellan flera tidssloterade nätverk som antar olika MAC-protokoll. Ett av MAC-protokollen är DLMA. De andra två är TDMA och ALOHA. DLMA:s DRL-agenter vet inte att de två andra MAC-protokollen är TDMA och ALOHA. Ändå, genom en rad observationer av miljön, sina egna åtgärder, och belöningarna - i enlighet med DRL algoritmic ram - en DRL agent kan lära sig den optimala MAC-strategin för harmonisk samexistens med TDMA och ALOHA noder. I synnerhet, användningen av neurala nätverk i DRL (i motsats till traditionell förstärkning lärande) möjliggör snabb konvergens till optimala lösningar och robusthet mot perturbation i hyper-parameter inställningar, två väsentliga egenskaper för praktisk spridning av DLMA i verkliga trådlösa nätverk. | Yu m.fl. REF undersöker ett DRL-baserat MAC-protokoll för heterogena trådlösa nätverk. | 8,683,793 | Deep-Reinforcement Learning Multiple Access for Heterogeneous Wireless Networks | {'venue': '2018 IEEE International Conference on Communications (ICC)', 'journal': '2018 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science']} | 5,421 |
Abstract-In mobila ad hoc-nätverk, på grund av opålitliga trådlösa medier, värdrörlighet och brist på infrastruktur, ger säker kommunikation är en stor utmaning i denna unika nätverksmiljö. Vanligtvis används kryptografiteknik för säker kommunikation i trådbundna och trådlösa nätverk. Den asymmetriska kryptografin används i stor utsträckning på grund av dess mångsidighet (autentisering, integritet och sekretess) och enkelhet för nyckeldistribution. Detta tillvägagångssätt bygger dock på en centraliserad ram för offentlig nyckelinfrastruktur (PKI). Den symmetriska metoden har beräkningseffektivitet, men den lider av potentiella attacker mot nyckelavtal eller nyckelfördelning. I själva verket är alla kryptografiska medel ineffektiva om nyckelhanteringen är svag. Nyckelhantering är en central aspekt för säkerheten i mobila ad hoc-nät. I mobila ad hoc-nät är databelastningen och komplexiteten i nyckelhanteringen starkt föremål för begränsningar av nodens tillgängliga resurser och nätverkets dynamiska topologi. I detta dokument föreslår vi en säker och effektiv nyckelhanteringsram (SEKM) för mobila ad hoc-nät. SEKM bygger PKI genom att tillämpa ett hemligt delningssystem och en underliggande multicast servergrupp. I SEKM skapar servergruppen en bild av certifieringsmyndigheten (CA) och tillhandahåller uppdateringstjänst för certifikat för alla noder, inklusive servrarna själva. Ett biljettsystem införs för effektiv certifikattjänst. Dessutom föreslås ett effektivt system för uppdatering av servergrupper. | I REF gör systemet för säker och effektiv nyckelhantering (SEKM) det möjligt att dela uppdateringar mellan servrar i multicast-grupper. | 9,896,890 | Secure and Efficient Key Management in Mobile Ad Hoc Networks | {'venue': 'IPDPS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,422 |
Ramen för Cascade-regression har visat sig vara effektiv för att upptäcka landmärken i ansiktet. Den börjar från en inledande ansiktsform och förutspår gradvis ansiktsform uppdateringen från de lokala utseende funktioner för att generera ansiktet landmärke platser i nästa iteration till konvergens. I detta dokument förbättrar vi ramverket för kaskadregression och föreslår Constomed Joint Cascade Regression Framework (CJCRF) för samtidig igenkänning av ansiktsåtgärder och upptäckt av ansiktsmarkörer, som är två relaterade ansiktsanalysuppgifter, men sällan utnyttjas tillsammans. I synnerhet lär vi oss först relationerna mellan ansiktsaction enheter och ansiktsformer som en begränsning. Sedan, i den föreslagna begränsade gemensamma kaskad regression ram, med hjälp av begränsningen, vi iterativt uppdatera ansiktet landmärke platser och åtgärdsenheten aktivering sannolikheter fram till konvergens. Experimentella resultat visar att de sammanflätade relationerna mellan ansiktsaction enheter och ansiktsformer ökar prestandan för både ansiktsaction enhet igenkänning och ansikts landmärke upptäckt. De experimentella resultaten visar också hur effektiv den föreslagna metoden är i jämförelse med de senaste verken. | Wu REF utnyttjade gemensamma åtgärder enhet upptäckt och ansikts landmärke lokalisering och visade att begränsningarna kan förbättra både AU och landmärke upptäckt. | 8,426,942 | Constrained Joint Cascade Regression Framework for Simultaneous Facial Action Unit Recognition and Facial Landmark Detection | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 5,423 |
En kritisk aspekt av applikationer med trådlösa sensornätverk är nätverkets livslängd. Batteridrivna sensorer är användbara så länge de kan kommunicera infångade data till en processnod. Sensing och kommunikation förbrukar energi, vilket gör att omdömesgill energihantering och schemaläggning effektivt kan förlänga drifttiden. För att övervaka en uppsättning mål med kända platser när tillträde till marken i det övervakade området är förbjudet, är en lösning att distribuera sensorerna på distans, från ett luftfartyg. Förlusten av exakt sensorplacering skulle då kompenseras av en stor sensorpopulationstäthet i fallzonen, vilket skulle förbättra sannolikheten för måltäckning. De data som samlas in från sensorerna skickas till en central nod för behandling. I detta dokument föreslår vi en effektiv metod för att förlänga sensornätverkets driftstid genom att organisera sensorerna i ett maximalt antal separata uppsättningar omslag som aktiveras successivt. Endast sensorerna från den aktuella aktiva uppsättningen ansvarar för övervakning av alla mål och överföring av insamlade data, medan noder från alla andra uppsättningar är i viloläge med låg energi. I det här dokumentet tar vi upp problemet med maximal osammanhängande uppsättning och vi utformar en heurist som beräknar uppsättningarna. Teoretisk analys och resultat av prestationsutvärdering presenteras för att verifiera vårt tillvägagångssätt. | Cardei och Du REF tar upp problemet med måltäckning där de olika uppsättningarna modelleras som separata uppsättningar, så att varje täckning helt övervakar alla målpunkter. | 8,022,422 | Improving wireless sensor network lifetime through power aware organization | {'venue': 'ACM Wireless Networks', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,424 |
Abstract-Målet med online händelseanalys är att upptäcka händelser och spåra deras tillhörande dokument i realtid från en kontinuerlig ström av dokument som genereras av flera informationskällor. Till skillnad från traditionell text kategorisering metoder, händelseanalys metoder överväga tidsmässiga samband mellan dokument. Sådana metoder lider dock av problemet med tröskelberoende, så de fungerar bara bra för ett smalt spektrum av tröskelvärden. Dessutom ändras ofta det optimala tröskelvärdet (dvs. det tröskelvärde som ger bäst resultat) om innehållet i en dokumentström ändras. I detta dokument föreslår vi en tröskelresilient online-algoritm, kallad Incremental Probabilistic Latent Semantic Indexing (IPLSI) algoritm, som lindrar problemet med tröskelberoende och samtidigt upprätthåller kontinuiteten i latenta semantik för att bättre fånga berättelsens utveckling av händelser. IPLSI-algoritmen är teoretiskt sund och empiriskt effektiv och effektiv för händelseanalys. Resultaten av den prestandautvärdering som utförts på ämnesdetektion och spårning (TDT)-4 corpus visar att algoritmen minskar kostnaden för händelseanalys med så mycket som 15 procent $ 20 procent och ökar det acceptabla tröskelvärdet med 200 procent till 300 procent över baslinjen. | Närmast till vårt arbete är den nyligen publicerade inkrementella probabilistiska latent semantisk indexeringsmetod av Chou och Chen REF. | 15,533,305 | Using Incremental PLSI for Threshold-Resilient Online Event Analysis | {'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']} | 5,425 |
Abstract Process upptäckt är problemet med, med tanke på en logg av observerat beteende, att hitta en process modell som "bästa" beskriver detta beteende. Ett stort antal olika processupptäcktsalgoritmer har föreslagits. Inga befintliga algoritmgarantier för att returnera en passande modell (dvs. kunna reproducera allt observerat beteende) som är ljud (fri från dödläge och andra anomalier) i ändlig tid. Vi presenterar en extensible ram för att från varje given logg upptäcka en uppsättning blockstrukturerade processmodeller som är ljud och passar det observerade beteendet. Dessutom karakteriserar vi den minimala information som krävs i loggen för att återupptäcka en viss processmodell. Vi tillhandahåller sedan en polynom-tidsalgoritm för att upptäcka en ljud, montering, blockstrukturerad modell från en given logg; vi ger tillräckliga villkor på loggen för vilken vår algoritm returnerar en modell som är språkekvivalent med den processmodell som ligger bakom loggen, inklusive osynligt beteende. Tekniken implementeras i ett prototypiskt verktyg. | En ny teknik som vägleds mot upptäckten av blockstrukturerade modeller och har låg komplexitet har presenterats i REF. | 7,183,730 | Discovering Block-Structured Process Models From Event Logs- A Constructive Approach | {'venue': 'Petri Nets', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 5,426 |
Abstract-Web-tillämpningar är viktiga komponenter i den globala informationsinfrastrukturen, och det är viktigt att se till att de är tillförlitliga. Många tekniker och verktyg för att validera webbapplikationer har skapats, men få av dessa har tagit itu med behovet av att testa webbapplikationens funktionalitet och ingen har försökt utnyttja data som samlats in i driften av webbapplikationer för att hjälpa till med testning. I detta dokument presenterar vi flera tekniker för att använda användarsessionsdata som samlats in när användare använder webbapplikationer för att hjälpa till att testa dessa applikationer ur ett funktionellt perspektiv. Vi rapporterar resultat från ett experiment som jämför dessa nya tekniker med befintliga white-box tekniker för att skapa testfall för webbapplikationer, bedömer både lämpligheten av de genererade testfallen och deras förmåga att upptäcka fel på en point-of-sale Web-applikation. Våra resultat visar att användarsessionsdata kan användas för att producera testsviter mer effektiva totalt än de som produceras av de vit-box tekniker som beaktas; men de fel som upptäcks av de två klasserna av tekniker skiljer sig, vilket tyder på att teknikerna kompletterar varandra. | Elbaum et al.. REF visar att användarsessionsdata kan användas för att producera testsviten för testning av webbprogram och att svitens effektivitet kommer att motsvara testning i white box. | 9,291,713 | Leveraging user-session data to support Web application testing | {'venue': 'IEEE Transactions on Software Engineering', 'journal': 'IEEE Transactions on Software Engineering', 'mag_field_of_study': ['Computer Science']} | 5,427 |
Abstrakt. Aspekter definieras som väl modulerade övergripande problem. Trots att det är en kärnsatsning i Aspect Oriented Programming har lite forskning gjorts när det gäller att karakterisera och mäta övergripande problem. Några av de frågor som inte har undersökts fullt ut är: Vilka typer av övergripande problem finns? Vilka språkkonstruktioner använder de? Och vad är effekten av tvärgående i faktiska Aspect Orienterade program? I det här dokumentet presenterar vi grundläggande kodmått som kategoriserar tvärskärning enligt antalet klasser som korsas och de språkkonstruktioner som används. Vi tillämpade mätvärdena på fyra icke-triviala öppna källkodsprogram implementerade i AspectJ. Vi fann att för dessa system, antalet klasser korsas av råd per tvärskärning är liten i förhållande till antalet klasser i programmet. Vi argumenterar varför vi anser att detta resultat inte är atypiskt för Aspect Orienterade program och dra en relation till andra icke-AOP tekniker som ger tvärgående. | LopezHerrejon et al REF, definiera en uppsättning metriska för aspektorienterad programmering som kategoriserar tvärskärning enligt antalet klasser korsade och deras språkkonstruktioner. | 14,659,345 | Measuring and Characterizing Crosscutting in Aspect-Based Programs: Basic Metrics and Case Studies | {'venue': 'In Proc. Int’l Conf. Fundamental Approaches to Software Engineering', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,428 |
Vi anser att problemet är att effektivt bevisa integriteten hos data som lagras på opålitliga servrar. I den bevisbara datainnehavsmodellen (PDP) förbehandlar klienten datan och skickar den sedan till en opålitlig server för lagring, samtidigt som en liten mängd metadata sparas. Kunden ber senare servern att bevisa att de lagrade uppgifterna inte har manipulerats med eller tagits bort (utan att ladda ner de faktiska uppgifterna). Det ursprungliga PDP-systemet gäller dock endast statiska (eller endast bihang) filer. Vi presenterar en definitionsram och effektiva konstruktioner för dynamisk bevisbar datainnehav (DPDP), som utökar PDP-modellen för att stödja påvisbara uppdateringar av lagrade data. Vi använder en ny version av autentiserade ordböcker baserat på rank information. Priset för dynamiska uppdateringar är en prestandaförändring från O(1) till O(log n) (eller O(n) log n)), för en fil som består av n block, samtidigt som samma (eller bättre, respektive) sannolikhet för felbeteende upptäckt. Våra experiment visar att denna avmattning är mycket låg i praktiken (t.ex., 415KB bevisstorlek och 30ms beräknings omkostnader för en 1GB-fil). Vi visar också hur vi tillämpar vårt DDP-system på utkontrakterade filsystem och versionskontrollsystem (t.ex. CVS). | Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF har föreslagit att man använder ett autentiserat lexikon baserat på rankinformation för att bevisa innehav av uppgifter. | 52,856,440 | Dynamic provable data possession | {'venue': 'ACM Conference on Computer and Communications Security', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,429 |
Många praktiska komprimerade signaler som bildsignaler eller nätverksdata i trådlösa sensornätverk har icke-uniform supportdistribution i sin glesa representationsdomän. Med hjälp av denna tidigare information föreslås ett nytt system för komprimerad avkänning (CS) med ojämlik skyddsförmåga i detta dokument genom införande av en fönsterstrategi som kallas expanderande fönsteravkänning (EW-CS). Beroende på betydelsen av olika delar av signalen, är signalen uppdelad i flera inhägnade undergrupper, dvs. de expanderande fönstren. Varje fönster genererar sina egna mätningar med hjälp av en slumpmässig sensormatris. De mer betydande elementen är inneslutna av fler fönster, så de fångas av fler mätningar. Denna konstruktion gör EW-CS-systemet bekvämare att implementera och förbättra den övergripande återvinningskvaliteten för icke-uniforma komprimerade signaler än vanliga CS-system. Dessa fördelar analyseras teoretiskt och bekräftas experimentellt. Dessutom tillämpas EW-CS-systemet på komprimerat förvärv av bildsignaler och nätverksbaserade data där det också har bättre prestanda än vanligt CS och befintliga ojämlika skyddssystem för CS. | Liu m.fl. REF införde en ny komprimerad avkänningsmetod som kallas expanderande fönsterkompressionsavkänning (EW-CS) för att förbättra återvinningskvaliteten för icke-uniforma komprimerade signaler. | 173,857 | Expanding Window Compressed Sensing for Non-Uniform Compressible Signals | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 5,430 |
Web 2.0-tillämpningar har fått stor uppmärksamhet eftersom deras öppna natur gör det möjligt för användare att skapa lätta semantiska byggnadsställningar för att organisera och dela innehåll. Hittills har samspelet mellan sociala och semantiska komponenter i sociala medier endast delvis undersökts. Här fokuserar vi på Flickr och Last.fm, två sociala mediesystem där vi kan relatera användarnas märkningsaktivitet med en uttrycklig representation av deras sociala nätverk. Vi visar att en betydande nivå av lokal lexikal och aktuell anpassning är observerbar bland användare som ligger nära varandra i det sociala nätverket. Vi inför en nullmodell som bevarar användaraktiviteten samtidigt som vi tar bort lokala korrelationer, vilket gör att vi kan skilja den faktiska lokala anpassningen mellan användare från statistiska effekter på grund av den varierande blandningen av användaraktivitet och centralitet i det sociala nätverket. Denna analys tyder på att användare med liknande aktuella intressen är mer benägna att vara vänner, och därför bör semantiska likhetsåtgärder mellan användare baserade enbart på deras annotationsmetadata förutsäga sociala länkar. Vi testar denna hypotes på Last.fm data set, som bekräftar att det sociala nätverket konstruerat från semantisk likhet fångar verklig vänskap mer exakt än Last.fms förslag baserade på lyssnande mönster. | De delade meta-data för användare av sociala nätverk studerades i REF, där det empiriskt visades att användare som genererade innehåll med liknande taggar var mer benägna att bli vänner på flickr och last.fm. | 10,097,662 | Folks in Folksonomies: Social Link Prediction from Shared Metadata | {'venue': 'Proceedings of the third ACM international conference on Web search and data mining WSDM2010, New York, Feb 4-6 2010, p. 271', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']} | 5,431 |
Mål: Att utforska fenomenet adjektivmodifiering i biomedicinsk diskurs över två genrer: biomedicinsk litteratur och patientjournaler. Metoder: Adjektivmodifierare avlägsnas från fraser som utvunnits ur två corpora (tre miljoner substantivfraser utvunna från MEDLINE, å ena sidan, och kliniska anteckningar från Mayokliniken, å andra sidan). De ursprungliga fraserna, adjektiven extraherade, och de resulterande demodifierade fraserna jämförs över de två corpora efter normalisering. Kvantitativa jämförelser (förekomstfrekvens) utförs på hela domänen. Kvalitativa jämförelser görs på de två deldomänerna (oordningar och förfaranden). Resultat: Även om det genomsnittliga antalet adjektiv per fras är likvärdigt i de två corpora (1.4), finns det fler adjektivtyper i MACO än i MEDLINE för sjukdomar och förfaranden. För störningsfraser står de 38 % av adjektivtyperna som är gemensamma för de två corpora för 85 % av förekomsterna. Predominansen av adjektiv i en corpus analyseras. Diskussion: Potentiella tillämpningar av detta tillvägagångssätt diskuteras, nämligen terminologiinhämtning, informationshämtning och genrekarakterisering. | REF utvidgade denna idé och jämförde adjektivändringar i biomedicinsk litteratur och patientjournaler. | 8,632,728 | Exploring Adjectival Modification In Biomedical Discourse Across Two Genres | {'venue': 'Workshop On Natural Language Processing In Biomedicine', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,433 |
Vi föreslår en ny inlärningsmetod för heterogen domänanpassning (HDA), där data från källdomänen och måldomänen representeras av heterogena egenskaper med olika dimensioner. Med hjälp av två olika projektionsmatriser omvandlar vi först data från två domäner till ett gemensamt subrymdsområde för att mäta likheten mellan data från två domäner. Vi föreslår sedan två nya funktioner kartering för att öka den omvandlade data med sina ursprungliga funktioner och nollor. De befintliga inlärningsmetoderna (t.ex. SVM och SVR) kan enkelt införlivas med våra nyligen föreslagna utökade funktionsrepresentationer för att effektivt utnyttja data från båda domänerna för HDA. Med hjälp av gångjärnsförlustfunktionen i SVM som exempel introducerar vi den detaljerade objektiva funktionen i vår metod Heterogenous Feature Augmentation (HFA) för ett linjärt fall och beskriver även dess kärnor för att effektivt kunna hantera data med mycket höga dimensioner. Dessutom utvecklar vi också en alternerande optimeringsalgoritm för att effektivt lösa det icke-triviala optimeringsproblemet i vår HFA-metod. Omfattande experiment på två referensdatauppsättningar visar tydligt att HFA överträffar de befintliga HDA-metoderna. | Heterogena Feature Augmentation (HFA) REF är en heterogen DA-metod som normalt inbäddar käll- och måldata i ett gemensamt latent utrymme före dataförstärkning. | 4,908,577 | Learning with Augmented Features for Heterogeneous Domain Adaptation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 5,434 |
Många länder var föremål för flyganfall under andra världskriget. Efterverkningarna av sådana attacker är kännbara fram till i dag, eftersom det fortfarande finns många oexploderade bomber eller dudar i marken. Vanligtvis är sådana områden dokumenterade i så kallade kollisionskartor, som bygger på upptäckta bombkratrar. I detta dokument föreslås en stokastisk strategi för att automatiskt upptäcka bombkratrar i flygkrigstid bilder som togs under andra världskriget. I detta arbete, en aspekt vi undersöker är vilken typ av objekt modell för kratern: vi jämför cirklar med ellipser. De respektive modellerna är inbäddade i den probabilistiska ramen för markerade punktprocesser. Med hjälp av stokastisk provtagning bestäms den mest sannolika konfigurationen av objekt inom scenen. Varje konfiguration utvärderas med hjälp av en energifunktion som beskriver överensstämmelsen med en fördefinierad modell. Hög gradient magnituder längs gränsen av objektet gynnas och överlappande föremål bestraffas. Dessutom undersöks en term som kräver att de grå värdena inuti objektet är homogena. Reversible Jump Markov Chain Monte Carlo provtagning i kombination med simulerad glödgning ger den globala optimal energifunktionen. Därefter genereras en sannolikhetskarta från de automatiska upptäckterna via uppskattning av kärnans densitet. Genom att fastställa en tröskel klassificeras områden runt detektionerna som förorenade eller okontaminerade områden, vilket resulterar i en kollisionskarta. Våra resultat, baserade på 22 bilder från flygkrigstid, visar den allmänna potentialen hos metoden för automatisk upptäckt av bombkratrar och efterföljande automatisk generering av en kollisionskarta. | En modellbaserad metod för att upptäcka bombkratrar presenteras av REF. | 195,461,305 | MARKED POINT PROCESSES FOR THE AUTOMATIC DETECTION OF BOMB CRATERS IN AERIAL WARTIME IMAGES | {'venue': None, 'journal': 'ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences', 'mag_field_of_study': ['Computer Science']} | 5,435 |
Vi presenterar en fullt distribuerad självläkande algoritm dex som upprätthåller ett konstant gradexpander-nätverk i en dynamisk miljö. Såvitt vi vet tillhandahåller vår algoritm den första effektiva distribuerade konstruktionen av expanderare-vars expansionsegenskaper håller deterministiskt-som fungerar även under en allsmäktig adaptiv motståndare som styr de dynamiska förändringarna i nätverket (motståndaren har obegränsad beräkningskraft och kunskap om hela nätverkstillståndet, kan bestämma vilka noder som ansluter sig och lämnar och vid vilken tidpunkt, och vet de tidigare slumpmässiga val som gjorts av algoritmen). Tidigare distribuerade expansionskonstruktioner ger vanligtvis endast probabilistiska garantier för nätverksexpansion som snabbt bryts ned i en dynamisk miljö; i synnerhet kan expansionsegenskaperna brytas ned ännu snabbare under kontradiktoriska tillägg och raderingar. Vår algoritm ger effektivt underhåll och ådrar sig en låg overhead per insättning/deletion av en adaptiv motståndare: endast O(log n) rundor och O(log n) meddelanden behövs med hög sannolikhet (n är antalet noder för närvarande i nätverket). Algoritmen kräver bara ett konstant antal topologiförändringar. Dessutom möjliggör vår algoritm ett effektivt genomförande och underhåll av en distribuerad hashtabell ovanpå dex med endast en konstant extra overhead. Våra resultat är ett steg mot att implementera effektiva självläkande nätverk som har garanterat fastigheter (konstant begränsad grad och expansion) trots dynamiska förändringar. | I samma modell presenterar REF ett protokoll som upprätthåller konstant nodgrad och konstant expansion (båda med sannolikhet 1) mot en adaptiv motståndare, samtidigt som det endast kräver logaritmiska (i nätverksstorleken) meddelanden, tid och topologi förändringar per radering/inmatning. | 10,050,551 | DEX: self-healing expanders | {'venue': 'Distributed Computing', 'journal': 'Distributed Computing', 'mag_field_of_study': ['Computer Science', 'Engineering']} | 5,436 |
Moderkakan är ett övergående organ som utvecklas under graviditeten för att ge hemotrofiskt stöd för frisk fostertillväxt och utveckling. Grundläggande för dess funktion är en sund utveckling av kärlträd i det feto-placental arteriella nätverket. Trots det starka sambandet mellan hemodynamik och vaskulära remodelleringsmekanismer saknas data från beräkning av hemodynamiska data som kan förbättra vår förståelse av fetoplacentalfysiologi. Syftet med detta arbete var att skapa en omfattande 3D beräkningsvätska dynamik (CFD) modell av en substruktur av rått feto-placental arteriella nätverk och undersöka påverkan av viskositet på vägg skjuvning stress (WSS). Sen dräktighet råtta feto-placental artärer var perfunderade med radiopaque Microfil och skannade via mikro datortomografi (μCT) för att fånga råtta feto-placental arteriell geometri i 3D. En detaljerad beskrivning av rått fosterblods viskositetsparametrar utvecklades och tre olika metoder för fosterplacental hemodynamik simulerades i 3D med den finita volymmetoden: Newtonian modell, non-Newtonian Carreau-Yasuda modell och Fåhraeus-Lindqvist effektmodell. Signifikanta variationer i WSS observerades mellan olika viskositetsmodeller. De fysiologiskt-realistiska simuleringarna med hjälp av Fåhraeus-Lindqvists effekt och råttans fosterblodsuppskattningar av viskositeten avslöjade detaljerade mönster av WSS i hela det arteriella nätverket, med WSS-gradienter observerade vid bifurkationsområden, vilket kan bidra till kärlets grobarhet och beskärning under angiogenesen. Denna simulering av fosterplacental hemodynamik visar den heterogena WSS-distributionen i hela nätverket och visar förmågan att bestämma fysiologiskt relevanta WSS-storlekar, mönster och gradienter. Denna modell kommer att bidra till att öka vår förståelse av vaskulär fysiologi och ombyggnad i feto-placental nätverk. | I REF erhålls en 3D-rekonstruktion av arteriellt nätverk från mikrokomputerad tomografi för studie av vätskedynamiken i placenta (experimentellt, från en råtta). | 3,772,490 | Viscosity and haemodynamics in a late gestation rat feto-placental arterial network. | {'venue': 'Biomechanics and modeling in mechanobiology', 'journal': 'Biomechanics and modeling in mechanobiology', 'mag_field_of_study': ['Biology', 'Medicine']} | 5,437 |
Eftersom miljontals användare samlas till sociala nätverk online blir webbplatser som Facebook och Twitter allt mer attraktiva mål för skräppost, phishing och malware. Den Koobface botnet i synnerhet har finslipat sina ansträngningar att utnyttja sociala nätverksanvändare, utnyttja zombies för att generera konton, vara vän offer, och att skicka malware spridning spam. I denna uppsats utforskar vi Koobfaces zombieinfrastruktur och analyserar en månad av botnetets verksamhet inom både Facebook och Twitter. Skapa en zombie emulator, vi kan infiltrera Koobface botnet för att upptäcka identiteter av bedrägliga och kompromissade sociala nätverkskonton som används för att distribuera skadliga länkar till över 213,000 sociala nätverksanvändare, genererar över 157,000 klick. Trots användningen av domän svartlistning tjänster av sociala nätverk operatörer för att filtrera skadliga länkar, nuvarande försvar känner bara 27% av hot och tar i genomsnitt 4 dagar att svara. Under denna period, 81% av utsatta användare klickar på Koobface spam, belyser ineffektiviteten av svarta listor. | I REF används en zombieemulator för att infiltrera Koobface botnet för att upptäcka identiteter av bedrägliga och komprometterade konton. | 14,125,192 | The Koobface botnet and the rise of social malware | {'venue': '2010 5th International Conference on Malicious and Unwanted Software', 'journal': '2010 5th International Conference on Malicious and Unwanted Software', 'mag_field_of_study': ['Computer Science']} | 5,438 |
Abstrakt. Webbtjänster utgör det mest framträdande momentet i det tjänsteorienterade datorparadigmet. På senare tid har dock företrädare för annan datateknik, såsom peer-to-peer (p2p), också valt det tjänsteorienterade tillvägagångssättet och avslöjat funktionalitet som tjänster. På så sätt skulle det serviceinriktade samhället kunna få stort stöd, om dessa heterogena tjänster integrerades och bestod. En nyckel för att uppnå denna integration är inrättandet av en enhetlig strategi för tjänsteupptäckt. I detta dokument beskriver vi vissa funktioner i ett enhetligt sökspråk och fokuserar på dess tillhörande motor, som används för att upptäcka webb- och p2p-tjänster på ett enhetligt sätt. Vi exemplifierar hur vår enhetliga strategi tillämpas i fallet med webb- och p2p-tjänst upptäckt i UDDI respektive JXTA, respektive. Dessutom visar vi hur vår sökmotor kan bearbeta heterogena tjänsteannonser och därmed utnyttja de annonserade syntaktiska, semantiska och servicekvalitetsegenskaperna under matchmaking. | I REF föreslår författarna USQL (Unid Service Query language), ett XML-baserat språk för att representera syntaktiska, semantiska och kvalitet på sökkriterier för tjänster. | 2,432,744 | Discovering Web Services and JXTA Peer-to-Peer Services in a Unified Manner | {'venue': 'ICSOFT (1)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,439 |
I en samlokalisering beror valet av ett lexiskt objekt på vilket val som görs för ett annat. Detta utgör ett problem för enkla metoder för lexikalisering i naturliga språkgenerationssystem. Inom ramen för Meaning-Text har återkommande mönster av collocation karakteriserats av lexical funktioner, som erbjuder ett elegant sätt att beskriva dessa relationer. Tidigare arbeten har visat att användningen av lexikala funktioner i samband med flerspråkigt naturligt språk ger möjlighet till en effektivare utveckling av språkliga resurser. Vi föreslår ett sätt att koda lexiska funktioner inom ramen för Lexical Functional Grammar. | I detta avseende föreslår REF en metod för att använda lexiska funktioner i Lexical Functional Grammar. | 31,211 | Collocations in Multilingual Natural Language Generation: Lexical Functions meet Lexical Functional Grammar | {'venue': 'ALTA', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,440 |
Abstrakt. Vi presenterar en metod för att upptäcka objekt i bilder med hjälp av ett enda djupt neuralt nätverk. Vårt tillvägagångssätt, som heter SSD, diskretiserar utdatautrymmet för att avgränsa rutor till en uppsättning standardrutor över olika proportioner och skalor per funktion kartplats. Vid förutsägelsetid genererar nätverket poäng för närvaron av varje objektkategori i varje standardruta och skapar justeringar i rutan för att bättre matcha objektets form. Dessutom kombinerar nätverket förutsägelser från flera funktionskartor med olika upplösningar för att naturligt hantera objekt i olika storlekar. SSD är enkel i förhållande till metoder som kräver objektförslag eftersom det helt eliminerar förslagsgenerering och efterföljande pixel eller funktion omampling stadier och inkapslar all beräkning i ett enda nätverk. Detta gör SSD lätt att träna och enkelt att integrera i system som kräver en detektionskomponent. Experimentella resultat på PASCAL VOC, COCO och ILSVRC datauppsättningar bekräftar att SSD har konkurrenskraftig noggrannhet till metoder som utnyttjar ytterligare ett objektförslag steg och är mycket snabbare, samtidigt som det ger en enhetlig ram för både utbildning och slutsatser. För 300 × 300 indata uppnår SSD 74,3 % mAP 1 på VOC2007-test vid 59 FPS på en Nvidia Titan X och för 512 × 512 indata uppnår SSD 76,9 % mAP, vilket resulterar i en jämförbar toppmodern snabbare R-CNN-modell. Jämfört med andra enstaka steg metoder, SSD har mycket bättre noggrannhet även med en mindre indata bildstorlek. Koden finns på https://github.com/weiliu89/caffe/tree/ssd. | SSD REF-utgångar de förutsagda avgränsande rutorna från en uppsättning standardrutor över olika skalor och proportioner för varje funktionskarta plats. | 2,141,740 | SSD: Single Shot MultiBox Detector | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,441 |
Kommunikationssystemen Abstract-Vehicular utgör en av de mest önskvärda teknikerna när säkerheten, effektiviteten och komforten i den dagliga vägtrafiken behöver förbättras. Den största fördelen är avsaknaden av en infrastruktur, typisk för centraliserade nät, som gör dem lämpliga för mycket varierande nättopologier. Å andra sidan blir kommunikationsprotokollen mycket komplexa och ibland kan signalerande overhead slösa bandbreddens tillgänglighet. Vehicular Ad-hoc NETworks (VANET) kan tillhandahålla en trådlös nätverkskapacitet i situationer där det inte finns någon fast infrastruktur: kommunikationsprestanda och kvalitet på tjänsten (QoS) är starkt beroende av hur routing sker i nätverket, hur protokoll overhead påverkar den tillgängliga bandbredden och hur olika kanaler väljs för att minimera störningsnivåer. Uppmärksamheten är fokuserad på routing nivån av VANET och vi föreslår en interferens medveten routing system för multi-radio vehicular nätverk, där varje nod är utrustad med en flerkanals radiogränssnitt. För att lindra effekterna av de samkanalsinterferenser som uppfattas av mobila noder, slås överföringskanalerna på på grundval av en periodisk utvärdering av förhållandet mellan signal och interferens (SIR). Ett nytt mätvärde föreslås också, baserat på maximering av den genomsnittliga SIR-nivån för förbindelsen mellan källa och destination. Vår lösning har integrerats med AdHoc On-Demand Distance Vector (AODV) routing protocol för att designa en förbättrad signal-till-interference-Ratio-AODV (SIR-AODV). NS-2 har använts för att genomföra och testa den föreslagna idén, och betydande prestandaförbättringar erhölls när det gäller genomströmning, paketleverans och, uppenbarligen, interferens. | Fazio m.fl. föreslog ett system för interferensmedveten routing för flerradiovehikulära nät, där varje nod är utrustad med ett flerkanaligt radiogränssnitt REF. | 10,541,083 | An On Demand Interference Aware Routing Protocol for VANETS | {'venue': 'J. Networks', 'journal': 'J. Networks', 'mag_field_of_study': ['Computer Science']} | 5,442 |
Klusterhypotesen säger: Närbesläktade dokument tenderar att vara relevanta för samma begäran. Vi utnyttjar denna hypotes direkt genom att justera ad hoc hämtning poäng från en inledande hämtning så att topikalt relaterade dokument får liknande poäng. Vi hänvisar till denna process som poängreglering. Betygsreglering kan presenteras som ett optimeringsproblem, vilket gör det möjligt att använda resultat från halvövervakat lärande. Vi visar att legaliserade poäng konsekvent och betydligt ranka dokument bättre än o-regulariserade poäng, med tanke på en mängd olika initiala hämtning algoritmer. Vi utvärderar vår metod på två stora corpora över ett stort antal ämnen. | Diaz REF använde poängreglering för att justera rankning av dokumentsökning från en första hämtning med en halvövervakad inlärningsmetod. | 657,355 | Regularizing ad hoc retrieval scores | {'venue': "CIKM '05", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,443 |
Forskningen inom corpus-baserade semantik har fokuserat på utveckling av ad hoc-modeller som behandlar enstaka uppgifter, eller uppsättningar av närliggande uppgifter, som orelaterade utmaningar som ska hanteras genom att extrahera olika typer av distributionsinformation från corpus. Som ett alternativ till denna "en uppgift, en modell" metod, den Distributional Memory Framework extraherar distributionsinformation en gång för alla från corpus, i form av en uppsättning viktade ord-länk-ord tuples arrangerade i en tredje-order tensor. Olika matriser genereras sedan från tensor, och deras rader och kolumner utgör naturliga utrymmen för att hantera olika semantiska problem. På så sätt kan samma fördelningsinformation delas mellan uppgifter som modellering av ordlikviditetsbedömningar, upptäckt av synonymer, begreppskategorisering, förutsägelse av val av verb, lösning av analoga problem, klassificering av samband mellan ordpar, skörd av qualiastrukturer med mönster eller exempelpar, förutsägelse av begreppens typiska egenskaper och klassificering av verb i alterneringsklasser. Omfattande empiriska tester inom alla dessa områden visar att en Distributional Memory implementation utför konkurrenskraftigt mot uppgiftsspecifika algoritmer som nyligen rapporterats i litteraturen för samma uppgifter, och mot våra implementeringar av flera state-of-the-art metoder. Distributionsminnet visar sig således vara hållbart trots de begränsningar som följer av dess mångfunktionella karaktär. | Paradigmet med "en uppgift, en modell" för strukturerad DSM utvecklades i REF genom att tuples ordnades till en tredje klassens tensor. | 5,584,134 | Distributional Memory: A General Framework for Corpus-Based Semantics | {'venue': 'Computational Linguistics', 'journal': 'Computational Linguistics', 'mag_field_of_study': ['Computer Science']} | 5,444 |
Många vetenskapliga fält studerar data med en underliggande struktur som är ett icke-Euklidiskt utrymme. Några exempel är sociala nätverk inom beräkningssamhällsvetenskap, sensornätverk inom kommunikation, funktionella nätverk inom hjärnavbildning, regulatoriska nätverk inom genetik och nedsmutsade ytor inom datorgrafik. I många tillämpningar är sådana geometriska data stora och komplexa (i fråga om sociala nätverk, i storleksordningen miljarder) och är naturliga mål för maskininlärningsteknik. I synnerhet skulle vi vilja använda djupa neurala nätverk, som nyligen har visat sig vara kraftfulla verktyg för ett brett spektrum av problem från datorseende, bearbetning av naturligt språk och ljudanalys. Dessa verktyg har dock varit mest framgångsrika på data med en underliggande Euclidean eller rutnät-liknande struktur, och i de fall där invarianterna av dessa strukturer är inbyggda i nätverk som används för att modellera dem. Geometriskt djupinlärning är en paraplyterm för framväxande tekniker som försöker generalisera (strukturerade) djupa neurala modeller till icke-Euklidiska domäner såsom grafer och grenrör. Syftet med denna uppsats är att överblicka olika exempel på geometriska djupinlärningsproblem och presentera tillgängliga lösningar, viktiga svårigheter, tillämpningar och framtida forskningsinriktningar inom detta nya område. | Dessa metoder är exempel på en bredare ny trend av geometriskt djupinlärning försöker generalisera framgångsrika djupinlärning paradigm till data med icke-Euklidiska underliggande struktur såsom grenrör eller grafer REF. | 15,195,762 | Geometric deep learning: going beyond Euclidean data | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,445 |
Om en klass av spel är känd för att ha en Nash jämvikt med sannolikhetsvärden som är antingen noll eller 1 -och därmed med stöd av begränsad storlek - då uppenbarligen denna jämvikt kan hittas uttömmande i polynom tid. Något överraskande visar vi att det finns en PTAS för den klass av spel vars jämvikt garanteras att ha ) -värden, och därför stora - på - stöd. Vi påpekar också att det finns en PTAS för spel med gles payoff matriser, en familj för vilken det exakta problemet är känt att vara PPAD-fullständig [6]. Båda algoritmerna är av ett speciellt slag som vi kallar omedvetna: Algoritmen bara prover en fast fördelning på par av blandade strategier, och spelet används bara för att avgöra om de utvalda strategierna utgör en -Nash jämvikt; svaret är "ja" med omvänd polynom sannolikhet (i det andra fallet är algoritmen faktiskt deterministisk). Dessa resultat medför frågan: Finns det en glömsk PTAS för att hitta en Nash jämvikt i allmänna spel? Vi besvarar denna fråga i negativ; vår nedre gräns kommer nära den kvasi-polynomiska övre gränsen [18]. En annan nyligen PTAS för anonyma spel [13, 14, 7] är också omedvetna i en svagare mening lämplig för denna klass av spel (det prover från en fast distribution på oordnade samlingar av blandade strategier), men dess körtid är exponentiellt i 1. Vi bevisar att alla omedvetna PTAS för anonyma spel med två strategier och tre spelare typer måste ha, gör algoritmen i [7] (som fungerar med eventuellt begränsat antal spelare typer) i huvudsak optimal inom omedvetna algoritmer. I kontrast, vi utformar en poly(n) · (1/ ) O(log 2 (1/ )) non-oblivious PTAS för anonyma spel med två strategier och eventuellt begränsat antal spelare typer. Den viktigaste idén med vår algoritm är att söka inte över oordnad * Detta arbete gjordes medan författaren var en postdoktor vid Microsoft Research, New England. † Med stöd av NSF beviljar CCF -0635319, en gåva från Yahoo! Forskning, och ett MICRO-bidrag. Tillstånd att göra digitala eller papperskopior av hela eller delar av detta arbete för personligt bruk eller klassrum beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar och att kopiorna är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. uppsättningar av blandade strategier, men över en noggrant utformad uppsättning samlingar av de första O(log 1 ) ögonblicken av fördelningen av antalet spelare spelar strategi 1 vid jämvikt. Algoritmen fungerar på grund av ett probabilistiskt resultat av mer allmänt intresse som vi bevisar: det totala variationsavståndet mellan två belopp av oberoende indikator slumpmässiga variabler minskar exponentiellt med antalet ögonblick av de två belopp som är lika, oberoende av antalet indikatorer. | Dessutom har REF visat sig vara en lägre gräns på den körtid som krävs av en omedveten algoritm, som låter den senare algoritmen vara i huvudsak optimal. | 11,729,019 | On oblivious PTAS's for nash equilibrium | {'venue': "STOC '09", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 5,446 |
Nyligen har det visat sig att policy-gradient metoder för förstärkning lärande kan användas för att träna djupa endto-end system direkt på icke-differentierbara mätvärden för den uppgift som finns. I det här dokumentet överväger vi problemet med att optimera bildtextsystem med hjälp av förstärkningsinlärning, och visar att genom att noggrant optimera våra system med hjälp av testmåtten för MSCOCO-uppgiften kan betydande resultatvinster realiseras. Våra system är byggda med en ny optimeringsmetod som vi kallar självkritisk sekvensträning (SCST). SCST är en form av den populära RE-INFORCE algoritm som, snarare än att uppskatta en "baslinje" för att normalisera belöningar och minska varians, använder utgången av sin egen test-tid inference algoritm för att normalisera belöningarna den upplever. Med denna metod, uppskatta belöningssignalen (som skådespelare-kritiska metoder måste göra) och uppskatta normalisering (som REINFORCE algoritmer normalt gör) undvikas, samtidigt harmonisera modellen med avseende på dess test-tid inference förfarande. Empiriskt tycker vi att direkt optimera Cider metrisk med SCST och girig avkodning vid test-tid är mycket effektivt. Våra resultat om MSCOCO utvärdering sever etablera en ny state-of-the-art på uppgiften, förbättra det bästa resultatet när det gäller CIDER från 104.9 till 114.7. | I stället för att uppskatta belöningssignalen, använder Self-Critical Sequence Training (SCST) REF (greedy) output av den nuvarande modellen vid sluttid som baslinje, på bekostnad av att behöva beräkna poängen för varje baslinjesekvens. | 206,594,923 | Self-Critical Sequence Training for Image Captioning | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 5,447 |
Abstrakt. Att tillhandahålla skalbara och effektiva routingtjänster i undervattenssensornätverk (UWSN) är mycket utmanande på grund av UWSN:s unika egenskaper. För det första använder UWSN ofta akustiska kanaler för kommunikation eftersom radiosignaler inte fungerar bra i vatten. Jämfört med radiofrekvenskanaler har akustiska kanaler mycket lägre bandbredder och flera storleksordningar längre spridningsförseningar. För det andra har UWSN oftast mycket dynamisk topologi som sensorer rör sig passivt med vattenströmmar. Vissa routing protokoll har föreslagits för att ta itu med det utmanande problemet i UWSNs. Men de flesta av dem antar att den fullständiga-dimensionella lokaliseringsinformationen för alla sensornoder i ett nätverk är känd i förväg genom en lokaliseringsprocess, vilket är ännu en utmanande fråga att lösas i UWSNs. I detta dokument föreslår vi ett djupgående routingprotokoll (DBR). DBR kräver inte fullständig platsinformation för sensornoder. Istället behöver den endast lokal djupinformation, som lätt kan erhållas med en billig djupsensor som kan utrustas i varje undervattenssensornod. En viktig fördel med vårt protokoll är att det kan hantera nätverksdynamik effektivt utan hjälp av en lokaliseringstjänst. Dessutom kan vårt routing protokoll dra nytta av en flersänka undervattenssensor nätverk arkitektur utan att införa extra kostnad. Vi utför omfattande simuleringar. Resultaten visar att DBR kan uppnå mycket höga leveranskvoter för paket (minst 95 %) för täta nätverk med endast små kommunikationskostnader. | Djupbaserad Routing (DBR) REF kan hantera nätverksdynamik effektivt utan hjälp av en lokaliseringstjänst. | 8,553,961 | DBR: Depth-Based Routing for Underwater Sensor Networks | {'venue': 'Networking', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,448 |
Underspecificerade frågor är vanliga i vertikala sökmotorer, vilket leder till stora resultatuppsättningar som är svåra för användare att navigera. I detta dokument visar vi att vi automatiskt kan vägleda användare till deras målresultat genom att engagera dem i en dialog bestående av välformade binära frågor minerade från ostrukturerad data. Vi föreslår ett system som extraherar kandidatattribut-värde frågetermer från ostrukturerade beskrivningar av poster i en databas. Dessa termer filtreras sedan med hjälp av en maximal Entropy klassificerare för att identifiera de som är lämpliga för frågebildning ges en användarfråga. Vi väljer sedan frågetermer via en ny rankningsfunktion som syftar till att minimera antalet frågesvängar som krävs för att en användare ska hitta sitt målresultat. Vi utvärderar kvaliteten på system-genererade frågor för grammatikalitet och förfining effektivitet. Vårt slutliga system visar bäst resultat i effektivitet, procent av välformade frågor och procent av svarbara frågor över tre baslinjesystem. | Underspecificerade frågor är ofta in i sökmotorer, vilket leder till stora resultatuppsättningar som är svåra för användare att navigera REF. | 12,134,470 | Underspecified Query Refinement via Natural Language Question Generation | {'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,449 |
Bibliografisk citering är en av författarens viktigaste aktiviteter i produktionen av alla vetenskapliga arbeten. Orsakerna till att en författare citerar andra publikationer är olika: för att få hjälp av något slag, för att granska, kritisera eller vederlägga tidigare verk, etc. I detta dokument föreslår vi ett verktyg, kallat CiTalo, för att automatiskt dra slutsatsen om citeringar med hjälp av semantisk webbteknik och NLP-teknik. En sådan karakterisering gör citeringar mer effektiva när det gäller att koppla samman, sprida, utforska och utvärdera forskning. | Iorio m.fl. REF föreslog ett verktyg som kallas CiTalo, som automatiskt skulle kunna kommentera arten av citeringar med egenskaper som definieras i CiTO genom semantiska webb- och NLP-tekniker. | 18,393,840 | Identifying Functions of Citations with CiTalO | {'venue': 'ESWC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,450 |
ABSTRACT Med ökande krav på grön trådlös kommunikation har energieffektiv enhet-till-enhet-kommunikation (D2D) fått ökad uppmärksamhet. Med resursdelning på ett underliggande sätt kan dock systemets prestanda i hög grad försämras av samkanalsinterferensen. För en vänskaplig samexistens mellan D2D och mobil kommunikation föreslår vi i detta dokument ett gemensamt resurshanteringssystem där direktläge, två-hop-läge och samarbetsläge stöds. Den gemensamma resurshanteringen är formulerad som ett tredimensionellt (3-D) power-mode-channel-problem som maximerar den totala energieffektiviteten (EE) för D2D-kommunikation samtidigt som kvaliteten på tjänsten (QoS) för både D2D och cellulär kommunikation garanteras. För att lösa det formulerade problemet frikopplas 3-D-problemet genom att använda ortogonaliteten hos olika D2D-länkar och det unika överföringsläget för ett D2D-par. Med tanke på att införandet av samarbetsläge ökar komplexiteten i algoritmen för resurstilldelning med 3D, föreslår vi dessutom ett underoptimalt system för att minska den genomsnittliga tids komplexiteten. Simuleringsresultaten verifierar de föreslagna systemens genomförbarhet och avslöjar effekterna av systemparametrar som QoS, avståndet mellan D2D-källan och destinationen, reläets placering och antalet D2D-par på D2D-systemens EE. INDEX TERMS Kommunikation Enhet-till-enhet, energieffektivitet, strömfördelning, val av läge, kanaltilldelning. | Ett gemensamt resurshanteringssystem med beaktande av tre olika transportsätt föreslogs i REF och författarna formulerade optimeringsproblemet som ett tredimensionellt problem för att maximera den totala EE för D2D-kommunikation. | 85,500,746 | Towards Energy-Efficient Underlaid Device-to-Device Communications: A Joint Resource Management Approach | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 5,451 |
I detta dokument presenteras en metod för att identifiera ett yttrande med sin innehavare och ämne, med en mening från online nyhetsmedia texter. Vi inför en metod att utnyttja en menings semantiska struktur, förankrad i ett yttrande med verb eller adjektiv. Denna metod använder semantisk rollmärkning som ett mellansteg för att märka en åsiktshållare och ämne med hjälp av data från FrameNet. Vi delar upp vår uppgift i tre faser: identifiera ett yttrandebärande ord, märka semantiska roller relaterade till ordet i meningen, och sedan hitta innehavaren och ämnet i åsiktsordet bland de märkta semantiska rollerna. För en bredare täckning använder vi också en klusterteknik för att förutsäga den mest sannolika ramen för ett ord som inte definieras i FrameNet. Våra experimentella resultat visar att vårt system presterar betydligt bättre än utgångsvärdet. | Ref identifierade opinionsbildare med ämne från medietext med semantisk rollmärkning. | 8,346,698 | Extracting Opinions, Opinion Holders, And Topics Expressed In Online News Media Text | {'venue': 'Workshop On Sentiment And Subjectivity In Text', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,452 |
Interpoleringsalgoritmer för videoramar beräknar normalt optiskt flöde eller dess variationer och använder det sedan för att styra syntesen av en mellanliggande ram mellan två på varandra följande originalramar. För att hantera utmaningar som ocklusion, dubbelriktat flöde mellan de två inmatningsramar uppskattas ofta och används för att varpa och blanda inmatningsramar. Men hur man effektivt kan blanda de två förvrängda ramarna är fortfarande ett svårt problem. Detta dokument presenterar en kontext-medveten syntes metod som warps inte bara inmatningsramar men också deras pixel-wise kontextuell information och använder dem för att interpolera en högkvalitativ mellanram. Speciellt använder vi först ett förtränat neuralt nätverk för att extrahera per-pixel kontextuell information för inmatningsramar. Vi använder sedan en toppmodern optisk flödesalgoritm för att uppskatta dubbelriktat flöde mellan dem och förvarna både inmatningsramar och deras sammanhangskartor. Slutligen, till skillnad från vanliga metoder som blandar de förvarnade ramar, vår metod matar dem och deras sammanhangskartor till en videoram syntes neurala nätverk för att producera den interpolerade ramen i ett sammanhang-medvetet mode. Vårt neurala nätverk är fullt konvolutionellt och är tränat ända till slut. Våra experiment visar att vår metod kan hantera utmanande scenarier som ocklusion och stor rörelse och överträffar representativa state-of-the-art metoder. | För interpolering, Niklaus et al. REF använder ett i förväg beräknat optiskt flöde för att mata rörelseinformation till en ram interpolation CNN. | 4,459,013 | Context-Aware Synthesis for Video Frame Interpolation | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 5,453 |
Abstract-WebChar är ett verktyg för att analysera webbläsare holistiskt för att upptäcka egenskaper hos HTML och CSS som leder till dålig prestanda och hög energiförbrukning. Den analyserar en stor samling webbsidor för att bryta en modell för deras prestanda baserat på statiska attribut för innehållet. En utvärdering på två plattformar, en netbook och en smartphone, visar att WebChar kan ge konkreta slutsatser för både innehållsutvecklare och webbläsare implementatorer. | WebChar, ett verktyg för att analysera webbläsare för att upptäcka egenskaper hos HTML och CSS som påverkar prestanda och strömförbrukning, tar ögonblicksbilder av ett stort antal webbplatser och minerar modellen för att producera en rankad lista över dyra funktioner i HTML och CSS REF. | 8,133,781 | Automatic discovery of performance and energy pitfalls in HTML and CSS | {'venue': '2012 IEEE International Symposium on Workload Characterization (IISWC)', 'journal': '2012 IEEE International Symposium on Workload Characterization (IISWC)', 'mag_field_of_study': ['Computer Science']} | 5,454 |
MapReduce har använts i stor skala för dataanalys i molnet. Systemet är väl känt för sin elastiska skalbarhet och finkorniga feltolerans även om dess prestanda har noterats vara suboptimal i databassammanhang. Enligt en nyligen genomförd studie [19] är Hadoop, en öppen källkodsimplementering av MapReduce, långsammare än två toppmoderna parallella databassystem när det gäller att utföra en mängd olika analytiska uppgifter med en faktor 3.1 till 6.5. MapReduce kan uppnå bättre prestanda med tilldelning av mer beräkna noder från molnet för att påskynda beräkning; dock är detta tillvägagångssätt att "hyra fler noder" inte kostnadseffektivt i en pay-as-you-go miljö. Användarna vill ha ett ekonomiskt elastiskt skalbart databehandlingssystem och är därför intresserade av om MapReduce kan erbjuda både elastisk skalbarhet och effektivitet. I detta dokument genomför vi en prestandastudie av MapReduce (Hadoop) på en 100-node kluster av Amazon EC2 med olika nivåer av parallellism. Vi identifierar fem designfaktorer som påverkar Hadoops prestanda och undersöker alternativa men kända metoder för varje faktor. Vi visar att genom att noggrant justera dessa faktorer kan Hadoops totala prestanda förbättras med en faktor på 2,5 till 3,5 för samma referensvärde som användes i [19], och är därmed mer jämförbar med den för parallella databassystem. Våra resultat visar att det därför är möjligt att bygga ett molndatasystem som är både elastiskt skalbart och effektivt. | Jiang m.fl. REF, genomförde en omfattande prestandastudie av Hadoop, och sammanfattade de faktorer som kan avsevärt förbättra Hadoop prestanda. | 186,987 | The Performance of MapReduce: An In-depth Study | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 5,455 |
Vi ger frågeeffektiva algoritmer för den globala min-cut och s-t skär problemet i oviktade, oriktade grafer. Vår orakelmodell är inspirerad av den submodulära funktionsminimering problem: på fråga S och V, oraklet returnerar storleken på snittet mellan S och V \ S. Vi tillhandahåller algoritmer computing en exakt minsta s-t skära i G med O(n 5/3 ) frågor, och datorisering en exakt global minsta skärning av G med endast O (n) frågor (samtidigt som du lär dig grafen kräver på 2 ) frågor). | På samma sätt, i REF, för att utforma algoritmer med bättre fråge komplexitet för Min-Cut och s − tMin-Cut problem, för en graf G, oraklet tog som indata en vertex delmängd S och V (G) och utdata värdet c(S) av snittet mellan S och V (G)\ S. Motsvarande frågekomplex för Min-Cut och s − t-Min-Cut problem är O(n) och O(n 5/3 ) 2 ; respektive. | 21,462,638 | Computing exact minimum cuts without knowing the graph | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 5,456 |
Det framväxande området för kvantmaskininlärning har potential att avsevärt bidra till problemen och omfattningen av artificiell intelligens. Detta förstärks endast av de senaste framgångarna inom klassisk maskininlärning. I detta arbete föreslår vi en metod för systematisk behandling av maskininlärning ur kvantinformationens perspektiv. Vårt tillvägagångssätt är allmänt och täcker alla tre huvudgrenar av maskininlärning: övervakat, oövervakat och förstärkande lärande. Även om kvantförbättringar i övervakat och oövervakat lärande har rapporterats, förstärkt lärande har fått mycket mindre uppmärksamhet. Inom vår strategi tar vi också itu med problemet med kvantförbättringar när det gäller att förstärka lärandet och föreslår ett systematiskt system för att tillhandahålla förbättringar. Som ett exempel visar vi att man kan uppnå andragradsförbättringar i inlärningseffektivitet och exponentiella förbättringar i prestanda under begränsade tidsperioder för en bred klass av inlärningsproblem. PAC-nummer: 03.67.-a, 03.67. Ac, 03.65.Aa, 03.67.Hk, 03.67.Lx Inledning.-området artificiell intelligens (AI) har nyligen haft anmärkningsvärda framgångar, särskilt inom området maskininlärning [1, 2]. En ny milstolpe, fram till nyligen tros vara årtionden bort - en dator slå en expert människa spelare i spelet Go [3] - tydligt illustrerar potentialen i lärande maskiner. Samtidigt bevittnar vi uppkomsten av ett nytt fält: kvantmaskininlärning (QML), som har en ytterligare, djup potential att revolutionera området AI, ungefär som kvantinformationsbehandling (QIP) har påverkat sin klassiska motsvarighet [4]. Bevisen för detta är redan underbyggda med de förbättringar som rapporterats i klassificering och klustring [5] [6] [7] [8]-problem. Sådana uppgifter är representativa för två av de tre huvudgrenarna inom maskininlärning. Den första, övervakad inlärning, överväger problemet med att lära sig den villkorliga fördelningen P (x) (t.ex., en funktion y = f (x)) som tilldelar etiketterna y till data x (dvs. klassificerar data), baserat på korrekt märkta exempel, kallas utbildningsset, tillhandahålls från en distribution P (x, y). Den andra, oövervakade inlärning, använder prover för att identifiera en struktur i en distribution P (x), t.ex., identifierar kluster. Kvantanalogen för den första uppgiften motsvarar ett tomografiliknande problem där villkorade tillstånd ρ x Y (tillstånd av en partition av ett system, med tanke på ett mätresultat av en annan partition) bör rekonstrueras från mätstatistiken för det gemensamma tillståndet ρ XY, som kodar fördelningen P (x, y). Det oövervakade fallet är liknande. Den tredje grenen, förstärkning lärande (RL) utgör ett interaktivt sätt att lära, och är mer gen- * [email protected] † [email protected] på [email protected] eral. Här lär sig inlärningsagenten (eller inlärningsalgoritmen) hur man beter sig korrekt genom att använda förstärkningssignaler - belöningar, eller straff. RL har undersökts mindre ur ett kvantinformationsperspektiv, även om vissa resultat har rapporterats [9, 10]. Den centrala frågan om hur kvantbehandling kan hjälpa till i lärandet kräver att vi klargör vad som utgör en bra inlärningsmodell. Detta kan vara inbegripet, men två egenskaper beaktas vanligen. Den första är algoritmens beräkningskomplexitet. Den andra, prov komplexitet, är standard för övervakad lärande, och kvantifierar hur stor utbildning uppsättningen måste vara, för algoritmen för att lära sig distributionen P (x). Det vill säga, i ett tomografi sammanhang, det räknar antalet kopior av ρ XY som krävs tills inlärningsalgoritmen kan rekonstruera staterna ρ x Y till önskat förtroende. I RL, prov komplexitet ersätts vanligtvis med lärande effektivitet - antalet interaktion steg som behövs för att agenten att lära sig att få belöningar med hög sannolikhet. De senaste resultaten i QML har fokuserat på att förbättra beräkningskomplexiteten [5] [6] [7] [8] 10], med endast ett fåtal nya arbeten med beaktande av urvalskomplexa aspekter [11] eller övervakad beräkningslärande [12, 13]. Men den bredare frågan om hur, och i vilken utsträckning, AI i slutändan kan dra nytta av kvantmekanik, i allmänna inlärningsmiljöer, förblir till stor del öppen. I detta arbete tar vi upp denna fråga, med tonvikt på den mer allmänna, och mindre utforskade, RL-inställningen. Vi föreslår ett paradigm för att överväga QML, vilket gör att vi bättre kan förstå dess gränser och dess makt. Med hjälp av detta presenterar vi ett schema för att identifiera inställningar där kvanteffekter kan hjälpa. För att illustrera hur schemat fungerar tillhandahåller vi en metod för att uppnå kvantförbättringar (polynom i det erforderliga antalet interaktionsrundor och exponentiella förbättringar i framgångsfrekvensen) i många arXiv:1610.08251v1 [quant-ph] 26 okt 2016 2 RL-inställningar. Ett paradigm för QML.-Alla tre lärande inställningar passar i paradigmet för så kallade lärande agenter [14], standard inom området artificiell intelligens. Här betraktar vi en inlärningsagent A (likvärdigt ett inlärningsprogram A) som interagerar med en okänd miljö E (den så kallade uppgiftsmiljön, eller probleminställningen) via utbyte av meddelanden, som utfärdas av A (kallas åtgärder A = {a i}) och E (kallas percepts S = {s j}). I kvantförlängningen blir dessa uppsättningar Hilbert-rymder, H A = spännvidd i}, H S = spännvidd i} och bildar ortonormala baser. Uppfattnings- och handlingstillstånden, och deras blandningar, kallas klassiska tillstånd. Varje siffra av meriter Rate(·) av resultatet av en agent A i E är en funktion av historien om interaktion H h = (a 1, s 1,. ...), samla in de utbytta uppfattningarna och åtgärderna. Interaktionens historia är alltså det centrala begreppet i lärandet. Den korrekta kvant generaliseringen av historien är inte trivial, och vi kommer att ta itu med detta ögonblickligt. Om antingen A eller E är stokastiska, beskrivs interaktionen mellan A och E av en fördelning över historia (av längd t), betecknad av A och E. De flesta siffror av meriter sedan utvidgas till sådana fördelningar genom konvex-linjäritet. För att återhämta sig, t.ex., övervakad inlärning i detta paradigm, ta E att karakteriseras av distributionen P (x, y), där agenten ges utbildning set -n märkta datapunkter (par (x, y)) provtagna från P (x, y) -som de första n percepts. Efter detta, agenten är att svara med rätt etiketter som åtgärder (responser) till de presenterade uppfattningarna, som nu är de omärkta data-points x. Förstärkning lärande förstås som en sådan agenten environment interaktion, där percept utrymme också innehåller belöningen. Vi betecknar percept utrymme inklusive belöning status asS (t.ex., om belöningar är binära dåS = S × {0, 1}). Formellt, agent-miljö paradigm är en tvåpart interaktiv inställning, och därmed bekvämt för en kvantinformation behandling av QML. Alla befintliga resultatgrupper i fyra kategorier [15]: CC, CQ, QC och QQ, beroende på om agenset (första symbolen) eller miljön (andra symbolen) är klassiskt (C) eller kvantum (Q). Denna klassificering påminner om, men bör inte förväxlas med, klassificeringen av quantum computational universality [22] där C/Q anger om input/outputs för en kvantberäkning är klassisk. CC-scenariot omfattar klassisk maskininlärning. CQ-inställningen frågar hur klassiska inlärningsmetoder kan hjälpa i kvantuppgifter, såsom kvantkontroll [16, 17], kvantmetrologi [18], adaptiv kvantdator [19] och utformningen av kvantexperiment [20]. Här hanterar vi till exempel icke-konvexa eller icke-linjära optimeringsproblem som uppstår i kvantexperiment, hanterade med maskininlärningsteknik. QC motsvarar kvantvarianter av inlärningsalgoritmer [7, 10, 21] inför en klassisk miljö. Bildligt talat studerar detta potentialen hos en lärande robot, förstärkt med ett "quantum chip". I QQ-inställningar är fokus för detta arbete, både A och E kvantsystem. Här kan interaktionen vara helt kvant, och till och med frågan om vad det betyder "att lära sig" blir problematisk eftersom till exempel agenten och miljön kan bli insnärjda. Ramverk.-Eftersom lärande utgör en två-spelare interaktion, standard kvant förlängningar kan tillämpas: åtgärden och percept uppsättningar representeras av de ovannämnda Hilbert utrymmen H A, H S. Agenten och miljön agerar på ett gemensamt kommunikationsregister R C (i stånd att representera både percepts och åtgärder). Således, agenten (miljö) beskrivs som en sekvens av helt positiva spår-bevarande (CPTP) kartor {M t A} ( {M t E })-en för varje steg -som agerar på registret R C, men också ett privat register R A (R E ) som utgör det interna minnet av agenten (miljö). Detta illustreras i bild. 1 ovanför den streckade linjen. Det centrala objekt som kännetecknar en interaktion, nämligen dess historia, genereras för kvantfallet genom att utföra periodiska mätningar på RC i den klassiska (ofta kallade beräkningsgrunden). Generaliseringen av denna process för kvantfallet är en testad interaktion: vi definierar testaren som en sekvens av kontrollerade kartor över formen där x på S A, och {U x t } x är enhetliga kartor som agerar på testaren registret R T, för alla steg t. Historien, i förhållande till en given testare, definieras som tillståndet i registret R T. En testad interaktion visas i bild. 1................................................................ 2 kommer Hilbert utrymmen, H A = spännvidd {a i i}, H S = spännvidd i i} och bildar ortonormala baser. Uppfattnings- och handlingstillstånden, och deras blandningar, kallas klassiska tillstånd. Varje siffra av meriter Rate(·) av resultatet av en agent A i E är en funktion av historien om interaktion H 3 h = (a 1, s 1,. ...), samla in de utbytta uppfattningarna och åtgärderna. Interaktionens historia är alltså det centrala begreppet i lärandet. Den korrekta kvant generaliseringen av historien är inte trivial, och vi kommer att ta itu med detta ögonblickligt. Om antingen A eller E är stokastiska, är interaktionen av A och E beskrivs av en fördelning över historia (av längd t), betecknad med A $ t E. De flesta siffror av meriter sedan utvidgas till sådana fördelningar genom konvex-linjäritet. För att återställa, t.ex., övervakad inlärning i detta paradigm, ta E att karakteriseras av fördelningen P (x, y), där agenten ges ett n storlek prov av (x, y) par som de första n percepts. Efter detta är agenten att svara med etiketter som åtgärder till givna percepts, nu omärkta data-points x. Denna inställning är infödd till RL om percept utrymme också innehåller förstärkningssignalen - belöningen. Vi betecknar percept mellanslag inklusive belöning status asS (t.ex., om belöningar är binära sedanS = S till {0, 1}). Agent-environment paradigm är en tvåparts interaktiv inställning, och därmed bekvämt för en kvantinformationsbehandling av QML. Alla befintliga resultat grupp i fyra kategorier: CC, CQ, QC och QQ, beroende på om agenten (första symbolen) eller miljön (andra symbolen) är klassiska (C) eller kvant (Q) [30]. CC-scenariot omfattar klassisk maskininlärning. CQ-inställningen frågar hur klassisk ML-teknik kan hjälpa i kvantuppgifter, såsom kvantkontroll [14, 15], kvantmetrologi [16], adaptiv kvantberäkning [17] och utformningen av kvantexperiment [18]. Här har vi till exempel att göra med icke-konvexa/icke-linjära optimeringsproblem som uppstår i kvantexperiment, täppta av ML-tekniker. QC motsvarar kvantvarianter av inlärningsalgoritmer [7, 10, 19 ] inför en klassisk miljö. Bildligt talat studerar detta potentialen hos en lärande robot, förstärkt med en med ett "quantum chip". I QQ-inställningar är fokus för detta arbete, både A och E kvantsystem. Här kan interaktionen vara helt kvant, och till och med frågan om vad det betyder "att lära sig" blir problematisk eftersom till exempel agenten och miljön kan bli insnärjda. Ramverk.-Eftersom lärande utgör en tvåspelarinteraktion, kan standard quantum förlängningar tillämpas: den streckade linjen. Det centrala objekt som kännetecknar en interaktion, nämligen dess historia, återvinns för det klassiska fallet genom att utföra periodiska mätningar på RC i den klassiska (ofta kallade beräkningsgrunden). Generaliseringen av denna process för kvantfallet är en testad interaktion: vi definierar testaren som en sekvens av kontrollerade kartor över formen och {U x t } x är enhetliga kartor som agerar på testerregistret R T, för alla steg t. Historien, i förhållande till en given testare, definieras som tillståndet i registret R T. En testad interaktion visas i bild. 1................................................................ I allmänhet fungerar varje karta över testaren U T k på ett nytt delsystem i registret RT, som inte kontrolleras av miljöagenten. De korsade ledningarna representerar flera system. Begränsningen att testare är kontrollerade kartor i förhållande till den klassiska basen garanterar att, för varje val av de lokala kartorna U x T, interaktionen mellan klassisk A och E förblir oförändrad. En klassisk testare kopierar innehållet i R C i förhållande till den klassiska basen, som i stort sett har samma effekt som att mäta R C och kopiera resultatet. Med andra ord är gränssnittet mellan A och E då klassiskt. Det kan visas att det i det senare fallet finns klassisk A och E för alla kvantmedel och/eller miljöer som genererar samma historik under alla testare [20]. Med andra ord, klassiska agenter kan, i QC-inställningar och, motsvarande, i klassiskt testade QQ-inställningar, uppnå samma prestanda som kvantagenter, i termer av någon historisk-beroende siffra av meriter. Således kan de enda förbättringarna då vara i form av beräknings komplexitet. Omfattning och gränser för kvantförbättringar.-Vad är den ultimata potentialen för kvantförbättringar i lärande? I QC och klassiskt testade inställningar är vi bundna till computational komplexitet förbättringar, som har uppnåtts i vissa fall. Förbättringar i inlärning e ektivitet kräver särskild typ av tillgång till begränsningen att testare är kontrollerade kartor i förhållande till den klassiska grunden garanterar att, för varje val av lokala kartor U x T, interaktionen mellan klassisk A och E förblir oförändrad. En klassisk testare kopierar innehållet i RC i förhållande till den klassiska basen, vilket i huvudsak har samma effekt som att mäta RC och kopiera resultatet. Med andra ord är gränssnittet mellan A och E då klassiskt. Det kan visas att det i det senare fallet finns klassisk A och E för alla kvantmedel och/eller miljöer som genererar samma historik under alla testare (se tillägget för närmare uppgifter). Med andra ord, klassiska agenter kan, i QC-inställningar och, motsvarande, i klassiskt testade QQ-inställningar, uppnå samma prestanda som kvantagenter, i termer av någon historisk beroende figur av meriter. Således kan de enda förbättringarna då vara i form av beräknings komplexitet. Omfattning och gränser för kvantförbättringar.-Vad är den ultimata potentialen för kvantförbättringar i lärande? I QC och klassiskt testade inställningar är vi bundna till computational komplexitet förbättringar, som har uppnåtts i vissa fall. Förbättringar av inlärningseffektiviteten kräver en särskild typ av tillgång till miljöer, som inte är helt testad. Exakt detta görs i [6, 8], för att förbättra beräknings komplexitet, med stor framgång, eftersom förbättringen kan vara exponentiell. Där ersätts den klassiska provkällan med en kvantminnesarkitektur [25], som gör det möjligt att få tillgång till många prover i överläge. En sådan ersättning kommer naturligt i (o)övervakade inställningar, eftersom den grundläggande interaktionen endast består av två steg och är minneslös - agenten begär M prover, och miljön ger dem. Men i mer allmänna miljöer är miljöer olämpliga för sådana kvantparallella tillvägagångssätt: i allmänhet lagrar miljön alla åtgärder av agenten det i sitt minne, aldrig att återlämna dem igen. Detta bryter effektivt insnärjningen i agentens register R A, och förbjuder alla interferens effekter. För många miljömiljöer är det dock fortfarande möjligt att "dissekera" kartorna över miljön, och att tillhandahålla orakulära varianter, som vi kan använda för att hjälpa agenten att lära sig. En strategi för kvantförbättringar i förstärkning lärande.-Detta för oss till vårt schema för att förbättra RL-agenter. Först, med tanke på en klassisk miljö E, definierar vi rättvisa enhetliga orakulära motsvarigheter E q. Här är rättvis menas i samma bemärkelse som kvantorakler av booleska funktioner är rättvisa analoger av klassiska booleska funktioner -E q bör inte ge mer information än E under klassisk åtkomst, vilket garanteras, t.ex. när E q kan realiseras från en reversibel version av E. Second, eftersom tillgång till någon kvantmiljö E q inte generellt kan påskynda alla aspekter av en interaktion (t.ex., medan kvant promenader kan hitta mål hörn snabbare, priset är att den korsade vägen är odefinierad), identifierar vi särskilda miljöegenskaper som kan fastställas mer effektivt med E q, och som är relevanta för lärande. För det tredje bygger vi en förbättrad agent som använder egenskaperna från de tidigare punkterna. Vi illustrerar nu vår inställning till ett begränsat scenario, för att underlätta presentationen, och visar hur exemplen generaliseras senare. Tillämpning av ramverket.-Givet någon uppgift miljö, kan vi separat överväga kartan som anger nästa uppfattning miljön kommer att presentera-i allmänhet, en stokastisk funktion f E : H → S, kartläggning förfluten historia till nästa uppfattning - och belöning funktion. Funktion. Den senare beskrivs som kartan ι : H × S →S som också beror på historien, och kompletterar begreppet genom att fastställa sin belöning status. I miljöer som är enkla och strikt epokmässiga (vilket innebär att miljön åter sätts efter M steg och som mest en belöning ges), även om interaktionen är tur-baserad, kan den representeras som sekvenser av M-steg kartor: där "bar" på s M belyser att det inkluderar en belöning status. Dessutom är kartorna i deterministiska miljöer endast beroende av agentens agerande, eftersom perceptsvaren är fastställda. För sådana deterministiska, enkla strikt epokmässiga miljöer förenklas konstruktionen av ett lämpligt orakel dramatiskt. Åtgärderna kan returneras till agenten efter varje block av M steg, som nästa block är oberoende. Dessutom, med hjälp av fas kick-back, kan belöningskartan ändras (se tillägget för detaljer) som att påverka bara den globala fasen av returnerade åtgärder stater. Detta leder till att "fas-flipp" orakel inser En användning av denna miljöspecifika orakel kräver M interaktionssteg. Detta är det första steget i vårt föreslagna schema. Därefter fokuserar vi på steg två: att få en användbar egenskap i miljön, och identifiera inställningar där det på ett tillfredsställande sätt hjälper. Den konstruerade oraklet pekar mot användningen av Grover-typ sökning för att hitta givande åtgärder sekvenser. Enbart detta räcker för förbättringar endast i speciella miljöer där lärandet minskar till att söka. Vi kan göra bättre ifrån oss genom att kombinera snabb sökning med en klassisk inlärningsmodell. I kanoniska RL-inställningar, vad agenten lär sig (bör lära sig!) är inte en korrekt sekvens av rörelser i sig, utan snarare en korrekt association av handlingar givna begrepp. För att illustrera detta, tänk dig att navigera i en labyrint där percepten kodar rätt riktning för rörelse. Om rätt association lärs, då agenten kommer att prestera bra, även när labyrinten förändras. Men för att agenten ska lära sig den rätta associationen måste den först stöta på ett tillfälle av givande sekvenser, och här hjälper kvantåtkomst. Därför strävar vi efter att hjälpa till i prospekteringsfasen av balanseringsakten mellan prospektering (försök att hitta optima) och exploatering (att ta emot belöningar genom att använda inlärd information) som är karakteristisk för RL [26]. Denna idé kan göras helt exakt genom att ta hänsyn till den klass av miljöer där mer framgångsrika prospekteringsfaser garanterat leder till en bättre övergripande inlärningsprestanda. Om så är fallet beror dock också på agentens inlärningsmodell. Således identifierar vi agent-environment par, där sådana bättre prestanda i det förflutna (i prospektering) innebär bättre prestanda i framtiden (i genomsnitt), som vi kallar tur-favoriserande inställningar. Mer formellt, överväga miljöer E, och agenter A, sådan att om h t och h t är t-längd historia, sedan Rate(h t ) > Rate(h t ) (dvs.. h t är en historia med en bättre prestanda än h t ) innebär (3) för någon framtida period T. Här E( h) och A( h) betecknar miljön och agens, respektive, som har genomgått historien h, (observera att A( h) och A är tekniskt, olika agenser ). Vi kommer att säga A(ht ) är lyckligare än A(ht ). Sådana miljöagentpar (A, E), som uppfyller de formella villkoren ovan, är alltså lyckobringande, och vi kan dessutom ange de perioder t och T för vilka konsekvenserna (3) innehar. Detta för oss till steg tre av schemat, givet som ett teorem. Teorem 1 Låt E vara en deterministisk, strikt epokal miljö. Sedan finns det en orakulär variant E q av E, sådan att för alla klassiska lärande modell A som är tur-favoriserande i förhållande till E, och siffra av meriter Rate som är monotont ökar i antalet belöningar i historien, kan vi konstruera en kvant agent A q sådan att A q, genom att interagera med E q, överträffar A i termer av siffran av meriter Rate i förhållande till en utvald testare. Detta teorem säger att i de begränsade miljöer av deterministiska epokella miljöer, är det möjligt att generiskt förbättra inlärningseffektiviteten hos alla lärande agenter, förutsatt att miljöer är tur-favoriserande för dessa agenter. Vi noterar att de mest rimliga inlärningsmodellerna är lyckofavoriserande i förhållande till de mest typiska uppgiftsmiljöer (se bilagan för en längre diskussion). I uttalandet av Theorem 1 har vi utelämnat ytterligare specifikationer avseende t och T, men det bör förstås att om tur gynnar egendomen innehar för t och T, då den förbättrade prestanda innehar i förhållande till dessa perioder. För att bevisa Theorem 1 konstruerar vi A q, givet A. Konstruktionen illustreras steg för steg i Bild. 2, Där för illustrativa ändamål, den klassiska interaktionen av agent A kontrasteras mot kvant växelverkan av agent A q. Steg 1: A q kommer att använda kvantoraklet varianten av E ( E q oracle ) för tid t på O ( på A till M ), där M är epoklängden, och på A är antalet åtgärder, för att hitta en givande åtgärd sekvens en r, med Grover sökning. Under denna period är interaktionen oprövad och interaktionen testas därefter helt klassiskt. Steg 2: En q kommer att spela ut en epok genom att producera åtgärder från en r sekventiell, nu med den klassiska miljön, för att få responser av miljön (återkalla, E q oracle kan inte ge dessa), erhålla hela givande historia h r. Hittills, A q använt O (M) A till M ) interaktion steg. Steg 3: En q "trainerar" en intern simulering av A, simulerar interaktionen mellan A och E, och startar om simuleringen tills historien h r inträffar (vi antar att en sådan händelse har en icke-noll sannolikhet). Detta kan kräva många internt simulerade interaktioner, men ingen interaktion med den verkliga miljön. I steg 4, den interna simuleringen av A(hr ) motsvarar den mest lyckade agenten möjligt, och A q avstår kontrollen till det. Slutligen tänker vi på vad som händer med A under samma tidsperioder. Om inte ytterligare information om miljön ges, i O(t) steg A har endast en exponentiellt liten (O(exp(-M ln(-))/2)) sannolikhet att ha sett belöningssekvensen. Således är kvantagenten mer lyckosam än den klassiska, och i tur-favoriserande Steg 1,2 Steg 3 Steg 4 Steg 1 Steg 3: En q simulerar agenten A, och "tränar" simuleringen för att producera den givande sekvensen. I steg 4, A q använder A(hr) för återstoden av den nu klassiskt testade interaktionen, med den klassiska miljön E. inställningar, innebär detta att A q kommer att fortsätta att överträffa A efter t steg. Utlåtandet av Theorem 1 är inte kvantitativt, på grund av den allmänna definitionen av tur-favoriserande inställningar. Vi kan emellertid byta ut generalitet mot exakthet. Om en agent A använder en variant av - greedy [26] beteende - det vill säga, det ger belöningssekvensen (exploatering) med sannolikhet och utforskar med sannolikhet 1 -, Då förhållandet mellan resultaten av A q och A kommer att vara exponentiellt i M : den konstanta belöningsannolikheten för A q jämfört med exponentiellt minskande O(-M ln( en)/2)) av A i steg t. Denna exponentiella gap innehar för tidsskalan T på O(t). Förbättringen av inlärningseffektiviteten (antal interaktionssteg) är dock kvadratisk. Våra resultat uppnår solida förbättringar med hjälp av enkla tekniker, till priset av att begränsa arbetsmiljöerna. Men vårt exempel kan ytterligare generaliseras i två riktningar. Först, så länge den re-set inträffar på steg M, flera och flervärderade belöningar kan också hanteras genom att definiera orakel som reversibelt räkna belöningarna. Mycket givande sekvenser kan sedan hittas genom kvantoptimering tekniker [27], som beskrivs i tillägget. För det andra, under starkare antaganden om E q, med hjälp av mer involverade kvant subrutiner, kan vi hantera stokastiska miljöer. Till exempel, i inställningen med en belöning per epok, oraklet och 0 där sin 2 är sannolikheten för en belöning, med tanke på åtgärden sekvens a, kan konstrueras från en reversibel implementation av miljön där slumpmässighet representeras som ett delsystem i en insnärjd tillstånd (se tillägget för detaljer). Härifrån, genom att använda fas kick-back och fasuppskattning agenten kan förverkliga kartläggningen på 0 → på ett, där en är en l-bit precisionsuppskattning av belöningsannolikheten som anges av vinkeln A. Därefter amplitud förstärkning används för amplitud-amplity alla sekvenser a där belöningsannolikheten p r (a) given sekvens a, är över en tröskel p min. Med tanke på N min sådana sekvenser (ut ur N tot := och M sekvenser totalt), det totala antalet interaktioner steg multiplicerar M med amplitud förstärkning kostnad (O((N tot Om den minsta relevanta framgång sannolikheten är konstant för en familj av uppgift miljöer, då detta utgör en quadratic förbättring i att hitta bra åtgärd sekvenser. Detta tillvägagångssätt kan också generaliseras till en bredare kategori av inställningar (se bilagan för närmare information). I många miljöer, t.ex. robotik, tillåter de klassiska miljöerna inte "orakularisering". De konstruktioner som presenteras kan dock användas i modellbaserat lärande [14], där agenten konstruerar en intern representation av miljön för att underlätta bättre lärande genom simulering. Sedan kan "quantum chip" hjälpa till att påskynda intern bearbetning, vilket är det mest som kan göras i QC-inställningar. Ett lockande undantag från detta kan vara nanoscale-robotar (t.ex. Intelligenta versioner av in-situ sonder i [19] ) i framtida kvantexperiment, eftersom miljön på dessa skalor uppenbarligen är kvant och utsökt kontroll blir en möjlighet. Slutsatser.-I detta arbete har vi utvidgat den allmänna agent-miljö ramen för artificiell intelligens [14] till kvantområdet. Baserat på detta har vi etablerat ett schema för kvantförbättringar i lärande, bortom beräknings komplexitet. Med hjälp av detta schema har vi gett explicita konstruktioner av kvantförstärkta förstärkande inlärningsagenter, som överträffar sina klassiska motsvarigheter fyrsidigt i termer av lärande effektivitet, eller till och med exponentiellt i prestanda under begränsade perioder. Detta utgör ett viktigt steg mot en systematisk undersökning av kvantmaskininlärningens fulla potential och det första steget i samband med förstärkning av inlärningen under kvantinteraktion. ERKÄNNANDEN | En allmän ram för kvant maskininlärning presenteras i REF. | 12,698,722 | Quantum-enhanced machine learning | {'venue': 'Phys. Rev. Lett. 117, 130501 (2016)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Medicine']} | 5,457 |
Vi presenterar en flexibel metod för sammansmältning av information från optiska sensorer och avståndssensorer baserat på en accelererad högdimensionell filtreringsmetod. Vårt system tar som ingång en sekvens av monokulära kamerabilder samt en ström av glesa avståndsmätningar som erhållits från ett laser- eller annat sensorsystem. I motsats till befintliga metoder utgår vi inte från att djup- och färgdataströmmarna har samma datahastigheter eller att den observerade scenen är helt statisk. Vår metod producerar en tät, högupplöst djupkarta över scenen, som automatiskt genererar förtroendevärden för varje interpolerad djuppunkt. Vi beskriver hur man integrerar tidigare på objekt rörelse och utseende och hur man uppnår en effektiv implementering med hjälp av parallell bearbetning hårdvara såsom GPUs. | Dolson m.fl. REF använde också gemensamt bilateralt filter för att öka provtagningsområdets data, men deras metod bygger på en monokulär bildsekvens och en ström av glesa avståndsmätningar för att producera en tät, högupplöst dynamisk djupkarta över scenen. | 5,659,008 | Upsampling range data in dynamic environments | {'venue': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition', 'journal': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 5,458 |
Online-gemenskaper har blivit populära för publicering och sökning av innehåll, samt för att hitta och ansluta till andra användare. Användargenererat innehåll inkluderar till exempel personliga bloggar, bokmärken och digitala foton. Dessa objekt kan kommenteras och värderas av olika användare, och dessa sociala taggar och härledda användarspecifika poäng kan utnyttjas för att söka relevant innehåll och upptäcka subjektivt intressanta objekt. Dessutom kan relationer mellan användare också beaktas för ranking sökresultat, intuitionen är att du litar på rekommendationer från dina nära vänner mer än de av dina tillfälliga bekanta. Frågor för tagg eller nyckelordskombinationer som beräknar och rankar top-k-resultaten möter därmed en stor mängd olika alternativ som komplicerar frågebehandlingen och utgör effektivitetsutmaningar. Detta dokument tar upp dessa frågor genom att utveckla en inkrementell topk-algoritm med tvådimensionella expansioner: social expansion tar hänsyn till styrkan i relationerna mellan användare, och semantisk expansion tar hänsyn till relationen mellan olika taggar. Den presenterar en ny algoritm, baserad på principer för tröskelalgoritmer, genom att vika vänner och relaterade taggar in i sökområdet på ett stegvist sätt på begäran. Metodens utmärkta prestanda demonstreras genom en experimentell utvärdering av tre verkliga datauppsättningar, som kröp från deli.cio.us, Flickr och LibraryThing. | Schenkel m.fl. REF föreslog en inkrementell tröskelalgoritm som tar hänsyn till både sociala band mellan användare och semantisk relation mellan olika taggar, som presterar anmärkningsvärt bättre än algoritmen utan taggexpansion. | 15,439,008 | Efficient top-k querying over social-tagging networks | {'venue': "SIGIR '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,459 |
Abstrakt. Sammanhangsmedvetna musikrekommendersystem kan föreslå musikobjekt som tar hänsyn till kontextuella förhållanden, såsom användarens stämning eller plats, som kan påverka användarens preferenser vid ett visst tillfälle. I detta dokument överväger vi ett särskilt slags sammanhang medveten rekommendation uppgift - att välja musikinnehåll som passar en plats av intresse (POI). För att ta itu med detta problem har vi använt känslomässiga taggar fästa av en användares befolkning till både musik och POIs. Dessutom har vi övervägt en uppsättning likhetsmått för taggade resurser för att etablera en matchning mellan musikspår och POI. För att testa vår hypotes, d.v.s. att användarna kommer att räkna med att ett musikspår passar en POI när detta spår väljs genom vårt tillvägagångssätt, har vi utformat ett levande användarexperiment där ämnen gång på gång presenteras med POI och ett urval av musikspår, några av dem matchar den presenterade POI och några inte. Resultaten av experimentet visar att det finns en stark överlappning mellan användarnas val och den bästa matchande musik som rekommenderas av systemet för en POI. | De föreslog också ett tillvägagångssätt REF som beaktade kontextuella förhållanden såsom användarstämning eller plats. | 11,112,491 | Location-Adapted Music Recommendation Using Tags | {'venue': 'User Modeling, Adaption and Personalization', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,460 |
Databassystem för realtidstillämpningar måste uppfylla tidsbegränsningar i samband med transaktioner, förutom att bibehålla uppgifternas enhetlighet. Förutom realtidskrav krävs säkerhet vanligtvis i många tillämpningar. Säkerhetskrav på flera nivåer inför en ny dimension för transaktionsbehandling i realtidsdatabassystem. I detta dokument hävdar vi att man på grund av de övergripande målen för varje krav måste göra en avvägning mellan säkerhet och aktualitet. Vi rst de ne ömsesidig information, ett mått på i vilken grad säkerheten tillgodoses av ett system. Ett säkert låsprotokoll i två steg beskrivs därefter och ett system föreslås för att tillåta partiella säkerhetsöverträdelser för att förbättra aktualiteten. Analytiska uttryck för ömsesidig information om den resulterande hemliga kanalen härleds och ett återkopplingskontrollsystem föreslås som inte gör det möjligt för den ömsesidiga informationen att överskrida en viss övre gräns. Resultat som visar systemets eektivitet som erhållits genom simuleringsförsök diskuteras också. | I REF tas man upp till avvägning mellan aktualitet och säkerhet, och sedan har man föreslagit ett system som tillåter partiella brott mot säkerheten för att förbättra aktualiteten. | 6,529,044 | Integrating Security and Real-Time Requirements using Covert Channel Capacity | {'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,461 |
Artificiell intelligens har sett flera genombrott under de senaste åren, med spel som ofta tjänar som milstolpar. Ett gemensamt drag i dessa spel är att spelarna har perfekt information. Poker, det väsentliga spelet av ofullständig information, är en långvarig utmaning problem inom artificiell intelligens. Vi introducerar DeepStack, en algoritm för bristfälliga informationsinställningar. Den kombinerar rekursivt resonemang för att hantera informationsasymmetri, nedbrytning för att fokusera beräkningen på det relevanta beslutet, och en form av intuition som automatiskt lärs från självspel med hjälp av djupt lärande. I en studie med 44,000 händer poker, DeepStack besegrade, med statistisk betydelse, professionella pokerspelare i heads-up no-limit Texas hold'em. Tillvägagångssättet är teoretiskt sunt och visar sig producera strategier som är svårare att utnyttja än tidigare tillvägagångssätt. G ames har länge fungerat som riktmärken för framsteg inom artificiell intelligens (AI). Under de senaste två decennierna har datorprogram nått en prestanda som är högre än den som expertspelarna i partier som backgammon (1), pjäser (2), schack (3), Jeopardy! (4), Atari videospel (5), och gå (6). Dessa framgångar omfattar alla spel med informationssymmetri, där alla spelare har identisk information om det aktuella läget i spelet. Denna egenskap perfekt information är också i hjärtat av de algoritmer som aktiverade dessa framgångar, såsom lokal sökning under spel (7, 8). John von Neumann, grundare av modern spelteori och datapionjär, föreställde sig resonemang i spel utan perfekt information: " Det verkliga livet är inte så. Verkligt liv består av bluff, av lite bedrägeritaktik, av att fråga dig själv vad den andra mannen tror att jag tänker göra. Och det är vad spel handlar om i min teori" (9). Ett spel som fascinerade von Neumann var poker, där spelare delas ut privata kort och turas om att göra satsningar eller bluffa på att hålla den starkaste handen, ringa motståndarens satsningar, eller vika och ge upp på handen och de satsningar som redan lagts till potten. Poker är ett spel av ofullständig information, där spelarnas privata kort ger dem asymmetrisk information om läget i spelet. Heads-up no-limit Texas hold'em (HUNL) är en två-spelare version av poker där två kort först delas ut nedåt till varje spelare, och ytterligare kort delas ut face up i tre efterföljande rundor. Ingen gräns sätts på storleken på spelen, även om det finns en total gräns för det totala satsade beloppet i varje spel (10). AI-tekniker har tidigare visat framgång i det enklare spelet heads-up limit Texas hold'em, där alla satsningar är av en fast storlek, vilket resulterar i strax under 10 14 beslutspunkter (11). Som jämförelse, datorer har överskridit expert mänskliga prestanda i go (6), en perfekt information spel med cirka 10 170 beslutspunkter (12). Det bristfälliga informationsspelet HUNL är jämförbart i storlek och antalet beslutspunkter överstiger 10 160 (13). Ofullständig information spel kräver mer komplexa resonemang än liknande storlek perfekt information spel. Det korrekta beslutet vid en viss tidpunkt beror på sannolikheten fördelning över privat information som en motståndare innehar, vilket avslöjas genom motståndarens tidigare åtgärder. Det sätt på vilket denna information avslöjas beror dock på motståndarens kunskap om vår egen privata information och hur våra handlingar avslöjar den. Denna typ av rekursiva resonemang är varför man inte lätt kan resonera om spelsituationer i isolering, som i heuristiska sökmetoder som används i perfekt information spel. Konkurrenskraftiga AI-strategier i ofullständiga informationsspel resonerar vanligtvis om hela spelet och producerar en komplett strategi innan spelet börjar (14-16). Kontrafaktisk ångerminimering (CFR) (14, 17, 18 ) är en sådan teknik där ett program använder sig av självspel för att göra rekursiva resonemang genom att anpassa sin strategi mot sig själv över successiva iterationer. Om spelet är för stort för att lösas direkt, är det vanliga svaret att lösa ett mindre, abstrakt spel. För att spela det ursprungliga spelet, översätter man situationer och åtgärder från det ursprungliga spelet till det abstrakta spelet. Även om detta tillvägagångssätt gör det möjligt för program att resonera i ett spel som HUNL, det gör det genom att klämma HUNL 10 160 situationer ner till ordningen 10 14 abstrakta situationer. Sannolikt som ett resultat av denna förlust av information ligger sådana program bakom ett sakkunnigt mänskligt spel. Under 2015 förlorade datorprogrammet Claudico till ett team av professionella pokerspelare med en marginal på 91 milli-big blinds per match (mbb/g) (19), vilket är en "hög marginal för seger" (20). Dessutom visades det nyligen att abstraktionbaserade program från den årliga Computer Poker tävlingen har massiva brister (21). Fyra sådana program (inklusive toppprogram från 2016 tävlingen) utvärderades med hjälp av en lokal bästa svarsteknik som producerar en ungefärlig lägre gräns på hur mycket en strategi kan förlora. Alla fyra abstraktion-baserade program är beatable med mer än 3000 mbb/g, medan helt enkelt vik varje spel resulterar i 750 mbb/g. DeepStack har en helt annan inställning. Den fortsätter att använda CFR:s rekursiva resonemang för att hantera informationsasymmetri. Den beräknar dock inte och lagrar inte en fullständig strategi innan den spelas och har därför inget behov av explicit abstraktion. Den betraktar i stället varje enskild situation som den uppstår under leken, men inte isolerat. Den undviker resonemang om hela återstoden av spelet genom att ersätta beräkningen bortom ett visst djup med en snabb ungefärlig uppskattning. Denna uppskattning kan tänkas som DeepStack intuition: en magkänsla av värdet av att hålla eventuella privata kort i någon möjlig pokersituation. Slutligen måste DeepStacks intuition, ungefär som människans intuition, tränas. Vi tränar den med djupt lärande (22), med hjälp av exempel som genereras från slumpmässiga pokersituationer. Vi visar att DeepStack är teoretiskt sund, producerar strategier betydligt svårare att utnyttja än abstraktion-baserade tekniker, och besegrar professionella pokerspelare på HUNL med statistisk betydelse. DeepStack är en allmän algoritm för en stor klass av sekventiella imperfekta-informationsspel. För tydlighetens skull beskriver vi dess funktion i HUNL-spelet. Tillståndet i ett pokerspel kan delas upp i spelarnas privata informations-hands av två kort som delas ut nedåt-och det offentliga tillståndet, som består av korten som ligger ansikte upp på bordet och sekvensen av vadslagning åtgärder som görs av spelarna. Möjliga sekvenser av offentliga stater i spelet bildar ett offentligt träd, med varje offentlig stat har ett tillhörande offentligt underträd (Fig. 1).................................................................. En spelares strategi definierar en sannolikhetsfördelning över giltiga åtgärder för varje beslutspunkt, där en beslutspunkt är kombinationen av den offentliga staten och handen för den verkande spelaren. Med tanke på en spelares strategi, för varje offentlig stat kan man beräkna spelarens räckvidd, vilket är sannolikheten fördelning över spelarens möjliga händer med tanke på att den offentliga staten nås. Med tanke på strategier för båda spelarna, är nyttan för en av spelarna vid en terminal offentlig stat, där spelet har avslutats, en bilinjär funktion av båda spelarnas intervall med hjälp av en payoff matris som bestäms av reglerna i spelet. Den förväntade nyttan för en spelare i någon annan offentlig stat, inklusive den ursprungliga staten, är den förväntade nyttan över nåbar | Till exempel i Ref författare anser heads-up no-limit poker som ett exempel på ett spel med dold information. | 1,586,260 | DeepStack: Expert-level artificial intelligence in heads-up no-limit poker | {'venue': None, 'journal': 'Science', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 5,462 |
Numera i tunisien, har den arabiska tunisiska Dialect (TD) successivt använts i intervjuer, nyheter och debatt program i stället för Modern Standard Arabiska (MSA). Detta gav således upphov till ett nytt språk. Majoriteten av talen görs inte längre i MSA utan alternerar mellan MSA och TD. Denna situation har viktiga negativa konsekvenser för automatisk taligenkänning (ASR): eftersom de talade dialekterna inte är officiellt skrivna och inte har en vanlig ortografi, är det mycket kostsamt att få tillräckligt med kommenterade corpora att använda för att träna språkmodeller och bygga ordförråd. Det finns varken parallellkorpora med tunisisk dialekt och MSA eller ordböcker. I denna uppsats beskriver vi en metod för att bygga en tvåspråkig ordbok med hjälp av explicit kunskap om relationen mellan TD och MSA. Vi presenterar också en automatisk process för att skapa tunisisk Dialect (TD) corpora. | REF skapade ett lexikon baserat på förhållandet mellan tunisisk arabiska och MSA. | 18,531,881 | Mapping Rules for Building a Tunisian Dialect Lexicon and Generating Corpora | {'venue': 'IJCNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,463 |
I detta dokument undersöks hur en ny klass av icke-parametriska Bayesian modeller effektivt kan tillämpas på en öppen-domän händelse coreferens uppgift. Utformad med syftet att samla komplexa språkliga objekt, dessa modeller anser ett potentiellt oändligt antal funktioner och kategoriska resultat. Den utvärdering som gjorts för att lösa både inom och mellan dokumenthändelser visar på betydande förbättringar av modellerna jämfört med två baslinjer för denna uppgift. | I REF föreslås en oövervakad Bayesiansk klustermodell för händelsesamreferens inom och mellan dokument. | 739,867 | Unsupervised Event Coreference Resolution with Rich Linguistic Features | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,464 |
Vi presenterar 'Screen codes' -en rymd- och tidseffektiv, estetiskt övertygande metod för överföring av data från en display till en kamerautrustad mobil enhet. Skärmkoder koda data som ett rutnät av luminositet fluktuationer i en godtycklig bild, visas på videoskärmen och avkodas på en mobil enhet. Dessa "vinklingsbilder" är en form av "visuell hyperlänk", genom vilken användarna kan flytta dynamiskt genererat innehåll till och från sina mobila enheter. De hjälper till att överbrygga "innehållsklyftan" mellan mobila och fasta datorer. | Collomosse m.fl. Föreslagna "Screen codes" REF för överföring av data från en bildskärm till en kamerautrustad mobil enhet, där data kodas som ett rutnät av luminositetsfluktuationer inom en godtycklig bild. | 14,480,241 | Screen codes: visual hyperlinks for displays | {'venue': "HotMobile '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,465 |
I detta dokument presenterar vi ett nytt tillvägagångssätt för att utforska dynamiska grafer. Vi föreslår först en ny klusteralgoritm för dynamiska grafer som finner en idealisk klusterbildning för varje steg och länkar kluster tillsammans. De resulterande tidsvarierande kluster används sedan för att definiera två visuella representationer. Den första bilden är en översikt som visar hur kluster utvecklas över tid och ger ett gränssnitt för att hitta och välja intressanta tidssteg. Den andra vyn består av en nodlänkdiagram över ett valt tidssteg som använder klustret för att effektivt definiera layouten. Genom att använda den tidsberoende klungan säkerställer vi stabiliteten i vår visualisering och bevarar användarens mentala karta genom att minimera nodrörelse, samtidigt som vi skapar en idealisk layout för varje steg. Dessutom, som klungan beräknas i förväg, den andra vy uppdateringar i linjär tid som möjliggör interaktivitet även för grafer med upp till tiotusentals noder. | Sallaberry et al. REF klustraterade varje steg och kopplade samman dessa kluster under hela tiden. | 8,080,077 | Clustering, visualizing, and navigating for large dynamic graphs | {'venue': 'Graph Drawing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,466 |
Abstract-Cognitiva radionät har föreslagits som en lösning på både problem med spektrumineffektivitet och spektrumbrist. De står dock inför en unik utmaning som bygger på de heterogena spektrumbandens fluktuerande karaktär och de olika tjänstekraven för olika tillämpningar. I detta dokument föreslås en ram för spektrumbeslut för att fastställa en uppsättning spektrumband genom att beakta såväl tillämpningskraven som spektrumbandens dynamiska karaktär. För det första kännetecknas varje spektrum av att man gemensamt överväger primär användaraktivitet och spektrumavkänning. På grundval av detta föreslås ett minsta variansbaserat spektrumbeslut för realtidstillämpningar, vilket minimerar kapacitetsvariansen för de utvalda spektrumbanden som omfattas av kapacitetsbegränsningarna. För bästa tillgängliga tillämpningar föreslås ett maximalt kapacitetsbaserat spektrumbeslut där spektrumband beslutas för att maximera den totala nätkapaciteten. Dessutom utvecklas ett dynamiskt resurshanteringssystem för att samordna spektrumbeslutet som är anpassat beroende av den tidsvarierande kognitiva radionätskapaciteten. Simuleringsresultat visar att de föreslagna metoderna ger ett effektivt utnyttjande av bandbredden samtidigt som de uppfyller servicekraven. | Upphovsmännen i REF föreslog en ram för spektrumbeslut för centraliserade CRN genom att överväga tillämpningskrav och nuvarande spektrumförhållanden. | 2,938,542 | A Spectrum Decision Framework for Cognitive Radio Networks | {'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']} | 5,467 |
Abstract-Stereo korrespondens metoder förlitar sig på matchningskostnader för att beräkna likheten av bild platser. Vi utvärderar okänsligheten av olika kostnader för passiva binokulära stereometoder med avseende på radiometriska variationer av indatabilder. Vi betraktar både pixel-baserade och fönsterbaserade varianter som den absoluta skillnaden, den provtagning-okänsliga absoluta skillnaden, och normaliserad kors korrelation, liksom deras noll-medel versioner. Vi överväger också filter som LoG, medel och bilateral bakgrund subtraktion (BilSub) och icke-parametriska åtgärder som Rank, SoftRank, Census, och Ordinal. Slutligen betraktas hierarkisk ömsesidig information (HMI) som pixelvis kostnad. Med hjälp av stereodatauppsättningar med mark-sanning skillnader som tas under kontrollerade förändringar av exponering och belysning, utvärderar vi kostnaderna med en lokal, en semiglobal, och en global stereo metod. Vi mäter prestandan av alla kostnader i närvaro av simulerade och verkliga radiometriska skillnader, inklusive exponeringsskillnader, vigneting, varierande belysning och buller. Sammantaget verkar rangordningen av metoder i alla datamängder och experiment vara konsekvent. Bland de bästa kostnaderna är BilSub, som presterar konsekvent mycket bra för låga radiometriska skillnader; HMI, som är något bättre som pixelvis matchande kostnad i vissa fall och för starka bildbuller; och Census, som visade den bästa och mest robusta övergripande prestanda. | Även Ref föreslår att lära pixelwise kostnad baserat på ömsesidig information från marksanningsdata. | 3,572,737 | Evaluation of Stereo Matching Costs on Images with Radiometric Differences | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 5,468 |
I detta dokument presenterar vi ett ramverk för riskaverse modell prediktiv kontroll (MPC) av linjära system som påverkas av multiplikativ osäkerhet. Vår viktigaste innovation är att betrakta tidskonsistenta, dynamiska riskmått som objektiva funktioner som ska minimeras. Detta ramverk är axiomatiskt motiverat i termer av tid-konsistens av riskpreferenser, är amenable till dynamisk optimering, och är enande i den meningen att det fångar en hel rad riskbedömningar från riskneutralt till värsta fall. Inom detta ramverk föreslår och analyserar vi en online-risk-averse MPC-algoritm som är bevisligen stabiliserande. Genom att utnyttja den dubbla representationen av tidskonsistenta, dynamiska riskmått, kastar vi dessutom beräkningen av MPC-kontrolllagen som ett konvext optimeringsproblem som är möjligt att implementera på inbyggda system. Simuleringsresultat presenteras och diskuteras. | I REF ger författarna stabilitetssäkrare för en linjär MPC-regulator, vilket minimerar tidskonsistenta riskmått i en konvex optimeringsform. | 1,965,247 | A framework for time-consistent, risk-averse model predictive control: Theory and algorithms | {'venue': '2014 American Control Conference', 'journal': '2014 American Control Conference', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 5,469 |
Abstract-I detta papper presenterar vi en adaptiv avspärrning filter för att förbättra videokvaliteten för högeffektiv videokodning (HEVC) system. HEVC-standarden är ett hybridkodningssystem som använder blockbaserade förutsägelser och omvandlar kodning/avkodning. Vid avkodningen steg, gränsen för två angränsande block orsakar visuella diskontinuiteter som kallas blockera artefakter som kan tas bort med avblockering filter. Konventionella metoder, inklusive HEVC-standarden, tenderar att ta bort de artefakter med hjälp av två offsetparametrar som är standard till 0. Ett sådant val är dock inte nödvändigtvis lämpligt för att koda/avkoda alla videosekvenser. Det föreslagna tillvägagångssättet minskar en omfattande sökning bland en uppsättning kandidatförskjutningar för att så småningom välja de bästa förskjutningarna adaptivt (dvs. för varje ram) enligt vissa egenskaper hos datasekvenserna. Förbättringar visas med den föreslagna metoden i termer av rankning (RD) prestanda i motsats till HEVC-standarden utan att ändra komprimeringsförhållandet och med försumbar förändring av kodning/avkodningstiden. Index Terms-Boundary styrka, högeffektiv videokodning, blockgräns, avblockering filter. | Eldeken och Salama REF, avblockeringsfilterprocessen för HEVC-standarden modifierad. | 30,465,433 | An Adaptive Deblocking Filter to Improve the Quality of the HEVC Standard | {'venue': None, 'journal': 'International Journal of Image, Graphics and Signal Processing', 'mag_field_of_study': ['Computer Science']} | 5,470 |
SystemC används i stor utsträckning för modellering och simulering inom hårdvara/programvara samdesign. På grund av bristen på en komplett formell semantik, är det inte möjligt att verifiera SystemC konstruktioner. I detta dokument presenterar vi en strategi för att övervinna detta problem genom att definiera semantiken i SystemC genom en kartläggning från SystemC-konstruktioner till de väldefinierade semantikerna i Uppaal timed automata. Det informellt definierade beteendet och strukturen för SystemC-konstruktioner är helt bevarade i de genererade Uppaal-modellerna. De resulterande Uppaal-modellerna gör det möjligt för oss att använda Uppaal-modellens checker och verktygssviten Uppaal, inklusive simulerings- och visualiseringsverktyg. Modellkontrollen kan användas för att verifiera viktiga egenskaper som liv, dödlägesfrihet eller överensstämmelse med tidsbegränsningar. Vi har genomfört den presenterade omvandlingen, tillämpat den på två exempel och verifierat liv, säkerhet och timing egenskaper genom modellkontroll, vilket visar tillämpligheten av vår strategi i praktiken. | I REF har en metodkartläggning SystemC designar in i UPAAL tidsinställd automata föreslagits. | 12,253,977 | Model checking SystemC designs using timed automata | {'venue': "CODES+ISSS '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,471 |
Den senaste tidens utveckling av bekväma bärbara sensorer har nästan helt fokuserat på övervakning av fysisk aktivitet, ignorerar möjligheter att övervaka mer subtila fenomen, såsom kvaliteten på sociala interaktioner. Vi hävdar att det är övertygande att ta itu med om fysiologiska sensorer kan sprida ljus över kvaliteten på socialt interaktivt beteende. Detta arbete utnyttjar användningen av en bärbar elektrodermal aktivitet (EDA) sensor för att känna igen lätt engagemang av barn under en social interaktion med en vuxen. I synnerhet övervakade vi 51 barn-vuxna dynader i en halvstrukturerad lek interaktion och använde Support Vector Machines för att automatiskt identifiera barn som hade bedömts av den vuxna som mer eller mindre svåra att engagera. Vi rapporterar om klassificeringsvärdet av flera funktioner som utvunnits ur barnets EDA-svar, samt flera andra funktioner som fångar den fysiologiska synkronin mellan barnet och den vuxna. | Hernandez m.fl. REF använde bärbara elektrodermala aktivitetssensorer för att upptäcka barns engagemang under sociala interaktioner med vuxna. | 14,068,293 | Using electrodermal activity to recognize ease of engagement in children during social interactions | {'venue': None, 'journal': 'Proceedings of the 2014 ACM International Joint Conference on Pervasive and Ubiquitous Computing', 'mag_field_of_study': ['Computer Science']} | 5,472 |
A b s t r a c t Mål: Syftet med denna studie var att undersöka relationer mellan olika aspekter i övervakad ordet disambiguation (WSD; övervakad maskininlärning för att reda ut innebörden av en term i ett sammanhang) och jämföra övervakad WSD i den biomedicinska domänen med den i den allmänna engelska domänen. Studien omfattar tre dataset (en biomedicinsk förkortning dataset, en allmän biomedicinsk term dataset, och en allmän engelsk dataset). Författarna implementerade tre maskininlärningsalgoritmer, inklusive (1) naiva Bayes (NBL) och beslutslistor (TDLL), (2) deras anpassning av beslutslistor (ODLL) och (3) deras blandade övervakade lärande (MSL). Det fanns sex funktioner representationer (olika kombinationer av collocations, påse med ord, orienterad påse med ord, etc.) och fem fönsterstorlekar (2, 4, 6, 8 och 10). Resultat: Supervised WSD är lämplig endast när det finns tillräckligt med känsla-taggade fall med minst några dussintals fall för varje känsla. Samlokaliseringar i kombination med grannord är lämpliga val för sammanhanget. För termer med icke-relaterade biomedicinska sinnen, en stor fönsterstorlek som hela stycket bör användas, medan för allmänna engelska ord en måttlig fönsterstorlek mellan 4 och 10 bör användas. Resultaten av författarnas genomförande av beslutslistorna för förkortningar var bättre än för traditionella beslutslistor. Men det motsatta höll för de andra två uppsättningarna. Dessutom, författarnas blandade övervakade lärande var stabil och i allmänhet bättre än andra för alla uppsättningar. Slutsats: Av denna studie fann man att olika aspekter av övervakade WSD är beroende av varandra. Den försöksmetod som presenteras i studien kan användas för att välja den bästa övervakade WSD-klassificeringen för varje tvetydig term. Word sense disambiguation (WSD) är problemet med att märka rätt känsla av ett givet ord i ett sammanhang. Att lösa sense tvetydighet är ett av de viktigaste problemen i behandling av naturligt språk (NLP) och är viktigt för alla typer av textförståelse uppgift såsom informationsutdrag, informationshämtning, eller meddelandeförståelse. Trots det breda spektrum av metoder som undersökts, inklusive expertregler och övervakade eller oövervakade maskininlärningsmetoder, finns det för närvarande inget storskaligt, brett täckningssystem och mycket exakt WSD-system. En av de uppmuntrande tillvägagångssätten för WSD är övervakad maskininlärning. 2 Med tanke på ett tvetydigt ord W, en övervakad WSD klassificering erhålls genom att tillämpa övervakad maskininlärning på en samling av sense-taggade fall av W, kallas en sense-taggad corpus av W STC(W), där betydelsen av W i varje instans har märkts. Övervakade strategier tenderar att uppnå bättre resultat än andra WSD-strategier. 4, 5 Men övervakad WSD lider av bristen på en stor, bred täckning, sense-taggade corpus. För närvarande finns det två forskningslinjer som tar itu med detta problem 6,7: (1) utforma effektiva provtagningsmetoder för att sänka kostnaden för sense taggning eller (2) använda en maskinläsbar ordbok (MRD) och en stor samling rå text för att få en rå sense-taggad corpus. I flera tidigare rapporter, 8, 9 har vi visat att metoder baserade på MRD kan användas för att få en stor, sense-taggad corpus för tvetydiga biomedicinska förkortningar. Vi gjorde också en jämförelsestudie i en rapport, 8 men den var begränsad (med en datauppsättning specialiserad på den medicinska rapporten domän, ett par befintliga maskininlärning algoritmer, och några funktioner representationer som inte inkluderar collocation). Huvudfokus i rapporten var att föreslå en oövervakad WSD-metod och inte att jämföra olika övervakade WSD-klassificeringar. Resultaten visade att ytterligare undersökning av övervakade WSD var motiverad. I denna rapport undersökte vi relationerna mellan olika aspekter av övervakad WSD och jämförde WSD inom den biomedicinska domänen med den i den allmänna engelska domänen. Här presenterar vi först bakgrund och relaterat arbete om övervakad WSD. Vi beskriver sedan vårt experiment på övervakad WSD som omfattar flera aspekter: datauppsättning, funktion affiliationer av författarna: | REF studerade olika storlekar av omedelbara sammanhang till höger och till vänster om det tvetydiga ordet för utbildning av maskininlärningsalgoritmer som visade hög noggrannhet i allmänna engelska ordet sense disambiguation, nämligen naiva Bayes, beslutslista, och en kombination av en naiv Bayes och en instansbaserad klassificering. | 17,565,522 | A multi-aspect comparison study of supervised word sense disambiguation | {'venue': 'Journal of the American Medical Informatics Association : JAMIA', 'journal': 'Journal of the American Medical Informatics Association : JAMIA', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 5,473 |
bör vara känslig för tidsstruktur och tillåta både inmatning (sekvens av ramar) och utgång (följd av ord) av variabel längd. För att närma sig detta problem föreslår vi en ny end-to-end sekvens-to-sekvens-modell för att generera bildtexter för videor. För detta utnyttjar vi återkommande neurala nätverk, särskilt LSTMs, som har visat toppmodern prestanda i bildtextgenerering. Vår LSTM-modell är utbildad på video-sentence par och lär sig att koppla en sekvens av videoramar till en sekvens av ord för att generera en beskrivning av händelsen i videoklippet. Vår modell kan naturligtvis lära sig temporal struktur av sekvensen av ramar samt sekvensen modell av de genererade meningar, dvs... En språkmodell. Vi utvärderar flera varianter av vår modell som utnyttjar olika visuella funktioner på en standarduppsättning YouTube-videor och två filmbeskrivningsdataset (M-VAD och MPII-MD). | REF föreslår en endto-end sekvens-till-sekvens-modell för att skapa textning för videoinspelningar. | 4,228,546 | Sequence to Sequence -- Video to Text | {'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 5,474 |
Abstrakt. Målet med det semantiska skrivbordet är att möjliggöra en bättre organisation av den personliga informationen på våra datorer, genom att tillämpa semantiska tekniker på skrivbordet. Informationen på vårt skrivbord är dock ofta ofullständig, eftersom den är baserad på vår subjektiva syn, eller begränsad kunskap om en enhet. Å andra sidan innehåller datawebben information om praktiskt taget allt, i allmänhet från flera källor. Att ansluta skrivbordet till webben av data skulle på så sätt berika och komplettera skrivbordsinformation. Att ta in information från webben av data automatiskt skulle ta bördan av att söka efter information från användaren. Dessutom öppnar anslutningen av de två datanätverken möjligheten till avancerade personliga tjänster på skrivbordet. Vår lösning tar itu med de problem som tas upp ovan genom att använda en semantisk sökmotor för webben av data, såsom Sindice, för att hitta och hämta en relevant delmängd av enheter från webben. Vi presenterar ett matchande ramverk, med hjälp av en kombination av konfigurerbara heuristik och regler för att jämföra data grafer, som uppnår en hög grad av precision i länkning beslutet. Vi utvärderar vår metodik med verkliga data; skapar en guldstandard från relevanta bedömningar av experter, och vi mäter vårt systems prestanda mot det. Vi visar att det är möjligt att automatiskt länka desktop data med webbdata på ett effektivt sätt. | Drăgan och kollegor REF föreslår en strategi för att ansluta det semantiska skrivbordet till webben av data: Detta gör det möjligt för systemet att "föra webbdata till användaren", vilket stöder utnyttjandet av externa data i användarens personliga sammanhang. | 17,800,752 | Linking semantic desktop data to the web of data | {'venue': 'International Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,475 |
I den stokastiska matchningsproblem, vi ges en allmän (inte nödvändigtvis bipartite) graf G (V, E), där varje kant i E realiseras med någon konstant sannolikhet p > 0 och målet är att beräkna en begränsad grad (bundet av en funktion beroende endast på p) subgraf H av G sådan att den förväntade maximala matchningsstorleken i H är nära den förväntade maximala matchningsstorleken i G. Algoritmerna i denna inställning anses icke-adaptiva eftersom de måste välja subgraf H utan att veta någon information om uppsättningen av realiserade kanter i G. Ursprungligen motiverade av en ansökan till njurutbyte, den stokastiska matchningsproblem och dess varianter har fått betydande uppmärksamhet under de senaste åren. De toppmoderna icke-adaptiva algoritmerna för stokastisk matchning uppnår ett approximationsförhållande på 1 2 −ε för alla ε > 0, vilket naturligt väcker frågan att om 1/2 är gränsen för vad som kan uppnås med en icke-adaptiv algoritm. I detta arbete, vi löser denna fråga genom att presentera den första algoritmen för stokastisk matchning med en approximation garanti som är strikt bättre än 1/2: algoritmen beräknar en subgraf H av G med maximal grad O log (1/p ) p sådan att förhållandet av förväntad storlek av en maximal matchning i realisationer av H och G är minst 1/2 + δ 0 för vissa absolut konstant δ 0 > 0. Graden bunden på H uppnås av vår algoritm är i huvudsak den bästa möjliga (upp till en O (log (1/p)) faktor) för någon konstant faktor approximation algoritm, eftersom en på 1 p ) grad i H är nödvändig för en vertex för att förvärva minst en incident kant i ett förverkligande. Vårt resultat gör framsteg när det gäller att lösa ett öppet problem med Blum et al. (EC 2015) om möjligheten att uppnå en (1 − ε)-uppskattning för det stokastiska matchningsproblemet med hjälp av icke-adaptiva algoritmer. Ur teknisk synvinkel är en viktig ingrediens i vår algoritm ett strukturellt resultat som visar att en graf vars förväntade maximala matchningsstorlek är opt alltid innehåller en b-matchning av storlek (i huvudsak) b · opt, för b = 1 p. | Mycket nyligen, Assadi et al. I REF föreslogs en icke-adaptiv algoritm som uppnår en approximationsgrad som är strikt bättre än 1/2 i förväntan. | 750,023 | The Stochastic Matching Problem: Beating Half with a Non-Adaptive Algorithm | {'venue': "EC '17", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 5,476 |
Abstrakt. Attributbaserad kryptografi har under de senaste åren framträtt som en lovande primitiv för digital säkerhet. Det ger till exempel bra lösningar på problemet med anonym åtkomstkontroll. I ett attributbaserat krypteringssystem för chiffertextpolicy är användarnas hemliga nycklar beroende av deras attribut. Vid kryptering av ett meddelande väljer avsändaren vilken delmängd av attributen som ska hållas av en mottagare för att kunna dekryptera. Alla nuvarande attributbaserade krypteringssystem som medger rimligen uttrycksfulla dekrypteringspolicyer producerar chiffertexter vars storlek åtminstone linjärt beror på antalet attribut som ingår i policyn. I detta dokument föreslår vi det första systemet vars chiffertexter har konstant storlek. Vårt schema fungerar för tröskelfallet: användare som är behöriga att dekryptera är de som har minst t attribut bland ett visst universum av attribut, för någon tröskel t som valts av avsändaren. En utvidgning till fallet med viktade tröskeldekrypteringspolicyer är möjlig. Säkerheten i systemet mot selektiva valda klartext attacker kan bevisas i standardmodellen genom att minska till den utökade multi-sekvens av exponenter beslut Diffie-Hellman (aMSE-DDH) problem. | Säkerheten i REF är påvisbar mot valda klartextattacker (CPA) i den generiska gruppmodellen. | 8,057,756 | Constant size ciphertexts in threshold attribute-based encryption | {'venue': 'Public Key Cryptography', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,477 |
Ett område där glasögonbaserad augmented reality (AR) framgångsrikt tillämpas i industrin är orderplockning i logistik (pick-byvision). Här är den nästan handsfree-driften och den direkta integrationen i det digitala arbetsflödet som tillhandahålls av augmented reality-glasögon direkta fördelar. En vanlig icke-AR-vägledningsteknik för orderplockning är pickby-ljus. Detta är ett effektivt tillvägagångssätt för enskilda användare och ett lågt antal alternativa mål. AR glasögon har potential att övervinna dessa begränsningar. Det är dock svårt att fatta ett motiverat beslut om den specifika AR-apparaten och den särskilda vägledningstekniken för att välja för ett visst scenario, med tanke på mångfalden av enhetens egenskaper och bristen på erfarenhet av smarta glasögon i industrin i större skala. Papperets bidrag är tvåfaldigt. För det första presenterar vi en virtuell verklighetssimuleringsmetod för markkonstruktionsbeslut för AR-baserade lösningar och tillämpar den på scenariot med orderplockning. För det andra presenterar vi resultat från en simulatorstudie med implementerade simuleringar för monokulära och binokulära huvudmonterade displayer och jämförde befintliga tekniker för uppmärksamhet med vår egen SWave-strategi och integrering av eyetracking. Våra resultat visar tydliga fördelar för användningen av pick-by-vision jämfört med pick-by-light. Dessutom kan vi visa att binokulära AR-lösningar överträffar monokulära lösningar i den uppmärksamhetsriktande uppgiften. | Dessutom kan vi visa att den binokulära AR-lösningen överträffar den monokulära i den uppmärksamhetsgrundande uppgiften REF. | 4,699,525 | [POSTER] Augmented Reality Assistance in the Central Field-of-View Outperforms Peripheral Displays for Order Picking: Results from a Virtual Reality Simulation Study | {'venue': '2017 IEEE International Symposium on Mixed and Augmented Reality (ISMAR-Adjunct)', 'journal': '2017 IEEE International Symposium on Mixed and Augmented Reality (ISMAR-Adjunct)', 'mag_field_of_study': ['Computer Science']} | 5,478 |
Algoritmer för att hitta täta regioner i en inmatningskurva har visat sig vara effektiva verktyg i grafbrytning och dataanalys. Nyligen presenterade Tatti och Gionis [WWW 2015] en ny graf sönderdelning (känd som den lokalt kända nedbrytningen) som liknar den välkända k-kärna sönderdelningen, med den ytterligare egenskapen att dess komponenter är ordnade efter deras densiteter. En sådan nedbrytning ger ett värdefullt verktyg i grafbrytning. Dessvärre är deras algoritm för att beräkna den exakta nedbrytningen baserad på en maximalflödesalgoritm som inte kan skala till massiva grafer, medan den ungefärliga nedbrytningen definieras av samma författare missar flera intressanta egenskaper. Detta kräver skalbara algoritmer för att beräkna en sådan nedbrytning. I vårt arbete utformar vi en effektiv algoritm som kan beräkna exakta lokalt dekompositioner i verkliga grafer som innehåller upp till miljarder kanter. Dessutom ger vi en ny definition av ungefärlig lokalt-dense nedbrytning som behåller de flesta av egenskaperna hos en exakt nedbrytning, för vilken vi utformar en algoritm som kan skala till verkliga grafer som innehåller upp till tiotals miljarder kanter. Vår algoritm är baserad på den klassiska Frank-Wolfe algoritm som liknar lutning nedstigning och kan effektivt implementeras i de flesta av de moderna arkitekturer som handlar om massiva grafer. Vi ger en noggrann studie av våra algoritmer och deras konvergensnivåer. Vi genomför en omfattande experimentell utvärdering av multi-core arkitekturer som visar att våra algoritmer con- † Denna forskning stöddes delvis av Hong Kong RGC gränsen mycket snabbare i praktiken än deras värsta fall analys. Vår algoritm är ännu effektivare för det mer specialiserade problemet med att beräkna en tätaste subgraf. | Danisch m.fl. REF införde en alternativ iterativ teknik för beräkning av lokalt tät nedbrytning som skalar väl i praktiken. | 6,283,589 | Large Scale Density-friendly Graph Decomposition via Convex Programming | {'venue': 'WWW', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,479 |
Vi presenterar en ny abstrakt sammanfattningsram som bygger på den senaste utvecklingen av en trädbank för Abstract Means Representation (AMR). I detta ramverk tolkas källtexten till en uppsättning av AMR-grafer, graferna omvandlas till en sammanfattande graf, och sedan skapas text från den sammanfattande grafen. Vi fokuserar på den graf-tograf transformation som minskar källan semantiska grafen till en sammanfattande graf, som använder en befintlig AMR parser och antar den eventuella tillgängligheten av en AMR-totext generator. Ramverket är datadrivet, upplärbart och inte särskilt utformat för en viss domän. Experiment på guldstandard AMR-anteckningar och systemtolkar visar lovande resultat. Koden finns på: https://github.com/summarization | REF tolkar källtexten till en uppsättning AMR-grafer, omvandlar graferna till sammanfattande grafer och skapar sedan text från den sammanfattande grafen. | 5,001,921 | Toward Abstractive Summarization Using Semantic Representations | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,480 |
Även om attribut har använts i stor utsträckning för personåteridentifiering (Re-ID) som syftar till att matcha samma person bilder över delade kameravyer, används de antingen som extra funktioner eller för att utföra multi-task lärande för att hjälpa bilden matchande uppgift. Men hur man hittar en uppsättning personbilder enligt en given egenskapsbeskrivning, som är mycket praktiskt i många övervakningsapplikationer, är fortfarande ett sällan undersökt korsmodalitetsmatchning problem i person Re-ID. I detta arbete presenterar vi denna utmaning och formulerar denna uppgift som ett gemensamt rymdinlärningsproblem. Genom att införa en attributstyrd uppmärksamhetsmekanism för bilder och en semantisk konsekvent motståndare strategi för attribut, varje modalitet, dvs. bilder och attribut, framgångsrikt lär semantiskt korrelerade begrepp under ledning av den andra. Vi utförde omfattande experiment på tre attribut dataset och visade att den föreslagna gemensamma rymdinlärningsmetoden hittills är den mest effektiva metoden för attribut-image cross-modality person Re-ID problem. | Yin m.fl. REF har utvecklat ett kontradiktoriskt attribut-image re-ID-ramverk för att lära sig semantiskt diskriminerande representation i ett gemensamt utrymme. | 23,457,341 | Adversarial Attribute-Image Person Re-identification | {'venue': 'IJCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,481 |
I kommunikationen mellan föräldrar och barn framkallas känslor av olika typer av inneboende och extrinsiska motiv. Dessa känslor uppmuntrar till handlingar som främjar fler interaktioner. Vi presenterar en motivationsmodell för interaktion mellan spädbarn och vårdgivare, där relation, ett av de viktigaste grundläggande psykologiska behoven, är en variabel som ökar med erfarenheter av att dela känslor. Förutom att vara en viktig faktor för njutning, relationen är en meta-faktor som påverkar andra faktorer såsom stress och emotionell spegling. Den föreslagna modellen implementeras i en artificiell agent utrustad med ett system för att känna igen gester och ansiktsuttryck. Den babyliknande agenten interagerar framgångsrikt med en verklig människa och reagerar negativt när vårdgivaren plötsligt upphör med ansiktsuttryck, liknande det "fortfarande ansikte paradigm" som visades av spädbarn i psykologiska experiment. I simuleringsexperimentet visar två agenter, som var och en styrs av den föreslagna motivationsmodellen, relationsberoende emotionell kommunikation som efterliknar verklig mänsklig kommunikation. | Ogino och kolleger REF ) föreslår en motiverande modell för tidig föräldra-infant kommunikation. | 16,786,646 | A motivation model for interaction between parent and child based on the need for relatedness | {'venue': 'Front. Psychol.', 'journal': None, 'mag_field_of_study': ['Psychology', 'Medicine']} | 5,482 |
Vi studerar problemet med att beräkna en konjunktiv fråga q parallellt, med hjälp av p servrar, på en stor databas. Vi överväger algoritmer med en omgång kommunikation, och studera komplexiteten i kommunikationen. Vi är särskilt intresserade av det fall där datan är skev, vilket är en stor utmaning för skalbar parallell frågebehandling. Vi etablerar ett tätt samband mellan den fraktionerade kanten packning av frågan och mängden kommunikation i två fall. För det första, när den enda statistiken över databasen är kardinaliteterna i indatarelationerna, och datan är skev-fri, tillhandahåller vi matchande övre och nedre gränser (upp till en polylogaritmisk faktor av p) uttryckta i bråkiga kanter förpackningar av frågan q. För det andra, i fallet när relationerna är skeva och de tunga hitters och deras frekvenser är kända, vi ger övre och nedre gränser uttryckta i form av packningar av kvarvarande frågor som erhålls genom att specialisera frågan till en tung hitter. Alla våra nedre gränser uttrycks i den starkaste formen, eftersom antalet bitar som behövs för att kommuniceras mellan processorer med obegränsad beräkningskraft. Våra resultat generaliserar tidigare resultat på enhetliga databaser (där varje relation är en matchning) [4], och lägre gränser för MapReduce modellen [1]. | Beame, Koutris och Suciu REF visade sig vara en matchande övre och nedre gräns för den mängd kommunikation som behövs för att beräkna en fullständig konjunktiv fråga utan självkontakter i en kommunikationsrunda. | 13,952,785 | Skew in parallel query processing | {'venue': "PODS '14", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,483 |
Abstract-This paper utvecklar en omfattande analytisk ram med fundament i stokastisk geometri för att karakterisera prestandan av kluster-centrerad innehåll placering i ett cache-aktiverad enhet-till-enhet (D2D) nätverk. Olika från enhetscentrerad innehållsplacering, cluster-centrerad placering fokuserar på att placera innehåll i varje kluster så att den kollektiva prestandan för alla enheter i varje kluster är optimerad. Modellering av enheternas placeringar med hjälp av en Poisson-klusterprocess definierar och analyserar vi prestandan för tre allmänna fall: (i) k-Tx-fall: mottagare av intresse väljs på ett slumpmässigt sätt i ett kluster och dess innehåll av intresse är tillgängligt på k th närmaste enhet till klustercentret, (ii) -Rx-fall: mottagare av intresse är den th närmaste enheten till klustercentret och dess innehåll av intresse är tillgänglig på en enhet som väljs enhetligt slumpmässigt från samma kluster, och (iii) baslinjefall: mottagaren av intresse väljs jämnt slumpmässigt i ett kluster och dess innehåll av intresse är tillgängligt på en enhet som väljs självständigt och enhetligt slumpmässigt från samma kluster. Enkelt att använda uttryck för de viktigaste prestandamåtten, såsom täckningsannolikhet och areaspektral effektivitet (ASE) för hela nätverket, härleds för alla tre fall. Vår analys visar konkret en betydande förbättring av nätverksprestandan när enheten på vilken innehållet är cachad eller enheten som begär innehåll från cache är partisk för att ligga närmare klustercentret jämfört med baslinjefallet. Baserat på denna insikt utvecklar och analyserar vi en ny generativ modell för klustercentriska D2D-nätverk som gör det möjligt att studera effekten av intra-cluster störande enheter som är mer benägna att ligga närmare klustercentret. Index Terms-D2D caching, kluster-centrerad innehåll placering, kluster D2D nätverk, Thomas kluster process, stokastisk geometri. | M. Afshang m.fl. modellerade platserna för enheter med hjälp av Poisson klusterprocessen och införde en kluster-centrerad metod för innehåll placering för att förbättra den kollektiva prestandan för alla enheter i ett kluster REF. | 2,550,514 | Fundamentals of Cluster-Centric Content Placement in Cache-Enabled Device-to-Device Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 5,484 |
Nya resultat visar att de generiska deskriptorer som extraheras från de konvolutionella neurala nätverken är mycket kraftfulla. Detta dokument ger ytterligare bevis för att så verkligen är fallet. Vi rapporterar om en serie experiment som genomförts för olika igenkänningsuppgifter med hjälp av den allmänt tillgängliga koden och modellen för OverFeat-nätverket som utbildades för att utföra objektklassificering på ILSVRC13. Vi använder funktioner som extraherats från OverFeat-nätverket som en generisk bildrepresentation för att ta itu med de olika igenkänningsuppgifterna för objektets bildklassificering, scenigenkänning, finkornig igenkänning, attributdetektering och bildhämtning som tillämpas på en mängd olika datauppsättningar. Vi valde dessa uppgifter och dataset eftersom de gradvis rör sig längre bort från den ursprungliga uppgiften och data som OverFeat nätverket utbildades för att lösa. Förvånansvärt nog rapporterar vi konsekventa överlägsna resultat jämfört med de högstämda toppmoderna systemen i alla visuella klassificeringsuppgifter på olika datauppsättningar. Till exempel hämtning det konsekvent överträffar låga minnesavtryck metoder utom för skulpturer dataset. Resultaten uppnås med hjälp av en linjär SVM-klassificering (eller L2-avstånd vid hämtning) som appliceras på en funktionsrepresentation av storlek 4096 som extraheras från ett lager i nätet. Representationerna ändras ytterligare med hjälp av enkla förstärkningsmetoder, t.ex. Skämtande. Resultaten tyder starkt på att egenskaper som erhålls från djupinlärning med konvolutionsnät bör vara den primära kandidaten i de flesta visuella igenkänningsuppgifter. | Funktioner som extraheras från overfeat-nätverket används som en generisk bildrepresentation för att ta itu med flera objektigenkänningsuppgifter, såsom bildklassificering, scenigenkänning, finkornig igenkänning, tilldelad detektering och bildhämtning REF. | 6,383,532 | CNN Features Off-the-Shelf: An Astounding Baseline for Recognition | {'venue': '2014 IEEE Conference on Computer Vision and Pattern Recognition Workshops', 'journal': '2014 IEEE Conference on Computer Vision and Pattern Recognition Workshops', 'mag_field_of_study': ['Computer Science']} | 5,485 |
Abstrakt. Datalagringssystem integrerar information från operativa datakällor i ett centralt arkiv för att möjliggöra analys och gruvdrift av den integrerade informationen. Under integrationsprocessen genomgår källdata vanligtvis en rad omvandlingar, som kan variera från enkla algebraiska operationer eller aggregeringar till komplexa "datarensningsförfaranden". I en lagermiljö är problemet med dataradering att spåra lagerdata tillbaka till de ursprungliga källposter från vilka de härleddes. Vi definierar formellt problemet med linjespårning i närvaro av allmänna datalageromvandlingar, och vi presenterar algoritmer för linjespårning i denna miljö. Våra spårningsförfaranden drar nytta av kända strukturer eller egenskaper hos transformationer när de är närvarande, men fungerar också i avsaknad av sådan information. Våra resultat kan användas som grund för ett linjespårningsverktyg i en allmän lagermiljö, och kan även styra utformningen av datalager som möjliggör effektiv linjespårning. | Ett exempel på verksamhetens härkomst innefattar spårning i datalagringssystem REF. | 1,317,273 | Lineage tracing for general data warehouse transformations | {'venue': 'The VLDB Journal', 'journal': 'The VLDB Journal', 'mag_field_of_study': ['Computer Science']} | 5,486 |
I detta dokument presenterar vi en metod för att lära sig en discriminativ klassificering från omärkta eller delvis märkta data. Vårt tillvägagångssätt bygger på en objektiv funktion som avlöser ömsesidig information mellan observerade exempel och deras förutsagda kategoriska klassfördelning, mot klassifikationens robusthet mot en kontradiktorisk generativ modell. Den resulterande algoritmen kan antingen tolkas som en naturlig generalisering av de generativa kontrariska nätverken (GAN) ramar eller som en utvidgning av den regulariserade informationsmaximization (RIM) ramar till robust klassificering mot en optimal motståndare. Vi utvärderar empiriskt vår metod - som vi dub kategoriserar generativa kontrariska nätverk (eller CatGAN) - på syntetiska data samt på utmanande bildklassificeringsuppgifter, som visar robustheten hos de lärda klassificeringarna. Vi utvärderar ytterligare den trohet av prover som genereras av den kontrarimala generatorn som lärs ut vid sidan av den diskriminativa klassificeringen, och identifierar kopplingar mellan Catgan-målet och discriminativa klusteralgoritmer (t.ex. RIM). | Categorical Generative Adversarial Networks (Catgans) REF kan lära sig i båda regimerna. | 6,230,637 | Unsupervised and Semi-supervised Learning with Categorical Generative Adversarial Networks | {'venue': 'ICLR 2016', 'journal': 'arXiv: Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 5,487 |
Vi presenterar ett nytt tillvägagångssätt för att upptäcka relationer och deras momentiationer från en samling dokument på ett och samma område. Vårt tillvägagångssätt lär sig relationstyper genom att utnyttja meta-constraints som kännetecknar de allmänna egenskaperna hos en god relation inom alla områden. Dessa begränsningar anger att fall av ett enda samband bör uppvisa regularitet på flera nivåer av språklig struktur, inklusive lexikografi, syntax och sammanhang på dokumentnivå. Vi fångar dessa regularities via strukturen av vår probabilistiska modell samt en uppsättning av deklarativt specificerade begränsningar som påtvingas under bakre inferens. På två områden återvinner vår strategi framgångsrikt dold relationsstruktur, jämförbar med eller bättre än tidigare state-of-the-art-strategier. Dessutom anser vi att en liten uppsättning begränsningar är tillämpliga på alla områden, och att användning av domänspecifika begränsningar ytterligare kan förbättra prestandan. | I REF föreslås ett tillvägagångssätt som lär sig relationstyper genom att använda deklarativa begränsningar. | 1,860,878 | In-domain Relation Discovery with Meta-constraints via Posterior Regularization | {'venue': 'Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,488 |
Denna artikel beskriver vår öppen källkod programvara för att förutsäga avsikten med en användare fysiskt interagera med humanoid robot iCub. Vårt mål är att göra det möjligt för roboten att dra slutsatsen om den mänskliga partnerns avsikt under samarbetet, genom att förutsäga den framtida avsedda banan: denna förmåga är avgörande för att utforma förutseende beteenden som är avgörande i människa-robot samarbetsscenarier, såsom i samhantering, kooperativ montering, eller transport. Vi föreslår en strategi för att förse iCub med grundläggande förmåga till avsiktligt erkännande, baserad på Probabilistic Movement Primitives (ProMPs), en mångsidig metod för att representera, generalisera och reproducera komplexa motoriska färdigheter. Roboten lär sig en uppsättning rörelser primitiva från flera demonstrationer, som tillhandahålls av människan via fysisk interaktion. Under utbildningen modellerar vi samarbetsscenariot med hjälp av mänskliga demonstrationer. Under reproduktionen av samarbetsuppgiften använder vi den förvärvade kunskapen för att känna igen den mänskliga partnerns avsikt. Med hjälp av några tidiga observationer av robotens tillstånd kan vi inte bara sluta oss till partnerns avsikt utan också slutföra rörelsen, även om användaren bryter den fysiska interaktionen med roboten. Vi utvärderar vår strategi i simulering och på den verkliga iCub. I simuleringen drivs iCub av användaren med hjälp av Geomagic Touch haptic-enheten. I det riktiga robotexperimentet interagerar vi direkt med iCub genom att ta tag i och styra robotens arm manuellt. Vi inser två experiment på den riktiga roboten: ett med enkla att nå banor, och ett inspirerat av gemensam objektsortering. Programvaran som implementerar vår strategi är öppen källkod och tillgänglig på GitHub-plattformen. Dessutom tillhandahåller vi handledningar och videor. | För state of the art om rörelse primitiva och slutsatser under pHRI, hänvisar vi till REF. | 3,621,997 | Prediction of Intention during Interaction with iCub with Probabilistic Movement Primitives | {'venue': 'Front. Robot. AI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,489 |
Applikationer av bärbara och implanterade trådlösa sensorenheter är hett forskningsområde. Ett specialiserat fält som kallas body area nätverk (BAN) har dykt upp för att stödja detta område. Att hantera och kontrollera ett sådant nätverk är en utmanande uppgift. Ett effektivt protokoll för medieaccesskontroll (MAC) för att hantera korrekt hantering av medieaccess kan avsevärt förbättra ett sådant näts prestanda. Strömförbrukning och fördröjning är stora problem för MAC-protokoll i en BAN. Lågkostnadsuppvakningsradiomodul som är ansluten till sensorenheter kan bidra till att minska strömförbrukningen och förlänga nätverkets livslängd genom att minska strömförbrukningen i tomgångstillstånd och öka sömntiden för en BAN-nod. I denna artikel, föreslår vi ett nytt MAC-protokoll för BAN använder utanför bandet (på begäran) väcka radio genom en centraliserad och samordnad extern väckarmekanism. Vi har jämfört vår metod mot några befintliga MAC-protokoll. Vår metod anses vara effektiv när det gäller strömförbrukning och fördröjning. | I REF använder författarna en lågkostnadsuppvakningsradiomodul för att förlänga nätverkets livslängd. | 7,329,636 | A power efficient MAC protocol for wireless body area networks | {'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']} | 5,490 |
Många maskininlärning problem gäller Monte Carlo gradient estimatorer. Som ett framträdande exempel fokuserar vi på Monte Carlo variantal inference ( ) i detta dokument. Prestandan av avgörande beror på variansen av dess stokastiska gradienter. Vi föreslår variansminskning med hjälp av Quasi-Monte Carlo ( ) provtagning. ersätter N i.i.d. prov från en enhetlig sannolikhetsfördelning genom en deterministisk sekvens av prover av längd N. Denna sekvens täcker den underliggande slumpmässiga variabelt utrymme mer jämnt än i.i.d. ritar, minska variansen av lutningen estimator. Med vårt nya tillvägagångssätt leder både poängfunktion och reparameteriseringsgradientskattningar till mycket snabbare konvergens. Vi föreslår också en ny algoritm för Monte Carlo-mål, där vi arbetar med konstant inlärningshastighet och ökar antalet prov per iteration. Vi bevisar att detta sätt, vår algoritm kan konvergera asymptotiskt i en snabbare takt än. Vi ger dessutom teoretiska garantier för Monte Carlo mål som går längre än, och stöder våra resultat genom flera experiment på storskaliga datamängder från olika domäner. | QMC Variational Inference: Buchholz et al. I REF föreslås användning av QMC för att minska variansen av gradientskattningarna av Monte Carlo Variational Inference. | 49,317,028 | Quasi-Monte Carlo Variational Inference | {'venue': 'Published in the proceedings of the 35th International Conference on Machine Learning (ICML 2018)', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 5,491 |
Interact hosting centers betjänar flera service webbplatser från en gemensam hårdvarubas. I detta dokument presenteras utformningen och genomförandet av en arkitektur för resurshantering i ett hostingcenters operativsystem, med tonvikt på energi som en drivande resurshanteringsfråga för stora serverkluster. Målet är att tillhandahålla serverresurser för samvärdiga tjänster på ett sätt som automatiskt anpassar sig till erbjuden belastning, förbättrar energieffektiviteten hos serverdammare genom att dynamiskt ändra den aktiva serveruppsättningen och reagera på avbrott i strömförsörjningen eller termiska händelser genom att försämra servicen i enlighet med förhandlade servicenivåavtal. Vårt system bygger på en ekonomisk strategi för att hantera delade serverresurser, där tjänster "bid" för resurser som en funktion av levererad prestanda. Systemet övervakar kontinuerligt belastning och planerar resurstilldelningar genom att uppskatta värdet av deras effekter på tjänstens prestanda. En girig resursfördelningsalgoritm justerar resurspriserna för att balansera utbud och efterfrågan, och allokerar resurser till deras mest effektiva användning. En omkonfigurerbar server som byter infrastruktur styr begäran om trafik till servrarna som tilldelas varje tjänst. Experimentella resultat från en prototyp bekräftar att systemet anpassar sig till erbjuden belastning och resurstillgänglighet, och kan minska serverens energianvändning med 29% eller mer för en typisk webbbelastning. | I REF, Chase et. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. presentera policyer för resursfördelning i ett hostingcenter tillsammans med en byta infrastruktur för routing förfrågningar till servrar. | 8,089,507 | Managing energy and server resources in hosting centers | {'venue': "SOSP '01", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,492 |
De flesta rekommendationssystem står inför utmaningar från produkter som förändras med tiden, såsom populära eller säsongsbetonade produkter, eftersom traditionell marknadskorganalys eller samverkande filtreringsanalys inte kan rekommendera nya produkter till kunder på grund av att produkterna ännu inte köps av kunder. Även om rekommendationssystemen kan hitta kundgrupper som har liknande intressen som målkunder, saknar helt nya produkter ofta betyg och kommentarer. På liknande sätt har produkter som köps mindre ofta, till exempel möbler och hushållsapparater, färre betyg, och därför är risken för att bli rekommenderad ofta lägre. Denna forskning försöker analysera kundernas köpbeteenden baserat på produktfunktioner från transaktionsregister och produktfunktionsdatabaser. Kundernas preferenser till särskilda egenskaper hos produkter analyseras och sedan dras regler för kundprofiler för att rekommendera kunder produkter som har potential att locka med kunder. Fördelen med denna forskning är dess förmåga att rekommendera kunder helt nya produkter eller sällan köpta produkter så länge de passar kundens intresseprofiler; ett avdrag som traditionella marknadskorg analys och samarbetsfiltrering metoder inte kan göra. Denna forskning använder en två-stegs klusterteknik för att hitta kunder som har liknande intressen som målkunder och rekommenderar produkter för att passa kundernas potentiella krav. Kundernas intresseprofiler kan förklara rekommendationsresultat och intressena för produkternas särskilda egenskaper kan refereras till produktutveckling, medan en en-till-en marknadsföringsstrategi kan förbättra lönsamheten för företag. q ska tillämpas från och med den 1 januari 2016 till och med den 31 december 2018. | Dessutom analyserade Weng och Liu REF kundernas inköp enligt produktfunktioner och lyckades därmed rekommendera produkter som är mer benägna att passa kundernas preferenser. | 26,403,611 | Feature-based recommendations for one-to-one marketing | {'venue': 'Expert Systems with Applications', 'journal': 'Expert Systems with Applications', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 5,493 |
Hur användarna betygsätter en mobilapp via stjärnbetyg och användarrecensioner är av yttersta vikt för att en app ska lyckas. Nya studier och undersökningar visar att användarna är starkt beroende av stjärnbetyg och användarrecensioner som tillhandahålls av andra användare, för att avgöra vilken app att ladda ner. Förstå stjärnbetyg och användarrecensioner är dock en komplicerad fråga, eftersom de påverkas av många faktorer såsom den faktiska kvaliteten på appen och hur användaren uppfattar sådan kvalitet i förhållande till deras förväntningar, som i sin tur påverkas av deras tidigare erfarenheter och förväntningar i förhållande till andra appar på plattformen (t.ex., iOS kontra Android). Trots detta ger stjärnbetyg och användarrecensioner utvecklare värdefull information för att förbättra programvarans kvalitet på deras app. I ett försök att öka sina intäkter och nå fler användare bygger apputvecklare vanligtvis plattformsoberoende appar, dvs. appar som är tillgängliga på flera plattformar. Eftersom stjärnbetyg och användarrecensioner är av sådan betydelse i mobilappbranschen är det viktigt för utvecklare av plattformsoberoende appar att upprätthålla en konsekvent nivå av stjärnbetyg och användarrecensioner för sina appar över de olika plattformar på vilka de är tillgängliga. I detta dokument undersöker vi om plattformsoberoende appar uppnår en konsekvent nivå av stjärnbetyg och användarrecensioner. Vi identifierar manuellt 19 plattformsoberoende appar och genomför en empirisk studie av deras stjärnbetyg och användarrecensioner. Genom att manuellt märka 9,902 1 & 2-stjärniga recensioner av de studerade plattformsoberoende appar, upptäcker vi att fördelningen av frekvensen av klagomål typer varierar mellan plattformar. Slutligen studerar vi den negativa påverkan förhållandet mellan klagomål typer och finner att för vissa appar, användare har högre förväntningar på en plattform. Alla våra föreslagna tekniker och våra metoder är generiska och kan användas för alla appar. Våra resultat visar att minst 68 % av de studerade plattformsoberoende apparna inte har konsekventa stjärnbetyg, vilket tyder på att olika kvalitetssäkringsinsatser måste beaktas av Abstract Hur användare värderar en mobilapp via stjärnbetyg och användarrecensioner är av yttersta vikt för att en app ska lyckas. Nya studier och undersökningar visar att användarna är starkt beroende av stjärnbetyg och användarrecensioner som tillhandahålls av andra användare, för att avgöra vilken app att ladda ner. Förstå stjärnbetyg och användarrecensioner är dock en komplicerad fråga, eftersom de påverkas av många faktorer såsom den faktiska kvaliteten på appen och hur användaren uppfattar sådan kvalitet i förhållande till deras förväntningar, som i sin tur påverkas av deras tidigare erfarenheter och förväntningar i förhållande till andra appar på plattformen (t.ex., iOS kontra Android). Trots detta ger stjärnbetyg och användarrecensioner utvecklare värdefull information för att förbättra programvarans kvalitet på deras app. I ett försök att öka sina intäkter och nå fler användare bygger apputvecklare vanligtvis plattformsoberoende appar, dvs. appar som är tillgängliga på flera plattformar. Eftersom stjärnbetyg och användarrecensioner är av sådan betydelse i mobilappbranschen är det viktigt för utvecklare av plattformsoberoende appar att upprätthålla en konsekvent nivå av stjärnbetyg och användarrecensioner för sina appar över de olika plattformar på vilka de är tillgängliga. I detta dokument undersöker vi om plattformsoberoende appar uppnår en konsekvent nivå av stjärnbetyg och användarrecensioner. Vi identifierar manuellt 19 plattformsoberoende appar och genomför en empirisk studie av deras stjärnbetyg och användarrecensioner. Genom att manuellt märka 9,902 1 & 2-stjärniga recensioner av de studerade plattformsoberoende appar, upptäcker vi att fördelningen av frekvensen av klagomål typer varierar mellan plattformar. Slutligen studerar vi den negativa påverkan förhållandet mellan klagomål typer och finner att för vissa appar, användare har högre förväntningar på en plattform. Alla våra föreslagna tekniker och våra metoder är generiska och kan användas för alla appar. Våra resultat visar att minst 68 % av de studerade plattformsoberoende apparna inte har konsekventa stjärnbetyg, vilket tyder på att olika kvalitetssäkringsinsatser måste övervägas av utvecklare för de olika plattformar som de vill stödja. | Hanyang Hu m.fl. REF undersökte om plattformsoberoende mobilappar (appar som finns på olika plattformar) är konsekventa stjärnbetyg och klagomål över lågklassade (1-stjärniga och 2-stjärniga) användarrecensioner. | 45,566,376 | Studying the consistency of star ratings and the complaints in 1 & 2-star user reviews for top free cross-platform Android and iOS apps | {'venue': 'PeerJ PrePrints', 'journal': 'PeerJ PrePrints', 'mag_field_of_study': ['Computer Science']} | 5,494 |
De Sherman-Morrison-Woodbury formler relaterar inversen av en matris efter en smallrank perturbation till inversen av den ursprungliga matrisen. Historien om dessa fomulor presenteras och olika tillämpningar för statistik, nätverk, strukturanalys, asymptotisk analys, optimering och partiella differentialekvationer diskuteras. Sherman-Morrison-Woodbury formler uttrycker inversen av en matris efter en liten rank perturbation i termer av inversen av den ursprungliga matrisen. Detta dokument kartlägger historien om dessa formler och vi undersöker vissa tillämpningar där dessa formler är till hjälp. | En diskussion om tillämpningar av Sherman-Morrisons och Woodburys formler presenteras i REF. | 7,967,459 | Updating the Inverse of a Matrix | {'venue': 'SIAM Review', 'journal': 'SIAM Review', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 5,495 |
Abstract- Visionen för RoboEarth-projektet är att designa ett kunskapsbaserat system för att tillhandahålla webb- och molntjänster som kan omvandla en enkel robot till en intelligent. I detta arbete beskriver vi RoboEarths semantiska kartsystem. Den semantiska kartan består av: 1) en ontologi för att koda begrepp och relationer i kartor och objekt och 2) en SLAM karta som ger scenen geometri och objekt platser med avseende på roboten. Vi föreslår att man jordar den terminologiska kunskapen i robotuppfattningarna med hjälp av SLAM-kartan över objekt. RoboEarth ökar kartläggningen genom att tillhandahålla: 1) en underdatabas av objektmodeller som är relevanta för den aktuella uppgiften, som erhålls genom semantiskt resonemang, vilket förbättrar igenkännandet genom att minska beräkningen och den falska positiva hastigheten; 2) delning av semantiska kartor mellan robotar; och 3) programvara som en tjänst för att externalisera i molnet de mer intensiva kartläggningsberäkningarna, samtidigt som den uppfyller robotens obligatoriska hårda realtidsbegränsningar. För att demonstrera RoboEarths molnkartläggningssystem undersöker vi två actionrecept som förkroppsligar semantisk kartbyggnad i en enkel mobil robot. Det första receptet möjliggör semantisk kartbyggnad för en ny miljö samtidigt som man utnyttjar tillgänglig förhandsinformation om miljön. Det andra receptet söker efter ett nytt objekt, med effektiviteten förstärkt tack vare resonemanget på en semantiskt kommenterad karta. Våra experimentella resultat visar att genom att använda RoboEarth molntjänster kan en enkel robot på ett tillförlitligt och effektivt sätt bygga de semantiska kartor som behövs för att utföra dess quotidian uppgifter. Dessutom visar vi det synergiska förhållandet mellan SLAM-kartan över objekt som grundar sig på terminologisk kunskap kodad i ontologin. Note to Practitioners-RoboEarth är en molnbaserad kunskapsbas för robotar som omvandlar en enkel robot till en intelligent tack vare de webbtjänster som tillhandahålls. Eftersom kartläggning är ett obligatoriskt element i de flesta robotsystem fokuserar vi på | Riazuelo m.fl. REF beskriver istället RoboEarth cloud semantic mapping system, som består av en ontologi, för kodning begrepp och relationer, och en SLAM karta för att representera scenen geometri och objekt platser. | 8,957,353 | RoboEarth Semantic Mapping: A Cloud Enabled Knowledge-Based Approach | {'venue': 'IEEE Transactions on Automation Science and Engineering', 'journal': 'IEEE Transactions on Automation Science and Engineering', 'mag_field_of_study': ['Computer Science']} | 5,496 |
Vi presenterar en end-to-end utbildningsbara djupa konvolutionella neurala nätverk (DCNN) för semantisk segmentering med inbyggd medvetenhet om semantiskt meningsfulla gränser. Semantisk segmentering är en grundläggande fjärranalysuppgift, och de flesta state-of-the-art metoder förlitar sig på DCNNs som deras arbetshäst. En viktig orsak till att de lyckas är att de djupa nätverken lär sig att samla in kontextuell information över mycket stora fönster (receptiva fält). Denna framgång kommer dock till en kostnad, eftersom den tillhörande förlusten av effektiv rumslig upplösning tvättar bort högfrekvensdetaljer och leder till suddiga objektgränser. Här föreslår vi att motverka denna effekt genom att kombinera semantisk segmentering med semantiskt informerad kantdetektering, vilket gör klassgränser explicita i modellen, För det första konstruerar vi en jämförelsevis enkel, minneseffektiv modell genom att lägga till gränsdetektering till segnet encoder-dekoder arkitektur. För det andra inkluderar vi även gränsdetektering i modeller av fcn-typ och sätter upp en high-end klassifier ensemble. Vi visar att gränsdetektering avsevärt förbättrar semantisk segmentering med CNN. Vår high-end ensemble achieves > 90% total noggrannhet på ISPRS Vaihingen bechmark. | En alternativ strategi för att bättre behålla gränser mellan objekt i klassificeringsresultaten är att ta hänsyn till semantiskt meningsfulla gränser, t.ex. genom att inkludera en explicit objektgränsdetektor i SegNet encoder-dekoder arkitektur eller i FCN-typ modeller REF. | 5,692,184 | Classification With an Edge: Improving Semantic Image Segmentation with Boundary Detection | {'venue': 'ISPRS Journal of Photogrammetry and Remote Sensing, Volume 135, January 2018, Pages 158-172, ISSN 0924-2716, https://doi.org/10.1016/j.isprsjprs.2017.11.009', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 5,497 |
Abstract-World-omfattande datacenter förbrukar cirka 300 miljarder kWh energi per år, vilket står för 2 % av den totala elanvändningen. Som MapReduce blir det vanliga paradigmet för dataintensiva datorer i datacenter, optimera MapReduce energieffektivitet kan kraftigt minska energibehov och minska energiräkningar. Många studier har försökt förbättra MapReduce energieffektivitet, men få har tagit itu med detta problem från att förstå och minska energieffekterna av datarörelser. Eftersom datarörelser ofta är prestanda- och energiflaskhalsar föreslår vi ett datarörelsecentriskt tillvägagångssätt och presenterar ett analysramverk med metoder och mätvärden för att utvärdera dyra inbyggda kartorMinska datarörelser. Vår experimentella undersökning utnyttjar det finkorniga ramverket för prestanda- och effektprofilering eTune och avslöjar unika energiegenskaper på systemnivå och komponentnivå för datarörelser. Den visar också skalbarheten av energieffektivitet med karta Minska arbetsbelastning och systemparametrar. Dessa energiegenskaper kan utnyttjas vid systemutformning och resursallokering för att förbättra dataintensiv energieffektivitet hos datorer. Index Terms-KartaReduce, Data Movement, Energy-Efficient Computing Kraft och energiförbrukning är bland de viktigaste frågorna i datacenter design och drift. Dagens datacenter förbrukar vanligtvis flera megawatt ström. I hela världen är den totala energiförbrukningen i datacenter cirka 300 miljarder kWh per år, vilket motsvarar 2 % av den totala elförbrukningen [10]. Denna massiva efterfrågan på kraft/energi begränsar inte bara datacentrens överkomlighet och hållbarhet, utan ger också upphov till stora miljöproblem och politiska reaktioner. Att förbättra energieffektiviteten hos datacentertillämpningar kan effektivt ta itu med detta problem, men kräver att vi först förstår kraften och energiegenskaperna hos datacenterarbetsbelastningen för guidad design. I detta dokument fokuserar vi på energieffektivitet i MapReduce-baserade dataintensiva arbetsbelastningar. Särskilt studerar vi kraften, energin och energieffektiviteten i datarörelser i MapReduce [4] applikationer. Detta fokus beror på tre rea söner. För det första förbrukar datarörelser en betydande del av systemenergin i datacenter genom att låta datorservrar vänta på data eller flytta data [1]. För det andra, MapRe-978-1-4799-0623-9/13/$31.00 © 2013 IEEE duce har blivit en stor dator paradigm i datacenter för behandling av storskaliga datamängder, tack vare sin automatiska parallellbehandling och ultra hög skalbarhet. För det tredje, på grund av den tekniska revolutionen i datainsamling och lagring, har datacenter upplevt en fördubbling av datavolymen vartannat år [5]. Effektiv lagring och behandling av massiva data är inte bara ett grundläggande krav utan också en praktisk utmaning för de flesta datacenter. Forskare har försökt flera metoder för att förbättra energieffektiviteten i MapReduce datarörelser. Dessa meth ods inkluderar: minska volymen av data i rörelse med datakompression [3], öka datarörelsehastighet med hjälp av höghastighetsanslutningar [16], [17], tillämpa dynamisk spänning och frekvensskalning (DVFS) för att minska CPU-effektförbrukningen under datarörelser [18], och dela upp datalagring i flera zoner baserat på dataåtkomstmönster för att underlätta olika effekthanteringar Medan de flesta av dessa metoder kan förbättra den totala energieffektiviteten i MapReduce arbetsbelastningar, de ger inte detaljer om effekt och energikrav för inbyggda MapReduce datarörelser. Som visas av effektprofilen för en MapReduce-applikation i figur 1, systemeffekt förändras avsevärt med MapReduce utförandefaser och datarörelser; varje MapReduce datarörelse medför tydlig strömförbrukning. Systemhårdvara och programvarudesign måste känna igen sådana skillnader och använda lämpliga strategier för att uppnå optimal energieffektivitet för varje datarörelse. I detta arbete studerar vi kraft- och energiegenskaper hos datarörelser med hjälp av förstahandsdata som samlats in på en fysisk Hadoop MapReduce compute cluster. Vi beskriver ett analysramverk för att utvärdera energieffektiviteten i MapReduce datarörelser, och karakteriserar kraften och energin i tre huvudtyper av MapReduce datarörelser: HDFS (Hadoop File System) läsa, HDFS skriva, och data shuffle. Dessutom diskuterar vi olika faktorer som påverkar datarörelsernas energieffektivitet. Resten av detta dokument är organiserat enligt följande. Vi presenterar analysramen i avsnitt II. Vi analyserar de totala energiprofilerna för typiska datarörelser i Avsnitt III | De studerade också energiegenskaper i MapReduce datarörelser och föreslog en energieffektiv modell som normalt presenterades som ett förhållande mellan total systemenergi och datastorlek REF. | 6,073,900 | Power and energy characteristics of MapReduce data movements | {'venue': '2013 International Green Computing Conference Proceedings', 'journal': '2013 International Green Computing Conference Proceedings', 'mag_field_of_study': ['Computer Science']} | 5,498 |
ABSTRACT Peak-load management är en viktig process som gör det möjligt för energileverantörer att omforma belastningsprofiler, öka energieffektiviteten och minska de totala driftskostnaderna och koldioxidutsläppen. I detta dokument presenteras en förbättrad beslutsbaserad algoritm för att minska toppbelastningen i distributionsnät för bostäder genom samordnad styrning av elfordon, solcellsenheter (PV) och batterienergilagringssystem (BESS). Minskningen av toppbelastningen uppnås genom att avläsa den inhemska belastningen i realtid genom en smart mätare och vidta lämpliga samordnade åtgärder av en styrenhet med hjälp av den föreslagna algoritmen. Den föreslagna styralgoritmen testades på ett verkligt distributionsnät med hjälp av verkliga belastningsmönster och belastningsdynamik, och validerades i ett laboratorieexperiment. Två typer av EV med snabb och flexibel laddningskapacitet, en PV-enhet och BESS användes för att testa prestandan hos den föreslagna styralgoritmen, som jämförs med prestandan hos en artificiell-neural-nätverksteknik. Resultaten visar att med den föreslagna metoden kan toppefterfrågan på distributionsnätet minskas avsevärt, vilket i hög grad förbättrar belastningsfaktorn. INDEX TERMS Elfordon, energihantering, EV-hantering, hantering av toppbelastning, topprakning. NOMENKLATUR Tillgänglig energi från EV för att raka toppen Elpriset från topptid C T p Elpriset under hög timme SOC max laddningstillstånd (SOC) för EV SOC 2 SOC-nivån när EV kan starta fordon-tillrid (V2G) SOC EV SOC för EV vid en viss tidpunkt Laddningshastigheten i V2G (0 ≤ U (t) ≤ P av i ) V (t) Urladdningshastigheten i V2G P i Tillgänglig effekt från en PV-enhet S pv Kapacitet hos den installerade solcellsmodulen V Bt | Författarna i REF presenterar en algoritm för minskning av toppbelastningen med samordnad respons med hjälp av ellagringssystem (ESS), fotovoltaik (PV) och elfordon. | 49,271,224 | Peak-Load Reduction by Coordinated Response of Photovoltaics, Battery Storage, and Electric Vehicles | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 5,499 |
De state-of-the-art metoder som används för relationsklassificering är främst baserade på statistisk maskininlärning, och deras prestanda beror starkt på kvaliteten på de extraherade egenskaperna. De extraherade funktionerna härrör ofta från produktionen av befintliga system för bearbetning av naturligt språk (NLP), vilket leder till att felen i de befintliga verktygen sprids och hindrar dessa systems prestanda. I detta papper, vi utnyttjar en convolutional djup neurala nätverk (DNN) för att extrahera lexical och mening nivå funktioner. Vår metod tar alla ord tokens som indata utan komplicerad förbearbetning. Först, ordet polletter omvandlas till vektorer genom att titta upp ord inbäddningar 1. Sedan, lexical nivå funktioner extraheras enligt de givna substantiv. Under tiden lär man sig funktioner på straffnivå med hjälp av en konvolutionell metod. Dessa två nivåer funktioner är concatenated att bilda den slutliga extraherade funktionen vektor. Slutligen matas funktionerna in i en softmax klassificering för att förutsäga förhållandet mellan två markerade substantiv. De experimentella resultaten visar att vårt tillvägagångssätt avsevärt överträffar de senaste metoderna. | REF ) utnyttjade en convolutional djup neurala nätverk för att extrahera lexical och mening nivå funktioner. | 12,873,739 | Relation Classification via Convolutional Deep Neural Network | {'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,500 |
Vi härleder två varianter av en halvövervakad modell för finkornig känsloanalys. Båda modellerna utnyttjar ett överflöd av naturlig övervakning i form av granskningsbetyg, liksom en liten mängd manuellt utformade meningsetiketter, för att lära sig meningsklassificeringar. Den föreslagna modellen är en sammanslagning av en helt övervakad strukturerad villkorad modell och dess delvis övervakade motpart. Detta möjliggör mycket effektiv uppskattning och slutsatser algoritmer med rika funktionsdefinitioner. Vi beskriver de två varianterna samt deras komponentmodeller och verifierar experimentellt att båda varianterna ger betydligt bättre resultat för sensationsanalys jämfört med alla utgångar. | I REF kombineras helt och delvis strukturerade villkorade modeller för en gemensam klassificering av hela granskningarnas polaritet och översynsmeningar. | 8,706,134 | Semi-supervised latent variable models for sentence-level sentiment analysis | {'venue': 'Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,501 |
Abstract-Recently, application-layer overlay nätverk har föreslagits som en lovande lösning för live video streaming över Internet. För att organisera en multicast overlay är en naturlig struktur ett träd, som dock är känd sårbar för slut-hosts dynamik. Datadrivna metoder tar itu med detta problem genom att använda en meshstruktur, som möjliggör datautbyte mellan flera grannar, och därmed avsevärt förbättrar överlagringens motståndskraft. Tyvärr lider av en effektivitetsfördröjning kompromiss, eftersom data måste dras från mesh grannar genom att använda extra meddelanden regelbundet. I detta dokument undersöker vi noggrant bidragen från överliggande noder, och hävdar att prestandan hos en maska överlagra noga beror på en liten uppsättning stabila ryggrad noder. Detta är validerat genom en verklig spårstudie på PPLive, den största kommersiella applikationsskikt live streaming system hittills. Motiverade av denna observation, föreslår vi sedan en ny samverkande träd-mesh design som utnyttjar både mesh och trädstrukturer. Den viktigaste idén är att identifiera en uppsättning stabila noder för att konstruera en trädbaserad ryggrad, kallad trädben, med de flesta av de data som trycks över denna ryggrad. Dessa stabila noder, tillsammans med andra, är ytterligare organiserade genom en extra mesh overlay, vilket underlättar trädbenet för att rymma noddynamik och fullt utnyttja den tillgängliga bandbredden mellan overlay noder. Denna hybriddesign, kallad mTreebone, medför en rad unika och kritiska designutmaningar. I synnerhet identifiering av stabila noder och sömlös data leverans med både push och pull metoder. I detta dokument presenterar vi optimerade lösningar på dessa problem, som förenar de två överläggen inom en sammanhängande ram med kontrollerade overheads. Vi utvärderar mTreebone genom både simuleringar och PlanetLab experiment. Resultaten visar den överlägsna effektiviteten och robustheten hos denna hybridlösning i både statiska och dynamiska scenarier. | MTreebone REF bygger initialt en mesh overlay och trädet är organiserat med stabila kamrater. | 16,812,269 | mTreebone: A Collaborative Tree-Mesh Overlay Network for Multicast Video Streaming | {'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']} | 5,502 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.