src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Abstract-I detta papper, studerar vi den framträdande objektdetektion problem för bilder. Vi formulerar detta problem som en binär märkning uppgift där vi separerar det framträdande objektet från bakgrunden. Vi föreslår en uppsättning nya funktioner, inklusive multiscale kontrast, centersurround histogram, och färg spatial distribution, för att beskriva ett framträdande objekt lokalt, regionalt och globalt. Ett villkorligt slumpmässigt fält lär sig att effektivt kombinera dessa funktioner för framträdande objektdetektion. Vidare utvidgar vi det föreslagna tillvägagångssättet för att upptäcka ett framträdande objekt från sekventiella bilder genom att införa dynamiska framträdande egenskaper. Vi samlade in en stor bilddatabas med tiotusentals noggrant märkta bilder av flera användare och en videosegmentdatabas, och genomförde en uppsättning experiment över dem för att visa effektiviteten i det föreslagna tillvägagångssättet.
I REF föreslås en metod för skattning av binär saliency genom att man utbildar en CRF för att kombinera en uppsättning lokala, regionala och globala funktioner.
14,833,979
Learning to Detect a Salient Object
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
79,994
Nya framsteg i Deep Neural Networks (DNN) har lett till utvecklingen av DNN-drivna autonoma bilar som, med hjälp av sensorer som kamera, LiDAR, etc., kan köra utan någon mänsklig inblandning. De flesta stora tillverkare, inklusive Tesla, GM, Ford, BMW, och Waymo / Google arbetar på att bygga och testa olika typer av autonoma fordon. Lagstiftarna i flera amerikanska stater, inklusive Kalifornien, Texas och New York, har antagit ny lagstiftning för att påskynda processen att testa och distribuera autonoma fordon på sina vägar. Men trots deras spektakulära framsteg, DNNs, precis som traditionell programvara, visar ofta felaktiga eller oväntade hörn-fall beteenden som kan leda till potentiellt dödliga kollisioner. Flera sådana verkliga olyckor med autonoma bilar har redan inträffat, bland annat en olycka som ledde till döden. De flesta befintliga provningsmetoder för DNN-drivna fordon är starkt beroende av manuell insamling av provningsdata under olika körförhållanden som blir oöverkomligt dyra allteftersom antalet provningsförhållanden ökar. I detta dokument designar, implementerar och utvärderar vi DeepTest, ett systematiskt testverktyg för att automatiskt upptäcka felaktiga beteenden hos DNN-drivna fordon som kan leda till dödsolyckor. För det första är vårt verktyg utformat för att automatiskt generera testfall som utnyttjar verkliga förändringar i körförhållanden som regn, dimma, ljusförhållanden, etc. DeepTest utforskar systematiskt olika delar av DNN-logiken genom att generera testingångar som maximerar antalet aktiverade neuroner. DeepTest hittade tusentals felaktiga beteenden under olika realistiska körförhållanden (t.ex., suddig, regn, dimma, etc.) Många av dem leder till potentiellt dödliga krascher i tre topputförande DNN i självkörande Udacity bil utmaning. • Programvara och dess konstruktion → Test och felsökning av programvara; • Säkerhet och integritet → Program- och applikationssäkerhet; • Datametoder → Neurala nätverk;
Tian m.fl. implementera DeepTest för att automatiskt generera testfall genom bildomvandlingar och upptäcka felaktiga beteenden hos DL-baserade självkörande bilar REF.
4,055,261
DeepTest: automated testing of deep-neural-network-driven autonomous cars
{'venue': "ICSE '18", 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,995
Abstract-We studerar ett mobilt trådlöst nätverk där grupper eller kluster av noder är intermittenta via mobila "bärare" (bärarna ger konnektivitet över tid bland olika kluster av noder). Över sådana nätverk (en omedelbar av en fördröjning tolerant nätverk), är det välkänt att traditionella routing algoritmer presterar mycket dåligt. I detta dokument föreslår vi en två-nivå Back-Pressure med Source-Routing algoritm (BP+SR) för sådana nätverk. Den föreslagna BP+SR-algoritmen separerar routing och schemaläggning inom kluster (snabbtidsskala) från den kommunikation som sker mellan kluster (låg tidsskala), utan förlust i nätverksgenomströmning (dvs. BP+SR är genomputoptimal). Ännu viktigare, för en källa och destination nod som ligger i olika kluster, den traditionella back-pressure algoritmen resulterar i stora kölängder vid varje nod längs dess väg. Detta beror på att ködynamiken drivs av den långsammaste tidsskalan (dvs. bärarnoder) längs vägen mellan källan och destinationen, vilket resulterar i mycket stora end-to-end förseningar. Å andra sidan visar vi att två-nivå BP+SR algoritmen upprätthåller stora köer endast vid ett fåtal noder, och därmed resulterar i ordningsmässigt mindre end-to-end förseningar. Vi tillhandahåller analys- och simuleringsresultat för att bekräfta våra påståenden.
Dessutom föreslår REF en två-nivå Back-Pressure med Source-Routing algoritm (BP+SR), som minskade antalet köer som krävs vid varje nod och minskade storleken på köerna, vilket minskar den end-to-end fördröjningen.
12,555,272
Back-Pressure Routing for Intermittently Connected Networks
{'venue': '2010 Proceedings IEEE INFOCOM', 'journal': '2010 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
79,996
Vi presenterar en tolkning av Inceptionsmoduler i konvolutionella neurala nätverk som ett mellanliggande steg mellan regelbunden konvolution och den djupvis åtskilda konvolutionsoperationen (en djupkonvolution följd av en punktvis konvolution). I detta ljus kan en djupvis åtskiljbar konvolution förstås som en Inception-modul med ett maximalt stort antal torn. Denna observation leder oss att föreslå en ny djup konvolutionell neural nätverk arkitektur inspirerad av Inception, där Inception moduler har ersatts med djupvis separerbara konvolutioner. Vi visar att denna arkitektur, dubbad Xception, något överträffar Inception V3 på ImageNet dataset (som Inception V3 utformades för), och betydligt överträffar Inception V3 på en större bildklassificering dataset som omfattar 350 miljoner bilder och 17.000 klasser. Eftersom Xception-arkitekturen har samma antal parametrar som Inception V3 beror prestandavinsterna inte på ökad kapacitet utan snarare på en effektivare användning av modellparametrar.
Dessa modeller använder djupavskiljbara konvolutioner REF för att minska antalet parametrar och operationer i varje skikt.
2,375,110
Xception: Deep Learning with Depthwise Separable Convolutions
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
79,997
Återupptäcka korrekta eller åtminstone realistiska färger av undervattensscener är en mycket utmanande fråga för avbildning tekniker, eftersom belysningsförhållandena i ett refraktivt och grumligt medium som havet ändras allvarligt. Behovet av att korrigera färger av undervattensbilder eller videor är en viktig uppgift som krävs i alla bildbaserade applikationer som 3D-avbildning, navigering, dokumentation, etc. Många avbildning förbättringsmetoder har föreslagits i litteratur för dessa ändamål. Fördelen med dessa metoder är att de inte kräver kunskap om de medelstora fysiska parametrar medan vissa bildjusteringar kan utföras manuellt (som histogram stretching) eller automatiskt av algoritmer baserade på vissa kriterier som föreslås från beräkningsfärg beständiga metoder. Ett av de mest populära kriteriet är baserat på grå-världen hypotes, som antar att genomsnittet av den fångade bilden bör vara grå. En intressant tillämpning av detta antagande utförs i Ruderman motståndarens färgrymd lαβ, som används i ett tidigare arbete för färgkorrigering av bilder fångade under färgade ljuskällor, som gör det möjligt att separera luminanskomponenten i scenen från dess kromatiska komponenter. I detta arbete presenterar vi det första förslaget till färgkorrigering av undervattensbilder genom att använda färgrymden lαβ. I synnerhet, de kromatiska komponenterna ändras flytta sina fördelningar runt den vita punkten (vit balansering) och histogram cutoff och stretching av luminans komponenten utförs för att förbättra bildkontrast. De experimentella resultaten visar effektiviteten av denna metod under grå-världen antagande och antar enhetlig belysning av scenen. På grund av den låga beräkningskostnaden är den dessutom lämplig för genomförandet i realtid.
Bianco m.fl. föreslog en ny färgkorrigering metod för undervattens avbildning, som visade effektiviteten av färgkorrigering i Lαβ färgrymd REF.
15,251,220
A NEW COLOR CORRECTION METHOD FOR UNDERWATER IMAGING
{'venue': None, 'journal': 'ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences', 'mag_field_of_study': ['Geography']}
79,998
Trafikdelningstjänster förändrar rörligheten i städerna genom att tillhandahålla snabba och bekväma transporter till vem som helst, var som helst, när som helst. Dessa tjänster har en enorm potential för positiva samhällseffekter när det gäller föroreningar, energiförbrukning, trafikstockningar osv. Befintliga matematiska modeller tar dock inte helt itu med möjligheterna att dela turer. Nyligen belyste en storskalig studie några av fördelarna med bilpoolning, men var begränsad till statiska rutter med två ryttare per fordon (optimalt) eller tre (med heuristik). Vi presenterar en mer allmän matematisk modell för delning av hög kapacitet i realtid som (1) skalar till ett stort antal passagerare och resor, och (2) dynamiskt genererar optimala rutter med avseende på efterfrågan på nätet och fordonsplatser. Algoritmen utgår från ett girigt uppdrag och förbättrar det genom en begränsad optimering, snabbt returnerar lösningar av god kvalitet och konvergerar till det optimala uppdraget över tid. För första gången kvantifierar vi experimentellt avvägningen mellan flottans storlek, kapacitet, väntetid, försening av resor och driftskostnader för fordon med låg till medelhög kapacitet, såsom taxibilar och skåpbilar. Algoritmen är validerad med cirka 3 miljoner rider extraherade från New Yorks taxicab offentliga dataset. Vår experimentella studie handlar om kördelning med ryttare kapacitet på upp till tio samtidiga passagerare per fordon. Algoritmen gäller för fordonsflottor med autonoma fordon och omfattar även ombalansering av tomgångsfordon till områden med hög efterfrågan. Denna ram är allmän och kan användas för många problem med flera fordon i realtid, flera arbetsuppgifter.
Dessa resultat bekräftades av Ref, som införde en algoritm för realtids begäran matchning och fordon routing i låg- och hög kapacitet fordon.
2,440,903
On-demand high-capacity ride-sharing via dynamic trip-vehicle assignment
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
79,999
Vi anser att det är det optimala problemet med paketplanering i ett trådlöst kommunikationssystem för en användares energiupptagning. I detta system modelleras både datapaketen och den skördade energin för att komma fram till källnoden slumpmässigt. Vårt mål är att anpassa överföringshastigheten efter trafikbelastning och tillgänglig energi, så att den tid då alla paket levereras minimeras. Under en deterministisk systeminställning utgår vi från att energiupptagningstiderna och de avverkade energimängderna är kända innan överföringen påbörjas. För datatrafiken som anländer överväger vi två olika scenarier. I det första scenariot antar vi att alla bitar har anlänt och är redo vid sändaren innan överföringen startar. I det andra scenariot överväger vi fallet där paket anländer under sändningarna, med kända ankomsttider och storlekar. Vi utvecklar optimala offline schemaläggningspolicyer som minimerar den tid genom vilken alla paket levereras till destinationen, under kausalitetsbegränsningar för både data och energi ankomster.
Om man antar att både data och skördade energipaket slumpmässigt kommer fram till databufferten respektive batteriet utvecklade författarna i REF optimala policyer för schemaläggning offline för att adaptivt ändra överföringshastigheter under en deterministisk systeminställning.
10,984,780
Optimal Packet Scheduling in an Energy Harvesting Communication System
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,000
Abstrakt. Twitter-nätverket är för närvarande överväldigad av stora mängder tweets som genereras av dess användare. För att effektivt organisera och söka tweets, användare måste vara beroende av lämpliga hashtaggar infogas i tweets. Vi börjar vår forskning om hashtaggar genom att först analysera en Twitter-datauppsättning som genererats av mer än 150 000 Singapore-användare under en tremånadersperiod. Bland flera intressanta fynd om hashtag användning av denna användargrupp, har vi hittat en konsekvent och betydande användning av nya hashtaggar på en daglig basis. Detta tyder på att de flesta hashtaggar har mycket kort livslängd. Vi föreslår vidare en ny hashtag rekommendationsmetod baserad på samarbetsfiltrering och metoden rekommenderar hashtaggar som finns i föregående månads data. Vår metod anser att både användarpreferenser och tweetinnehåll vid val av hashtaggar rekommenderas. Våra experiment visar att vår metod ger bättre prestanda än rekommendationer baserade enbart på tweetinnehåll, även genom att beakta hashtaggar som antagits av ett litet antal (1 till 3) användare som delar liknande användarpreferenser.
Kywe och al. REF-forskning om hashtaggar genom analys av en Twitter-datauppsättning med mer än 150 000 användare.
18,378,679
On recommending hashtags in twitter networks
{'venue': 'SocInfo', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,001
Abstract-En smart kontrakt är svårt att lappa för buggar när den är utplacerad, oavsett de pengar som den innehar. Ett fel orsakade förluster till ett värde av omkring 50 miljoner cryptocurrency. Vi presenterar ZEUS-ett ramverk för att verifiera att smarta kontrakt är korrekta och validerar att de är rättvisa. Vi anser att korrekthet är att följa säkra programmeringsmetoder, medan rättvisa är att följa överenskomna affärslogik på högre nivå. ZEUS utnyttjar både abstrakt tolkning och symbolisk modellkontroll, tillsammans med befogenheten att begränsa hornklausuler för att snabbt kontrollera kontrakt för säkerhet. Vi har byggt en prototyp av ZEUS för Ethereum och Fabric blockchain plattformar, och utvärderat den med över 22.4K smarta kontrakt. Vår utvärdering visar att omkring 94,6 % av kontrakten (som innehåller kryptovaluta värd mer än 0,5 miljarder dollar) är sårbara. ZEUS är ljud med noll falska negativa och har en låg falsk positiv frekvens, med en storleksordning förbättring i analystid jämfört med tidigare konst.
ZEUS REF utför en sund abstrakt tolkning för att verifiera riktigheten av kontrakt med avseende på flera felmönster.
3,481,056
ZEUS: Analyzing Safety of Smart Contracts
{'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,002
Detta dokument är inriktat på problemet med att sätta igenkänning, som lär sig metriska mellan två bilduppsättningar. Bilder i varje uppsättning tillhör samma identitet. Eftersom bilder i ett set kan komplettera varandra, leder de förhoppningsvis till högre noggrannhet i praktiska tillämpningar. Kvaliteten på varje prov kan dock inte garanteras, och prover med dålig kvalitet kommer att skada metriska. I detta dokument föreslås det kvalitetsmedvetna nätverket (QAN) för att ta itu med detta problem, där kvaliteten på varje prov automatiskt kan läras, även om sådan information inte uttryckligen ges i utbildningsskedet. Nätverket har två grenar, där den första grenen extrakt utseende funktionen inbäddning för varje prov och den andra grenen förutspår kvalitet poäng för varje prov. Funktioner och kvalitet poäng av alla prover i en uppsättning sedan aggregeras för att generera den slutliga funktionen inbäddning. Vi visar att de två grenarna kan tränas på ett end-to-end sätt med endast set-level identitets annotation. Analys av gradientspridningen av denna mekanism visar att den kvalitet som nätverket lärt sig är fördelaktig för att ställa in igenkännandet och förenklar den distribution som nätverket behöver för att passa. Experiment på både ansiktskontroll och personidentifiering visar fördelar med den föreslagna QAN. Källkoden och nätverksstrukturen kan laddas ner på GitHub 1
Quality Aware Network (QAN) REF lär sig begreppet kvalitet för varje prov i en uppsättning med hjälp av en kvalitetsgenereringsenhet och funktionsgenerering del för set-to-set-igenkänning, som lär sig metriska mellan två bilduppsättningar.
505,577
Quality Aware Network for Set to Set Recognition
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,003
Det senaste arbetet har visat att neurala nätverk är sårbara för kontradiktoriska exempel, d.v.s. ingångar som är nästan oskiljaktiga från naturliga data och ändå felaktigt klassificerade av nätverket. Några av de senaste rönen tyder i själva verket på att förekomsten av kontradiktoriska attacker kan vara en inneboende svaghet hos modeller för djupt lärande. För att ta itu med detta problem, studerar vi den kontrariska robustheten i neurala nätverk genom linsen för robust optimering. Detta tillvägagångssätt ger oss en bred och enande syn på en stor del av det tidigare arbetet med denna fråga. Dess principiella natur gör det också möjligt för oss att identifiera metoder för både träning och angrepp på neurala nätverk som är tillförlitliga och, i viss mening, universella. I synnerhet anges en konkret säkerhetsgaranti som skulle skydda mot alla motståndare. Dessa metoder låter oss träna nätverk med avsevärt förbättrad motståndskraft mot ett brett spektrum av kontradiktoriska attacker. De föreslår också begreppet säkerhet mot en första ordningens motståndare som en naturlig och bred säkerhetsgaranti. Vi anser att robusthet mot sådana väldefinierade klasser av motståndare är en viktig språngbräda mot fullt motståndskraftiga modeller för djupt lärande. * Författare beställer alfabetiskt.
Madry m.fl. REF använder robust optimering mot djupinlärningsmodeller som är resistenta mot kontradiktoriska attacker.
3,488,815
Towards Deep Learning Models Resistant to Adversarial Attacks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,004
I detta dokument presenterar vi en integrerad bild av översättning och inträdeskontroll relationer för MPEG videoströmmar mellan en multimedia distribuerade program som video-on-demand, och dess underliggande systemresurs, CPU. Båda tjänsterna presenteras som kärntjänster i vår kommunikationsmodell Quality of Service (QoS). Denna kommunikationsmodell analyseras för olika MPEG gruppering system och kommunikations paradigm. Inom ramen för dessa system och paradigmer visar vi på konsekvenserna för översättnings- och införselkontroll för deterministiska QoS-specifikationer som måste beaktas i alla MPEG-baserade multimediasystem.
Kim och Nahrstedt REF presenterade en integrerad bild av förhållandet mellan översättning och inträdeskontroll för MPEG-videoströmmar mellan ett multimedia distribuerat program som video-on-demand, och dess underliggande systemresurs, CPU.
18,585,005
QoS Translation and Admission Control for MPEG Video
{'venue': "5th International Workshop on Quality of Service (IWQoS'97", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,005
Oöverträffad domänad adaptiv objektdetektering syftar till att lära sig en robust detektor i situationen för domänskifte, där utbildningsdomänen (källa) är etikettrik med avgränsande boxanmärkningar, medan testdomänen (mål) är etikett-agnostisk och funktionsfördelningen mellan utbildnings- och testdomäner är olika eller till och med helt annorlunda. I detta dokument föreslår vi en gradient avtagbar staplad kompletterande förluster (SCL) metod som använder detektionsförluster som det primära målet, och nedskärningar i flera extra förluster i olika nätverksstadier som medföljer gradient avtagarutbildning för att lära sig mer diskriminerande representationer. Vi hävdar att de tidigare metoderna [3, 11] främst utnyttjar fler förlustfunktioner för utbildning men bortser från interaktionen mellan olika förluster och även den kompatibla utbildningsstrategin (gradient detach update in our work). Därför är vår föreslagna metod en mer synkretisk anpassningsinlärningsprocess. Vi utför omfattande experiment på sju datauppsättningar, resultaten visar att vår metod presterar gynnsamt bättre än de senaste metoderna med en betydande marginal. Till exempel, från Cityscapes till FoggyCityscapes, uppnår vi 37,9 % mAP, överträffar den tidigare konsten Strong-Wak [25] med 3,6 %.
Shen m.fl. REF föreslår en gradient detach baserad staplade kompletterande förluster metod som anpassar källdomän och måldomän på flera lager.
207,853,328
SCL: Towards Accurate Domain Adaptive Object Detection via Gradient Detach Based Stacked Complementary Losses
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,006
Abstract-This paper ger en omfattande översikt över befintlig forskning inom området programvara refaktoring. Denna forskning jämförs och diskuteras utifrån ett antal olika kriterier: de refaktoring aktiviteter som stöds, de specifika tekniker och formalismer som används för att stödja dessa aktiviteter, de typer av programvaruartefakter som refaktoriseras, de viktiga frågor som måste beaktas när man bygger refaktoring verktygsstöd, och effekten av refaktoring på programvaruprocessen. Ett löpande exempel används i hela tidningen för att förklara och illustrera huvudbegreppen.
Mens and Tourwé REF jämförde och diskuterade olika kriterier för refaktorverksamhet, specifika tekniker och formalism som kan användas för att minska programvarukomplexiteten med hjälp av omstrukturering.
206,778,272
A survey of software refactoring
{'venue': 'IEEE Transactions on Software Engineering', 'journal': 'IEEE Transactions on Software Engineering', 'mag_field_of_study': ['Computer Science']}
80,007
Den artifierade och komplicerade karaktären hos mänskliga handlingar gör uppgiften att erkänna handlingar svår. Ett sätt att hantera denna komplexitet är att dela upp den i kroppsdelarnas kinetik och analysera de åtgärder som baseras på dessa partiella deskriptorer. Vi föreslår en gemensam sparsam regressionsbaserad inlärningsmetod som använder den strukturerade sparheten för att modellera varje åtgärd som en kombination av multimodala egenskaper från en gles uppsättning kroppsdelar. För att representera dynamik och utseende av delar använder vi en heterogen uppsättning djup och skelettbaserade funktioner. Den korrekta strukturen av multimodala multidelade funktioner formuleras i inlärningsramen via den föreslagna hierarkiska blandade normen, för att legalisera de strukturerade funktionerna i varje del och tillämpa gleshet mellan dem, till förmån för ett urval av gruppfunktioner. Våra experimentella resultat avslöjar effektiviteten hos den föreslagna inlärningsmetoden där den överträffar andra metoder i alla tre testade datauppsättningar samtidigt mätta en av dem genom att uppnå perfekt noggrannhet.
Nyligen, Shahroudy et al. REF föreslog hierarkiska blandade normer för att sammansmälta olika funktioner och välja de mest informativa kroppslederna.
2,303,734
Multimodal Multipart Learning for Action Recognition in Depth Videos
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
80,008
En back-förökning (BP) neurala nätverk kan lösa komplicerade slumpmässiga icke-linjära kartläggningsproblem; därför kan det tillämpas på ett brett spektrum av problem. Men när provstorleken ökar, den tid som krävs för att träna BP neurala nätverk blir lång. Dessutom minskar klassificeringsnoggrannheten också. För att förbättra klassificeringen noggrannhet och körtid effektivitet BP neurala nätverk algoritm, föreslog vi en parallell design och genomförande metod för en partikel svärm optimering (PSO)-optimerad BP neurala nätverk baserat på MapReduce på Hadoop-plattformen med hjälp av både PSO algoritm och en parallell design. PSO algoritmen användes för att optimera BP neurala nätverkets initiala vikter och trösklar och förbättra noggrannheten av klassificeringsalgoritmen. MapReduce parallellprogrammeringsmodellen användes för att uppnå parallell bearbetning av BP algoritmen, vilket löser problemen med hårdvara och kommunikation overhead när BP neurala nätverket adresserar big data. Datauppsättningar på 5 olika skalor konstruerades med hjälp av scenbildsbiblioteket från SUN-databasen. Klassificeringsnoggrannheten för den parallella PSO-BP neurala nätverksalgoritmen är cirka 92%, och systemets effektivitet är ungefär 0,85, vilket ger uppenbara fördelar vid bearbetning av stordata. Den algoritm som föreslås i denna studie visade både högre klassificeringsnoggrannhet och förbättrad tidseffektivitet, vilket innebär en betydande förbättring som uppnås genom att tillämpa parallellbehandling till en intelligent algoritm på big data.
Cao m.fl. utformad en parallell partikel svärm optimering-(PSO-) optimerad BP neural nätverksalgoritm med MapReduce ram för att förverkliga massiv scen bildklassificering REF.
1,272,814
Big Data: A Parallel Particle Swarm Optimization-Back-Propagation Neural Network Algorithm Based on MapReduce
{'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Computer Science', 'Medicine']}
80,009
Automatisk högtalarverifiering (ASV) system är sårbara för olika typer av spoofing attacker såsom talsyntes, röstomvandling och replay attacker. Den senaste forskningen har belyst behovet av mer effektiva motåtgärder för replay attacker, som kan vara mycket utmanande att upptäcka, men replayed tal har tidigare visat frekvensband-specifika skillnader jämfört med äkta tal. I detta dokument föreslår vi att man använder långsiktiga tidsramar för subbandssignaler med hjälp av linjära frekvensdomänprognoser (FDLP). Denna flexibla ram använder sig av tidsuppfattningsinformation, som inte tidigare har undersökts för replay-spoofing-detektering. Utvärderingar av det föreslagna systemet och dess fusion med andra delsystem genomfördes i databasen ASVspoof 2017. Intressant nog, smidigare temporal kuvert, baserat på mycket långa fönster på upp till 1 sekund, verkar vara mest framgångsrika och visa goda utsikter till prestandaförbättringar via fusion.
Långsiktiga temporalkuvert som också extraherats från subbandssignaler med hjälp av frekvensdomän Linjär förutsägelse (FDLP) för funktionsextraktion och GMM och CNN som används för klassificering presenterades i REF.
52,187,257
Frequency Domain Linear Prediction Features for Replay Spoofing Attack Detection
{'venue': 'INTERSPEECH', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,010
Tvådimensionellitetsteorin verkar vara en kraftfull ram i utvecklingen av metaalgoritmiska tekniker. Det introducerades av Demaine et al. [J. ACM 2005 ] som ett verktyg för att erhålla subexponentiell tid parameteriserade algoritmer för tvådimensionella problem på H-minor fria grafer. Demaine och Hajiaghayi [SODA 2005 ] utökade teorin för att erhålla polynom tid approximation system (PTASs) för tvådimensionella problem. I denna uppsats etablerar vi en tredje metaalgoritmisk riktning för tvådimensionellitetsteori genom att relatera den till existensen av linjära kärnor för parameteriserade problem. I parameteriserad komplexitet kommer varje problematik med en parameter k och det parameteriserade problemet sägs erkänna en linjär kärna om det finns en polynomalgoritm, kallad en kärnalgoritm, som reducerar inmatningsinstansen till en likvärdig instans (kallad kärna) med storlek linjärt avgränsad av k. Vi visar att "i huvudsak" alla tvådimensionella problem inte bara har subexponentiella tidsalgoritmer och PTASs, utan de har också linjära kärnor, jakande svarar på en öppen fråga från [J. ACM 2005 ] där förekomsten av linjära kärnor var konjectered för första gången. I synnerhet bevisar vi att varje mindre (respektive sammandragning) tvådimensionella problem som uppfyller separation egenskapen och är av finit heltal index, medger en linjär kärna för klasser av grafer som utesluter en fast graf (respektive en apex graf H) H som en mindre. Nyligen, Bodlaender m.fl. [FOCS 2009 ] lade grunden för att erhålla meta-algoritmiska resultat för kärnorisering och visade att olika problem som tillfredsställer vissa logiska och kompakta egenskaper har polynom, även linjära kärnor på grafer av avgränsat släkte. Med hjälp av tvådimensionellitet kan vi utöka dessa resultat till mindre fria och apex-minorfria grafer. Våra resultat innebär att en mängd tvådimensionella problem, som inkluderar DOMINERING SET, FEEDBACK VERTEX SET, EDGE DOMINERING SET, VERTEX COVER, R-DOMINERING SET, CONNECED DOMINERING SET, CYCLE PACK-
Dessutom, för apex-minor-free grafer, Fomin et al. REF visade att Cycle Packing medger en linjär kärna, och Fomin et al. [17] visade att företaget också erkänner ett EPTAS.
2,332,544
Bidimensionality and kernels
{'venue': "SODA '10", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,011
Abstract-Unit och integration tester kan vara ovärderliga under programvaruunderhåll eftersom de hjälper till att förstå bitar av kod, de hjälper till med kvalitetssäkring och de bygger upp förtroende bland utvecklare. Tyvärr har tidigare forskning visat att enhetstester inte alltid samverkar fint med produktionskoden, vilket gör programvaran sårbar. Detta dokument presenterar TestNForce, ett verktyg som hjälper utvecklare att identifiera de enhetstest som behöver ändras och utföras efter en kodändring, vilket minskar den ansträngning som krävs för att hålla enhetstesterna i synk med ändringarna av produktionskoden. För att utvärdera TestNForce utför vi en användarstudie som utvärderar TestNForces lämplighet, användbarhet och fullständighet.
De implementerade en plugin för Visual Studio, som hjälper utvecklare att identifiera enheten tester som behöver ändras och utföras efter en kodändring REF.
951,517
Aiding Software Developers to Maintain Developer Tests
{'venue': '2012 16th European Conference on Software Maintenance and Reengineering', 'journal': '2012 16th European Conference on Software Maintenance and Reengineering', 'mag_field_of_study': ['Computer Science', 'Engineering']}
80,012
Att upptäcka små föremål är notoriskt utmanande på grund av deras låga upplösning och bullriga representation. Befintliga objekt detektion pipelines ofta upptäcka små objekt genom att lära representationer av alla objekt på flera skalor. Prestandavinsten för sådana ad hoc-arkitekturer är dock vanligtvis begränsad till att betala av beräkningskostnaden. I detta arbete tar vi itu med problemet med att upptäcka små objekt genom att utveckla en enda arkitektur som internt lyfter representationer av små objekt till "super-upplösta", uppnå liknande egenskaper som stora objekt och därmed mer diskriminerande för detektion. För detta ändamål föreslår vi en ny Perceptual Generative Adversarial Network (Perceptual GAN) modell som förbättrar små objekt upptäckt genom att begränsa representation skillnad av små objekt från de stora. Specifikt, dess generator lär sig att överföra upplevda dåliga representationer av de små objekten till super-upplösta som liknar riktigt stora objekt för att lura en konkurrerande discriminator. Samtidigt dess discriminator konkurrerar med generatorn för att identifiera den genererade representationen och inför ett ytterligare perceptuellt krav - genererade representationer av små objekt måste vara fördelaktigt för detektionsändamål - på generatorn. Omfattande utvärderingar av de utmanande Tsinghua-Tencent 100K [45] och Caltech [9]-riktmärket visar tydligt hur överlägset Perceptual GAN är när det gäller att upptäcka små föremål, inklusive trafikskyltar och fotgängare, över väletablerade state-of-the-arts.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF föreslog att generativa kontradiktoriska nätverk skulle användas för att upptäcka småskaliga objekt och uppnå goda resultat.
6,704,804
Perceptual Generative Adversarial Networks for Small Object Detection
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,013
Abstract-minskande användning av jordbrukskemikalier är en viktig del i ett hållbart jordbruk. Robotar som kan utföra riktad ogräsbekämpning erbjuder potential att bidra till detta mål, till exempel genom specialiserade ogräsrensning åtgärder såsom selektiv sprutning eller mekanisk ogräsborttagning. En förutsättning för sådana system är ett tillförlitligt och robust system för klassificering av växter som kan skilja mellan gröda och ogräs på fältet. En stor utmaning i detta sammanhang är att olika områden uppvisar stor variation. Klassificeringssystemen måste därför på ett robust sätt klara av betydande miljöförändringar med avseende på ogrästryck och ogrästyper, odlingsstadier, utseende och markförhållanden. I detta dokument föreslår vi ett nytt klassificeringssystem för ogräs som bygger på ett fullständigt konvolutionellt nätverk med en kodare-dekoder struktur och införlivar rumslig information genom att överväga bildsekvenser. Genom att utnyttja den information om odlingsarrangemanget som är observerbar från bildsekvenserna kan vårt system på ett robust sätt uppskatta en pixelvis märkning av bilderna till gröda och ogräs, dvs.. En semantisk segmentering. Vi ger en grundlig experimentell utvärdering, som visar att vårt system generaliserar väl till tidigare osynliga fält under varierande miljöförhållanden-en nyckel förmåga att faktiskt använda sådana system i precisionsram. Vi ger jämförelser med andra state-of-the-art metoder och visar att vårt system avsevärt förbättrar noggrannheten i grödan ogräs klassificering utan att kräva en omskolning av modellen.
En annan metod presenteras i Reference Ref, författarna använder en helt CNN med tanke på bildsekvenser av sockerbetor fält för gröda och ogräs detektion.
47,019,353
Fully Convolutional Networks with Sequential Information for Robust Crop and Weed Detection in Precision Farming
{'venue': 'IEEE Robotics and Automation Letters', 'journal': 'IEEE Robotics and Automation Letters', 'mag_field_of_study': ['Computer Science']}
80,014
Abstract-I detta dokument går vi bortom att erkänna individers handlingar och fokusera på gruppaktiviteter. Detta motiveras av observationen att mänskliga handlingar sällan utförs isolerat; den kontextuella informationen om vad andra människor på scenen gör ger en användbar signal för att förstå aktiviteter på hög nivå. Vi föreslår en ny ram för erkännande av gruppaktiviteter som gemensamt fångar upp gruppaktiviteten, den enskilda personens handlingar och samspelet mellan dem. Två typer av kontextuell information, grupp-person interaktion och person-person interaktion, utforskas i en latent variabel ram. I synnerhet föreslår vi tre olika tillvägagångssätt för att modellera interaktionen mellan person och person. Ett tillvägagångssätt är att utforska strukturerna för person-person interaktion. Olika från de flesta av de tidigare latenta strukturerade modellerna, som antar en fördefinierad struktur för det dolda lagret, t.ex. en trädstruktur, behandlar vi strukturen av det dolda lagret som en latent variabel och implicit härleder det under inlärning och slutledning. Det andra tillvägagångssättet utforskar person-person interaktion i funktionen nivå. Vi inför en ny funktionsrepresentation som kallas handlingsram (AC) deskriptor. AC-deskriptorn kodar information om inte bara åtgärder av en enskild person i videon, men också beteendet hos andra människor i närheten. Det tredje tillvägagångssättet kombinerar de två ovan nämnda. Våra experimentella resultat visar nyttan av att använda kontextuell information för disambiguing gruppaktiviteter.
Lan m.fl. REF föreslår en åtgärdskontext (AC) deskriptor som fångar aktiviteten hos den fokala personen och beteendet hos andra människor i närheten.
66,952
Discriminative Latent Models for Recognizing Contextual Group Activities
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
80,015
Abstract Energy skörd har nyligen dykt upp som ett genomförbart alternativ för att öka drifttiden för sensornätverk. Om varje knutpunkt i nätet drivs av en fluktuerande energikälla måste dock gemensamma energihanteringslösningar ses över. Detta gäller särskilt om en viss ansökans reaktion i realtid måste garanteras. Schemaläggningen av uppgifter vid de enskilda noderna bör ta hänsyn till energikällornas egenskaper, energilagringskapaciteten och tidsfristerna för de enskilda uppgifterna. Vi visar att konventionella schemaläggningsalgoritmer (t.ex. EDF) lämpar sig inte för detta scenario. Baserat på denna motivation har vi konstruerat optimala schemaläggningsalgoritmer som gemensamt hanterar begränsningar från både energi- och tidsdomän. Vidare presenterar vi ett inträdestest som beslutar om godtyckliga uppgiftsuppsättningar, om de kan schemaläggas utan deadlinekränkningar. I detta syfte introducerar vi begreppet energivariabilitet karakterisering kurvor (EVCC) som fint fångar dynamiken i olika energikällor. Simuleringsresultat visar att våra algoritmer tillåter betydande minskningar av batteristorleken jämfört med Earliest Deadline First schemaläggning.
I REF visar författarna att konventionella schemaläggningsalgoritmer inte är lämpliga för scenarier för energiupptagning, och de föreslår ett nytt system som schemalägger uppgifter utifrån deras tidsbegränsningar och tillgängliga energinivåer.
11,907,438
Real-time scheduling for energy harvesting sensor nodes
{'venue': 'Real-Time Systems', 'journal': 'Real-Time Systems', 'mag_field_of_study': ['Computer Science']}
80,016
Abstrakt. I aspektorienterad programmering används punktsnitt för att beskriva tvärgående struktur. Pointcuts som abstrakt över irrelevanta genomförande detaljer är tydligt önskvärt att bättre stödja underhållbarhet och modulära resonemang. Vi lägger fram en analys som visar att de aktuella pointcut-språken stöder lokaliseringen av övergripande problem men är problematiska när det gäller att dölja information. För att klara av problemet presenterar vi ett pointcut-språk som utnyttjar information från olika modeller av programsemantik, såsom exekveringsspåret, syntaxträdet, högen, statiska typsystem, etc., och stöder abstraktionsmekanismer som liknar funktionell abstraktion. Vi visar hur detta höjer abstraktionsnivån och modulariteten hos punktskärningar och presenterar de första stegen mot ett effektivt genomförande med hjälp av en statisk analysteknik.
Ostermann m.fl. REF försöker ta itu med detta problem genom att föreslå en statisk gemensam punktmodell som utnyttjar information från olika modeller av programsemantik.
14,063,162
Expressive pointcuts for increased modularity
{'venue': 'ECOOP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,017
Abstrakt. Mycket ny forskning inom mänsklig aktivitet erkännande har fokuserat på problemet med att känna igen enkla repetitiva (gå, springa, vifta) och punktliga åtgärder (sitta upp, öppna en dörr, krama). Många intressanta mänskliga aktiviteter kännetecknas emellertid av en komplex tidsmässig sammansättning av enkla handlingar. Automatiskt erkännande av sådana komplicerade handlingar kan dra nytta av en god förståelse av de timliga strukturerna. Vi lägger i detta dokument fram en ram för modellering av rörelse genom att utnyttja den timliga strukturen hos den mänskliga verksamheten. Inom vår ram representerar vi aktiviteter som tidsmässiga sammansättningar av rörelsesegment. Vi tränar en diskriminerande modell som kodar en temporal nedbrytning av videosekvenser, och utseendemodeller för varje rörelsesegment. I igenkänning matchas en frågevideo med modellen enligt de inlärda utseendena och rörelsesegmentets nedbrytning. Klassificeringen görs baserat på kvaliteten på matchningen mellan rörelsesegmentklassningarna och temporalsegmenten i frågesekvensen. För att validera vårt tillvägagångssätt introducerar vi en ny datauppsättning av komplexa olympiska sportaktiviteter. Vi visar att vår algoritm presterar bättre än andra toppmoderna metoder.
För klassificering av komplexa åtgärder, Niebles et al. föreslog en latent SVM att differentiera temporal nedbrytning av rörelsesegment REF.
14,779,543
Modeling temporal structure of decomposable motion segments for activity classification
{'venue': 'in Proc. 11th European Conf. Comput. Vision, 2010', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,018
Abstrakt. I en viss scen kan människor ofta lätt förutsäga en uppsättning omedelbara framtida händelser som kan inträffa. Men, generaliserade pixelnivå förväntan i datorseende system är svårt eftersom maskininlärning kämpar med tvetydigheten inneboende i att förutsäga framtiden. I denna uppsats fokuserar vi på att förutsäga den täta banan av pixlar i en scen - vad som kommer att röra sig i scenen, där det kommer att resa, och hur det kommer att deformera under loppet av en sekund. Vi föreslår en villkorlig variantal autoencoder som en lösning på detta problem. I denna ram, direkt slutsats från bilden formar fördelningen av möjliga banor, medan latenta variabler koda all nödvändig information som inte finns i bilden. Vi visar att vår metod framgångsrikt kan förutsäga händelser i en mängd olika scener och kan producera flera olika förutsägelser när framtiden är tvetydig. Vår algoritm är tränad på tusentals olika, realistiska videor och kräver absolut ingen mänsklig märkning. Förutom icke-semantiska åtgärdsförutsägelser finner vi att vår metod lär oss en representation som är tillämplig på semantiska visionsuppgifter.
Dense banor av pixlar förutspås från en enda bild med hjälp av CVAE i REF, medan vi fokuserar på att förutsäga långsiktiga beteenden av flera interagerande medel i dynamiska scener.
876,150
An Uncertain Future: Forecasting from Static Images using Variational Autoencoders
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,019
Att översätta eller rotera en ingångsbild bör inte påverka resultaten av många datorseende uppgifter. Konvolutionella neurala nätverk (CNN) är redan översättning likvariant: indata bildöversättningar producerar proportionella funktion kart översättningar. Detta gäller inte rotationer. Global rotation likformighet eftersträvas vanligtvis genom dataförstoring, men patch-wise likformighet är svårare. Vi presenterar Harmonic Networks eller H-Nets, en CNN som uppvisar motsvarighet till patch-wise översättning och 360-rotation. Vi uppnår detta genom att ersätta vanliga CNN filter med cirkulära övertoner, returnera en maximal respons och orientering för varje mottaglig fält patch. H-Nets använder en rik, parameter-effektiv och fast beräkning komplexitet representation, och vi visar att djupa funktionskartor inom nätverket koda komplicerade rotationsinvarianter. Vi visar att våra lager är tillräckligt generella för att kunna användas tillsammans med de senaste arkitekturerna och teknikerna, såsom djup övervakning och batchnormalisering. Vi uppnår också toppmodern klassificering på roterad MNIST, och konkurrenskraftiga resultat på andra referensutmaningar.
Worrall m.fl. I REF föreslogs harmoniska nätverk, som uppnådde både rotations- och översättningsjämlikhet genom att ersätta planar konvolutionsfilter med cirkulära övertoner.
206,596,746
Harmonic Networks: Deep Translation and Rotation Equivariance
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,020
I detta dokument föreslår vi en återkommande ram för gemensamt oövervakat lärande av djupa representationer och bildkluster. I vårt ramverk, på varandra följande operationer i en kluster algoritm uttrycks som steg i en återkommande process, staplas ovanpå representationer ut av en Convolutional Neural Network (CNN). Under utbildningen uppdateras bildkluster och representationer gemensamt: bildkluster utförs i det framåtgående passet, medan representationsinlärning i det bakåtpasset. Vår centrala idé bakom denna ram är att goda representationer är till nytta för bildkluster och klusterresultat ger övervakningssignaler till representationsinlärning. Genom att integrera två processer i en enda modell med en enhetlig viktad triplet förlust funktion och optimera den endto-end, kan vi få inte bara mer kraftfulla representationer, men också mer exakta bildkluster. Omfattande experiment visar att vår metod överträffar den senaste tekniken på bildkluster över en mängd olika bilddatauppsättningar. Dessutom generaliserar de lärda framställningarna väl när de överförs till andra uppgifter. Källkoden kan laddas ner från https: // github.com/ jwyang/ joint- unövervakad- learning.
Bild Clustering Algorithms Yang et al. I Ref föreslogs att man skulle lära sig djupa representationer och bildkluster gemensamt inom en återkommande ram.
8,105,340
Joint Unsupervised Learning of Deep Representations and Image Clusters
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,021
Nätverken har under senare år framträtt som ett ovärderligt verktyg för att beskriva och kvantifiera komplexa system inom många vetenskapsområden [1, 2, 3]. Nya studier tyder på att nätverk ofta uppvisar hierarkisk organisation, där hörn delar upp sig i grupper som ytterligare delar upp sig i grupper och så vidare över flera skalor. I många fall anses dessa grupper motsvara kända funktionella enheter, såsom ekologiska nischer i matnät, moduler i biokemiska nätverk (proteininteraktionsnätverk, metaboliska nätverk eller genetiska regleringsnät), eller samhällen i sociala nätverk [4, 5, 6, 7]. Här presenterar vi en allmän teknik för att härleda hierarkisk struktur från nätverksdata och visa att förekomsten av hierarki samtidigt kan förklara och kvantitativt reproducera många vanliga observerade topologiska egenskaper hos nätverk, såsom högerstyrda gradfördelningar, höga klusterkoefficienter och korta väglängder. Vi visar vidare att kunskap om hierarkisk struktur kan användas för att förutsäga saknade anslutningar i delvis kända nätverk med hög noggrannhet, och för mer allmänna nätverksstrukturer än konkurrerande tekniker [8]. Sammantaget tyder våra resultat på att hierarkin är en central organisationsprincip för komplexa nätverk, som kan erbjuda insikt i många nätverksfenomen. En stor del av det senaste arbetet har ägnats åt studier av klusterbildning och samhällsstruktur i nätverk [5, 6, 9, 10, 11]. Hierarkisk struktur går dock utöver enkel klusterbildning genom att uttryckligen inkludera organisation på alla skalor i ett nätverk samtidigt. Konventionellt representeras hierarkisk struktur av ett träd eller dendrogram i vilket nära besläktade par hörn har lägst vanliga förfäder som är lägre i trädet än de av mer avlägset besläktade par-se bild. 1................................................................ Vi förväntar oss att sannolikheten för ett samband mellan två hörn beror på deras grad av släktskap. Struktur av denna typ kan modelleras matematiskt med en probabilistisk metod där vi ger varje intern nod r av dendrogram med en sannolikhet p r och sedan ansluta varje par hörn för vilka r är den lägsta gemensamma förfadern oberoende med sannolikhet p r (Fig. 1).................................................................. Denna modell, som vi kallar en hierarkisk slumpmässig graf, liknar i andemening (även om den skiljer sig från verkligheten) de trädbaserade modeller som används i vissa studier av nätverkssökning och navigering [12, 13]. Liksom de flesta arbeten på samhällsstruktur, det * Denna uppsats publicerades som Natur 453, 98 -101 (2008); doi:10.1038/naturen06830. antar att samhällen på varje organisationsnivå är osammanhängande. Överlappande samhällen har ibland studerats (se t.ex. [14] ) och kan representeras med hjälp av en mer genomtänkt probabilistisk modell, men som vi diskuterar nedan fångar den nuvarande modellen redan många av de strukturella särdragen i intresse. Med tanke på ett dendrogram och en uppsättning sannolikheter p r, ger den hierarkiska slumpmässiga grafmodellen oss möjlighet att skapa artificiella nätverk med en specificerad hierarkisk struktur, ett förfarande som kan vara användbart i vissa situationer. Vårt mål här är dock ett annat. Vi skulle vilja upptäcka och analysera den hierarkiska strukturen, om någon, av nätverk i den verkliga världen. Vi åstadkommer detta genom att montera den hierarkiska modellen till observerade nätverksdata med hjälp av verktygen för statistisk inferens, kombinera en maximal sannolikhet att närma sig möjliga dendrograms. Denna teknik gör det möjligt för oss att prova hierarkiska slumpmässiga grafer med sannolikhet proportionell mot sannolikheten att de genererar det observerade nätverket. För att få de resultat som beskrivs nedan kombinerar vi information från ett stort antal sådana prover, som vart och ett är en rimligen trolig modell av data. Framgången med detta tillvägagångssätt bygger på att vår hierarkiska modell är flexibel, vilket gör att vi kan anpassa oss till ett brett spektrum av nätverksstrukturer. Den traditionella bilden av samhällen eller moduler i ett nätverk, till exempel, motsvarar kopplingar som är täta inom grupper av hörn och glest mellan dem-ett beteende som kallas "assortativitet" i litteraturen [17]. Den hierarkiska slumpmässiga grafen kan fånga beteende av detta slag med sannolikheter p r som minskar när vi flyttar högre upp i trädet. Omvänt, sannolikheter som ökar när vi flyttar upp trädet motsvarar "disassortativa" strukturer där hörn är mindre benägna att anslutas på små skalor än på stora. Genom att låta p r-värdena variera godtyckligt i hela dendrogrammet, kan den hierarkiska slumpmässiga grafen fånga både diverse och disassortativa strukturer, liksom godtyckliga blandningar av de två, på alla skalor och i alla delar av nätverket. För att visa vår metod har vi använt den för att konstruera hierarkiska nedbrytningar av tre exempelnätverk som hämtats från olika fält: det metaboliska nätverket av spirochete Treponema pallidum [18], ett nätverk av associationer mellan terrorister [19], och ett livsmedelsnät av gräsmarksarter [20]. För att testa om dessa nedbrytningar exakt fångar upp nätens viktiga strukturella egenskaper använder vi de provtagna dendrogram för att generera nya nätverk, som skiljer sig i detalj från originalen, men per definition har liknande hierarkisk struktur (se Kompletterande information för mer information). Vi finner att dessa "replikerade" nätverk matchar de statistiska egenskaperna hos originalen nära, inklusive deras gradfördelningar, klustereringskoefficienter, och fördelningar av kortaste väglängder mellan par av hörn, trots det faktum att ingen av dessa egenskaper uttryckligen representeras i den hierarkiska slumpmässiga grafen (Tabell I, och Bild. S3 i tilläggsinformationen). Det verkar alltså som om ett näts hierarkiska struktur också kan förklara en mängd andra nätverksfunktioner. De dendrogram som produceras genom vår metod är också av intresse för sig själva, som en grafisk representation och sammanfattning av det observerade nätverkets hierarkiska struktur. Som dis-. Observera att i flera fall grupperas en uppsättning parasitoider i en disassortativ gemenskap av algoritmen, inte för att de lever på varandra, utan för att de lever på samma växtätare. Enligt ovan kan vår metod generera inte bara ett enda dendrogram utan en uppsättning dendrogram, som var och en passar bra till datan. Från denna uppsättning kan vi, med hjälp av tekniker från phylogeny rekonstruktion [21], skapa en enda konsensus dendrogram, som fångar de topologiska egenskaper som visas konsekvent över alla eller en stor del av dendrograms och typiskt representerar en bättre sammanfattning av nätverkets struktur än någon enskild dendrogram. Figur 2a visar ett sådant samförstånd dendrogram för nätverket av gräsmarksarter, som tydligt avslöjar samhällen och subkommuniteter av växter, växtätare, parasitoider och hyperparasitoider. En annan tillämpning av den hierarkiska nedbrytningen är förutsägelsen om saknade interaktioner i nätverk. I många miljöer kräver upptäckten av interaktioner i ett nätverk betydande experimentella insatser i laboratoriet eller fältet. Som ett resultat av detta är våra nuvarande bilder av många nätverk sub-3 starkt ofullständiga [22, 23, 24, 25, 26, 27, 28]. Ett attraktivt alternativ till att kontrollera uttömmande för en anslutning mellan varje par hörn i ett nätverk är att försöka förutsäga, i förväg och baserat på de anslutningar som redan observerats, vilka hörn är mest sannolikt att vara anslutna, så att knappa experimentella resurser kan fokuseras på testning för dessa interaktioner. Om våra förutsägelser är goda kan vi på detta sätt avsevärt minska de ansträngningar som krävs för att etablera nätverkets topologi. Den hierarkiska nedbrytningen kan användas som grund för en effektiv metod för att förutsäga saknade interaktioner enligt följande. Med tanke på ett observerat men ofullständigt nätverk, genererar vi som beskrivs ovan en uppsättning hierarkiska slumpmässiga grafsdendrogram och tillhörande sannolikheter p r -som passar det nätverket. Sedan letar vi efter par av hörn som har en hög genomsnittlig sannolikhet för anslutning inom dessa hierarkiska slumpmässiga grafer men som inte är anslutna i det observerade nätverket. Dessa par vi anser de mest sannolika kandidater för saknade anslutningar. (Tekniska uppgifter om förfarandet finns i den kompletterande informationen.) Vi demonstrerar metoden med hjälp av våra tre exempelnätverk igen. För varje nätverk tar vi bort en delmängd av anslutningar som väljs jämnt på måfå och försöker sedan förutsäga, baserat på de återstående anslutningar, vilka som har tagits bort. Ett standardmått för att kvantifiera noggrannheten av förutsägelsealgoritmer, som vanligen används i medicinska och maskininlärning samhällen, är AUC-statistiken, som är likvärdig med området under mottagaren-operativa egenskapen (ROC) kurva [29]. I det aktuella sammanhanget kan AUC-statistiken tolkas som sannolikheten att en slumpmässigt vald saknad anslutning (ett sant positivt) ges en högre poäng genom vår metod än ett slumpmässigt valt par osammanhängande hörn (ett sant negativt). Den grad i vilken AUC överstiger 1/2 indikerar alltså hur mycket bättre våra förutsägelser är än slumpen. Figur 3 visar AUC-statistiken för de tre nätverken som en funktion av fraktionen av de anslutningar som är kända för algoritmen. För alla tre nätverk gör vår algoritm mycket bättre än slumpen, vilket tyder på att hierarkin är en stark allmän prediktor för saknad struktur. Det är också lärorikt att jämföra prestanda av vår metod med andra metoder för länk förutsägelse [8]. Tidigare föreslagna metoder inkluderar antagandet att hörn sannolikt kommer att anslutas om de har många gemensamma grannar, om det finns korta vägar mellan dem, eller om produkten av deras grader är stor. Dessa strategier fungerar bra för starkt olika nätverk som samarbete och citeringsnätverk [8] och för de metabola och terroristiska nätverk som studeras här (Fig. 3a b)........................................................................................................... För det metabola nätverket fungerar den kortaste heuristiska vägen bättre än vår algoritm. Dessa enkla metoder kan dock vara vilseledande för nätverk som uppvisar mer allmänna typer av struktur. I födovävar, till exempel, delar par av rovdjur ofta bytesarter, men sällan på varandra. I sådana situationer skulle en vanlig granne eller en kortaste vägbaserad metod förutsäga samband mellan rovdjur där det inte finns några. Den hierarkiska modellen kan däremot uttrycka både olika och olika strukturer och som bild. 3c visar, ger betydligt bättre prognoser för gräsmarksnätet. (I- gärning, i Bild. 2b Det finns flera grupper av parasitoider som vår algoritm har grupperat tillsammans i en disassortativ gemenskap, där de lever på samma växtätare men inte på varandra.) Den hierarkiska metoden gör därför exakta förutsägelser för ett bredare spektrum av nätverksstrukturer än de tidigare metoderna. I applikationerna ovan har vi antagit för enkelhetens skull 4 att det inte finns några falska positiva i våra nätverksdata, d.v.s. att varje observerad kant motsvarar en verklig interaktion. I nätverk där falska positiva kan vara närvarande, kan de också förutsägas med samma tillvägagångssätt: vi skulle helt enkelt leta efter par av hörn som har en låg genomsnittlig sannolikhet för anslutning inom den hierarkiska slumpmässiga grafen men som är anslutna i det observerade nätverket. Den metod som beskrivs här skulle också kunna utvidgas till att omfatta domänspecifik information, såsom artmorfologiska eller beteendemässiga egenskaper för livsmedelsvävar [28] eller fylogenetiska eller bindningsdomändata för biokemiska nätverk [23], genom att justera sannolikheterna för kanter i enlighet därmed. Som resultaten ovan visar, kan vi dock få bra förutsägelser även i avsaknad av sådan information, vilket tyder på att topologi ensam kan ge rika insikter. Avslutningsvis konstaterar vi att vår strategi skiljer sig mycket från tidigare arbete om hierarkisk struktur i nätverk [1, 4, 5, 6, 7, 9, 11, 30] genom att den uttryckligen erkänner att de flesta verkliga nätverk har många rimliga hierarkiska representationer av ungefär lika stor sannolikhet. Tidigare arbete har däremot vanligtvis sökt en enda hierarkisk representation för ett visst nätverk. Genom att ta en ensemble av dendrogram undviker vårt tillvägagångssätt att överanstränga data och gör det möjligt för oss att förklara många gemensamma topologiska funktioner, generera omprovade nätverk med liknande struktur som originalet, härleda en tydlig och koncis sammanfattning av ett nätverks struktur via dess konsensus dendrogram, och exakt förutsäga saknade anslutningar i en mängd olika situationer.
Saknade länkar i ett hierarkiskt nätverk förutspås genom att uppskatta parametrarna för ett dendrogram, vilket genererar den observerade nätverksstrukturen REF.
278,058
Hierarchical structure and the prediction of missing links in networks
{'venue': 'Nature 453, 98 - 101 (2008)', 'journal': None, 'mag_field_of_study': ['Biology', 'Mathematics', 'Physics', 'Medicine']}
80,022
Detta papper presenterar en enkel oövervakad lärande algoritm för att klassificera recensioner som rekommenderas (tummar upp) eller inte rekommenderas (tummar ner). Klassificeringen av en översyn förutses av den genomsnittliga semantiska orienteringen av fraserna i recensionen som innehåller adjektiv eller adverbs. En fras har en positiv semantisk orientering när den har goda associationer (t.ex. "subtle nyanser") och en negativ semantisk orientering när den har dåliga associationer (t.ex. "mycket cavalier"). I detta dokument beräknas en frass semantiska inriktning som den ömsesidiga informationen mellan den givna frasen och ordet "utmärkt" minus den ömsesidiga informationen mellan den givna frasen och ordet "dålig". En recension klassas som rekommenderad om den genomsnittliga semantiska orienteringen för dess fraser är positiv. Algoritmen uppnår en genomsnittlig noggrannhet på 74% när den utvärderas på 410 recensioner från Epinions, provtagna från fyra olika domäner (recensioner av bilar, banker, filmer och resedestinationer). Noggrannheten varierar från 84% för bilrecensioner till 66% för filmrecensioner.
Turney i REF introducerar en oövervakad inlärningsalgoritm för att bedöma en granskning som positiv eller negativ (tummar upp eller ner).
484,335
Thumbs Up Or Thumbs Down? Semantic Orientation Applied To Unsupervised Classification Of Reviews
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,023
Abstract-Lifetime maximization är ett viktigt element i utformningen av sensor-nätverk-baserade övervakningsapplikationer. Vi föreslår ett protokoll för node sleep schemaläggning som garanterar en begränsad delay-analys täckning samtidigt maximera nätverkets livslängd. Vår sömnplanering säkerställer att täckningen roterar så att varje punkt i miljön uppfattas inom något ändligt tidsintervall, som kallas detektionsfördröjningen. Ramverket är optimerat för upptäckt av sällsynta händelser och gör det möjligt att uppnå gynnsamma kompromisser mellan händelsedetekteringsfördröjning och livstid utan att offra (eventuell) täckning för varje punkt. Vi jämför olika sovplaneringspolicyer i termer av genomsnittlig detektionsfördröjning, och visar att vår ligger närmast detektionsfördröjningen lägre vid stationär händelseövervakning. Vi förklarar också det inneboende förhållandet mellan detektionsfördröjning, som gäller ihållande händelser, och detektionssannolikhet, som gäller tillfälliga händelser. Slutligen föreslås en konnektivitet underhåll protokoll för att minimera fördröjningen av multi-hop leverans till en basstation. Den resulterande viloplanen uppnår den lägsta totala målövervakningsfördröjningen med tanke på begränsningar av energiförbrukningen.
I REF, Cao et al. presenterade ett optimerat ramverk för upptäckt av sällsynta händelser som äventyrar händelsedetekteringens fördröjning och livstid samtidigt som punkttäckningen bibehålls.
6,354,562
Towards optimal sleep scheduling in sensor networks for rare-event detection
{'venue': "IPSN '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,024
Ett samtidigt objekt är ett dataobjekt som delas av samtidiga processer. Linjäriserbarhet är ett korrekturtillstånd för samtidiga objekt som utnyttjar semantiken hos abstrakta datatyper. Det tillåter en hög grad av samstämmighet, men det tillåter programmerare att specificera och resonera om samtidiga objekt med hjälp av kända tekniker från den sekventiella domänen. Linjärisering ger illusionen att varje operation som tillämpas genom samtidiga processer träder i kraft omedelbart någon gång mellan dess anrop och dess svar, vilket innebär att betydelsen av ett samtidigt objekts verksamhet kan ges genom pre- och postvillkor. Detta dokument definierar linearizability, jämför det med andra korrekthet villkor, presenterar och visar en metod för att bevisa riktigheten av implementationer, och visar hur man resonerar om samtidiga objekt, med tanke på att de är linearizable.
Linjärisering definieras i REF.
228,785
Linearizability: a correctness condition for concurrent objects
{'venue': 'TOPL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,025
Övervakning av nätverkstrafik och upptäckt av oönskade program har blivit ett utmanande problem, eftersom många program obfuserar sin trafik med oregistrerade portnummer eller nyttokryptering. Bortsett från några anmärkningsvärda undantag använder de flesta trafikövervakningsverktyg två typer av metoder: a) hålla trafikstatistik såsom paketstorlekar och interarrivaler, flödesräkningar, bytevolymer etc., eller b) analysera paketinnehåll. I detta dokument föreslår vi användningen av trafikspridningsdiagram (TDG) som ett sätt att övervaka, analysera och visualisera nätverkstrafik. TDG modellerar det sociala beteendet hos värdar ("som talar med vem"), där kanterna kan definieras för att representera olika interaktioner (t.ex. Utbyte av ett visst antal eller viss typ av förpackningar. Med införandet av millennieutvecklingsmålen kan vi utnyttja en mängd verktyg och grafmodelleringsmetoder från en rad olika discipliner.
Iliofotou m.fl. REF föreslog Traffic Dispersion Graph (TDG) för att upptäcka nätverksomfattande interaktioner mellan värdarna för att övervaka, analysera och visualisera nätverkstrafik.
753,215
Network monitoring using traffic dispersion graphs (tdgs)
{'venue': "IMC '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,026
Abstract-This paper presenterar ett optimeringsramverk för ett trådlöst sensornätverk där varje sensor spelar en dubbel roll för att känna av miljön och förmedla sensorinformationen. Utformningen av ett sådant nätverk omfattar två olika aspekter. För det första, eftersom observationer av den underliggande miljön ofta korreleras, Distributiva källkodningsmetoder har potential att avsevärt förbättra effektiviteten i sensordriften. Därför är information teoretiska källkodningsmetoder användbara i applikationsskiktet. För det andra, eftersom varje sensor måste skicka information individuellt till en central processor, routing och kraftfördelning i nätverket och fysiska lager är också viktiga frågor. Huvudfokus i detta dokument är ett optimeringsramverk som tillsammans löser problemen med källkodning, routing och kraftfördelning i ett sådant nätverk. Den viktigaste insikten är följande: det gemensamma optimeringsproblemet för ett sensornätverk, när det lösts i den dubbla domänen, ger en naturlig separation mellan applikationsskiktet, nätverkslagret och det fysiska lagret. Gränssnittet mellan skikten är exakt de dubbla optimeringsvariablerna. Den avgörande iakttagelsen som gör detta möjligt är att det underliggande källkodningsproblemet i applikationslagret och kanalkodningsproblemet i det fysiska lagret alltid kan göras konvext via tidsdelning eller frekvensdivision multiplexing. Konvexering i tid eller frekvens gör det möjligt för dubbla algoritmer att uppnå det globala optimala av det övergripande nätverksoptimeringsproblemet på ett effektivt sätt.
I vårt tidigare arbete REF har vi också studerat en dubbel metod för gemensam källkodskodning, routing och kraftfördelningsproblem för sensornätverk, där fokus ligger på ett problem med förlustkällakodning vid applikationslagret.
12,270,906
Joint source coding, routing and resource allocation for wireless sensor networks
{'venue': 'IEEE International Conference on Communications, 2005. ICC 2005. 2005', 'journal': 'IEEE International Conference on Communications, 2005. ICC 2005. 2005', 'mag_field_of_study': ['Computer Science']}
80,027
Abstract-A hierarkisk version av partikelsvärmens optimering (PSO) metaheuristic introduceras i detta papper. I den nya metoden H-PSO arrangeras partiklarna i en dynamisk hierarki som används för att definiera en kvartersstruktur. Beroende på kvaliteten på deras hittills mest välfunna lösning rör sig partiklarna uppåt eller nedåt i hierarkin. Detta ger goda partiklar som rör sig uppåt i hierarkin ett större inflytande på svärmen. Vi introducerar en variant av H-PSO, där hierarkins form är dynamiskt anpassad under genomförandet av algoritmen. En annan variant är att tilldela olika beteenden till de enskilda partiklarna med avseende på deras nivå i hierarkin. H-PSO och dess varianter testas på en vanlig uppsättning av optimeringsfunktioner och jämförs med PSO med hjälp av olika standard grannskapssystem. Index Villkor-Författare, vänligen ange dina egna sökord eller skicka ett tomt e-post till sö[email protected] för att få en lista med föreslagna sökord.
I REF introduceras en Hierarkisk PSO-version (H-PSO).
15,501,392
A hierarchical particle swarm optimizer and its adaptive variant
{'venue': 'IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics)', 'journal': 'IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
80,028
Detta dokument beskriver en personlig K-anonymity modell för att skydda platsens integritet mot olika sekretesshot genom att dela platsinformation. Vår modell har två unika funktioner. För det första tillhandahåller vi ett enhetligt ramverk för personlig integritet för att stödja plats-k-anonymitet för ett brett spektrum av användare med kontextkänsliga personliga integritetskrav. Detta ramverk gör det möjligt för varje mobil nod att ange den lägsta anonymitetsnivå som den önskar samt den maximala tids- och rumsliga upplösning som den är villig att tolerera när den begär att k-anonymitet ska bevara platsbaserade tjänster (LBS). För det andra, vi utformar en effektiv meddelande perturbation motor som körs av platsen skydd mäklare på en betrodd server och utför plats anonymisering på mobila användares LBS begäran meddelanden, såsom identitet borttagning och spatio-temporal kamouflage av platsinformation. Vi utvecklar en svit skalbara och samtidigt effektiva spatio-temporala kamouflage algoritmer, som kallas CliqueCloak algoritmer, för att ge hög kvalitet personlig plats k-anonymitet, syftar till att undvika eller minska kända plats integritet hot innan vidarebefordra förfrågningar till LBS leverantörer. Effektiviteten hos våra CliqueCloak-algoritmer studeras under olika förhållanden med hjälp av realistiska lokaliseringsdata syntetiskt genererade med hjälp av verkliga färdplaner och trafikvolymdata.
Gedik och Liu REF utvecklade en uppsättning skalbara och men ändå effektiva spatio-temporala kamouflagealgoritmer, som kallas CliqueCloak algoritmer, för att ge hög kvalitet personlig plats k-anonymitet, som syftar till att undvika eller minska kända plats integritet hot innan vidarebefodra förfrågningar till LBS leverantörer.
1,205,169
Location Privacy in Mobile Systems: A Personalized Anonymization Model
{'venue': "25th IEEE International Conference on Distributed Computing Systems (ICDCS'05)", 'journal': "25th IEEE International Conference on Distributed Computing Systems (ICDCS'05)", 'mag_field_of_study': ['Computer Science']}
80,029
En grundläggande fråga i sensornätverk är täckningsproblemen, som speglar hur väl ett sensornätverk övervakas eller spåras av sensorer. I detta dokument formulerar vi detta problem som ett beslutsproblem, vars mål är att avgöra om varje punkt i sensornätverkets serviceområde täcks av minst k-sensorer, där k är ett fördefinierat värde. Sensorernas avkänningsområden kan vara enhetsdiskar eller icke-enhetsdiskar. Vi presenterar polynom-tid algoritmer, i termer av antalet sensorer, som lätt kan översättas till distribuerade protokoll. Resultatet är en generalisering av några tidigare resultat där endast k = 1 antas. Tillämpningar av resultatet omfattar i) positioneringstillämpningar, ii) situationer som kräver en starkare miljöövervakningsförmåga och iii) scenarier som medför en strängare feltolerant förmåga.
Huang och Tseng REF föreslår en multicoverage placering som kräver att varje punkt i serviceområdet i sensornätverket täcks av åtminstone sensorer, där är ett fördefinierat värde.
8,499,871
The coverage problem in a wireless sensor network
{'venue': "WSNA '03", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,030
Den explosiva ökningen av efterfrågan på behandling av stora data medför en tung börda för beräkning, lagring och kommunikation i datacenter, vilket därmed medför betydande driftsutgifter för leverantörer av datacenter. Därför har kostnadsminimering blivit en framväxande fråga för den kommande big data-eran. Till skillnad från konventionella molntjänster är en av huvuddragen i big data-tjänster den täta kopplingen mellan data och beräkning eftersom beräkningsuppgifter endast kan utföras när motsvarande data är tillgängliga. Som ett resultat, tre faktorer, d.v.s. uppgiftstilldelning, dataplacering och datarörelse, djupt påverka de operativa utgifterna för datacenter. I detta dokument är vi motiverade att studera kostnadsminimeringsproblemen via en gemensam optimering av dessa tre faktorer för big datatjänster i geo-distribuerade datacenter. För att beskriva uppgiftens slutförandetid med beaktande av både dataöverföring och beräkning föreslår vi en 2-D Markov-kedja och härleder den genomsnittliga uppgiftens slutförandetid i sluten form. Dessutom modellerar vi problemet som en blandad icke-linjär programmering och föreslår en effektiv lösning för att linearisera det. Den höga effektiviteten i vårt förslag är validerad genom omfattande simuleringsbaserade studier.
Särskilt i REF studerade författarna olika problem för storskaliga datacenter, inklusive uppgiftstilldelning, dataplacering och datarörelser.
17,149,925
Cost Minimization for Big Data Processing in Geo-Distributed Data Centers
{'venue': 'IEEE Transactions on Emerging Topics in Computing', 'journal': 'IEEE Transactions on Emerging Topics in Computing', 'mag_field_of_study': ['Computer Science']}
80,031
I multi-armad bandit problem, måste en spelare bestämma vilken arm av K icke-identiska spelautomater att spela i en sekvens av prövningar för att maximera sin belöning. Detta klassiska problem har fått stor uppmärksamhet på grund av den enkla modell det ger av kompromissen mellan prospektering (försöka ut varje arm för att hitta den bästa) och exploatering (spelar armen tros ge den bästa utdelningen). Tidigare lösningar för bandit problemet har nästan alltid förlitat sig på antaganden om statistiken över spelautomater. I detta arbete gör vi inga statistiska antaganden alls om karaktären av processen som genererar utbetalningar av spelautomater. Vi ger en lösning på banditproblemet där en motståndare, snarare än en väluppfostrad stokastisk process, har fullständig kontroll över belöningarna. I en sekvens av T pjäser, visar vi att den förväntade per-round payoff av vår algoritm närmar sig den bästa armen med hastigheten O(T-'I3), och vi ger en förbättrad konvergens när den bästa armen har ganska låg payoff. Vi överväger också en miljö där spelaren har ett team av "experter" som ger honom råd om vilken arm att spela; här ger vi en strategi som garanterar förväntad vinst nära den bästa expertens. Slutligen, Vi tillämpar vårt resultat på problemet med att lära sig att spela en okänd upprepad matris spel mot en allsmäktig motståndare.
I banditlitteraturen införde REF en icke-stationär miljö där belöningsprocessen påverkas av en motståndare.
8,963,242
Gambling in a rigged casino: The adversarial multi-armed bandit problem
{'venue': 'Proceedings of IEEE 36th Annual Foundations of Computer Science', 'journal': 'Proceedings of IEEE 36th Annual Foundations of Computer Science', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,032
Abstrakt. Multitask Learning är ett förhållningssätt till induktiv överföring som förbättrar generaliseringen genom att använda domäninformationen i utbildningssignalerna för relaterade uppgifter som en induktiv bias. Det gör det genom att lära sig uppgifter parallellt samtidigt som man använder en delad representation; det man lär sig för varje uppgift kan hjälpa andra uppgifter att lära sig bättre. I detta dokument granskas tidigare arbete med MTL, presenteras nya bevis för att MTL i backprop-nät upptäcker uppgiftssamband utan behov av övervakning signaler, och presenterar nya resultat för MTL med k-nearest granne och kärna regression. I detta dokument demonstrerar vi multitask-inlärning inom tre områden. Vi förklarar hur multitask-inlärning fungerar och visar att det finns många möjligheter till multitask-inlärning inom verkliga områden. Vi presenterar en algoritm och resultat för multitask lärande med fallbaserade metoder som k-nearest granne och kärna regression, och skissa en algoritm för multitask lärande i beslut träd. Eftersom multitask lärande fungerar, kan tillämpas på många olika typer av domäner, och kan användas med olika inlärningsalgoritmer, antar vi att det kommer att finnas många möjligheter för dess användning på verkliga problem.
Caruana REF beskriver vidare MTL som en mekanism för att förbättra generaliseringsegenskaper genom att utnyttja den domänspecifika information som finns i utbildningssignalerna för relaterade uppgifter.
207,752,942
Multitask Learning
{'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']}
80,033
Många klassiska metoder har visat att icke-lokal självlikhet i naturliga bilder är en effektiv föregångare för bildrenovering. Det är dock fortfarande oklart och utmanande att utnyttja denna inneboende egendom via djupa nätverk. I detta dokument föreslår vi ett icke-lokalt återkommande nätverk (NLRN) som det första försöket att integrera icke-lokala operationer i ett recidiverande neuralt nätverk (RNN) för bildrenovering. De viktigaste bidragen av detta arbete är: (1) Till skillnad från befintliga metoder som mäter självlikhet på ett isolerat sätt, kan den föreslagna icke-lokala modulen flexibelt integreras i befintliga djupa nätverk för end-to-end utbildning för att fånga djupa egenskaper korrelation mellan varje plats och dess grannskap. (2) Vi använder RNN-strukturen fullt ut för dess parametereffektivitet och tillåter att djup korrelation förökas längs angränsande återkommande tillstånd. Denna nya design ökar robustheten mot felaktig korrelationsuppskattning på grund av kraftigt försämrade bilder. (3) Vi visar att det är viktigt att upprätthålla ett begränsat område för beräkning av djup funktion korrelation ges degraderade bilder. Detta står i kontrast till befintlig praxis [43] som använder hela bilden. Omfattande experiment på både bild denoiserande och super-upplösning uppgifter utförs. Tack vare den återkommande icke-lokala verksamheten och korrelationsutbredningen uppnår det föreslagna NLRN överlägsna resultat jämfört med de senaste metoderna med många färre parametrar. Koden finns på https://github.com/Ding-Liu/NLRN.
NLRN REF försökte integrera icke-lokala moduler i ett återkommande neuralt nätverk (RNN) för bildrenovering.
47,007,607
Non-Local Recurrent Network for Image Restoration
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,034
Att studera naturligt språk, och särskilt hur människor beskriver världen runt omkring dem, kan hjälpa oss att bättre förstå den visuella världen. Den kan i sin tur också hjälpa oss att skapa ett naturligt språk som beskriver den här världen på ett mänskligt sätt. Vi presenterar en enkel men effektiv metod för att automatiskt komponera bildbeskrivningar givet datorseende baserade ingångar och med hjälp av web-scale n-grams. Till skillnad från de flesta tidigare verk som sammanfattar eller hämtar befintlig text som är relevant för en bild, komponerar vår metod meningar helt från grunden. Experimentella resultat visar att det är genomförbart att generera enkla textbeskrivningar som är relevanta för det specifika innehållet i en bild, samtidigt som kreativitet i beskrivningen - göra för mer mänskliga-liknande kommentarer än tidigare metoder.
.................................................................................................... REF-komponerade bildbeskrivningar med hjälp av datorsynbaserade indata såsom upptäckta objekt, modifierare och platser med hjälp av n-gram i webbskala.
10,702,193
Composing Simple Image Descriptions using Web-scale N-grams
{'venue': 'Proceedings of the Fifteenth Conference on Computational Natural Language Learning', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,035
: Symmetri upptäckt på en skulpterad modell. Från vänster till höger: Originalmodell, detekterade partiella och ungefärliga symmetrier, färgkodade avvikelser från perfekt symmetri som en bråkdel av den avgränsande rutan diagonal. "Symmetri är en komplexitetsreducerande koncept [...]; söka det överallt." -Alan J. Perlis Många naturliga och konstgjorda föremål uppvisar betydande symmetrier eller innehåller upprepade understrukturer. Detta dokument presenterar en ny algoritm som bearbetar geometriska modeller och effektivt upptäcker och extraherar en kompakt representation av deras euklideiska symmetrier. Dessa symmetrier kan vara partiella, ungefärliga, eller båda. Metoden är baserad på att matcha enkla lokala form signaturer i par och använda dessa matchningar för att samla bevis för symmetrier i en lämplig omvandling utrymme. Ett klustersteg extraherar potentiella betydande symmetrier av objektet, följt av ett verifieringssteg. Baserat på en statistisk provtagningsanalys ger vi teoretiska garantier för framgångsgraden hos vår algoritm. Den extraherade symmetri graf representation fångar viktig hög nivå information om strukturen på en geometrisk modell som i sin tur möjliggör en stor uppsättning ytterligare bearbetningsåtgärder, inklusive formkomprimering, segmentering, konsekvent redigering, symmetristrering, indexering för hämtning, etc.
Mitra m.fl. detektera partiella och ungefärliga symmetrier i 3D-modeller REF.
10,145,935
Partial and approximate symmetry detection for 3D geometry
{'venue': "SIGGRAPH '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,036
Abstrakt. Eftersom en oriktad graf G = (V, E), densiteten av en subgraf på vertex uppsättning S definieras som d(S) =, Där E(S) är uppsättningen av kanter i subgrafen som induceras av noder i S. Att hitta subgrafer av maximal densitet är ett mycket väl studerat problem. Man kan också generalisera detta begrepp till riktade grafer. För en riktad graf ett begrepp av densitet ges av Kannan och Vinay [12] är följande: givna undergrupper S och T av hörn, densiteten av subgrafen, Där E(S, T ) är uppsättningen av kanter som går från S till T. Utan någon storlek begränsningar, en subgraph av maximal densitet kan hittas i polynom tid. När vi kräver att subgrafen ska ha en angiven storlek blir problemet med att hitta en subgraf med maximal densitet N P - hård. I detta papper fokuserar vi på att utveckla snabba polynom tid algoritmer för flera variationer av täta subgraph problem för både riktade och oriktade grafer. När det inte finns någon storleksbindning, utökar vi den flödesbaserade tekniken för att erhålla en tätaste subgraf i riktade grafer och ger även en linjär tid 2- approximation algoritm för det. När en lägre gräns anges för både riktade och oriktade fall, visar vi att problemet är NP-komplett och ger snabba algoritmer för att hitta subgrafer inom en faktor 2 av den optimala densiteten. Vi visar också att det är lika svårt att lösa det tätaste subgrafproblemet med en övre gräns på storleken som att lösa problemet med en exakt storleksbegränsning, inom en konstant faktor.
Khuller m.fl. REF föreslog en liknande polynomtidskomplex algoritm för att upptäcka tätaste subgraf i en riktad graf.
1,774,289
On finding dense subgraphs
{'venue': 'In ICALP ’09', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,037
Abstract-Weather förutsägelse är en utmanande uppgift för forskare och har dragit en hel del forskningsintresse under de senaste åren. Litteraturstudier har visat att maskininlärningsteknik har uppnått bättre prestanda än traditionella statistiska metoder. I detta dokument presenteras en tillämpning av Support Vector Machines (SVMs) för väderprognoser. Tidsseriedata för daglig maximal temperatur på en plats analyseras för att förutsäga den maximala temperaturen för nästa dag på den platsen baserat på den dagliga maximala temperaturen för en spännvidd av tidigare n dagar som kallas ordning av inmatningen. Systemets prestanda observeras under olika tidsperioder på 2 till 10 dagar med hjälp av optimala värden för kärnans funktion. Icke linjär regressionsmetod anses vara lämplig för att träna SVM för detta program. Resultaten jämförs med Multi Layer Perceptron (MLP) tränas med back-propagation algoritm och prestanda SVM har visat sig vara konsekvent bättre.
Y.Radhika och M.Shashi REF presenterar en tillämpning av Support Vector Machines (SVMs) för väderprognoser.
15,809,555
Atmospheric Temperature Prediction using Support Vector Machines
{'venue': None, 'journal': 'International Journal of Computer Theory and Engineering', 'mag_field_of_study': ['Computer Science']}
80,038
Bröstcancer är den näst vanligaste orsaken till cancerdöd hos kvinnor. Exakt tidig upptäckt kan effektivt minska dödligheten som orsakas av bröstcancer. Massor och mikroförkalkningskluster är ett viktigt tidigt tecken på bröstcancer. Det är dock ofta svårt att skilja avvikelser från normala bröstvävnader på grund av deras subtila utseende och tvetydiga marginaler. Datorstödd diagnos (CAD) hjälper radiologen att upptäcka avvikelserna på ett effektivt sätt. Detta papper undersöker en ny klassificeringsmetod för detektion av bröstabnormiteter i digitala mammogram med hjälp av partikel Swarm Optimerad Wavelet Neural Network (PSOWNN). Den föreslagna onormala detektionsalgoritm bygger på att extrahera Lagtextur Energi Åtgärder från mammogram och klassificera misstänkta regioner genom att tillämpa ett mönster klassificerare. Metoden tillämpas på verklig klinisk databas av 216 mammogram som samlats in från mammogram screening centers. CAD-systemets detektionsprestanda analyseras med hjälp av receptionens operativa karakteristiska (ROC) kurva. Denna kurva visar de avvägningar mellan känslighet och specificitet som finns tillgängliga från ett diagnostiskt system och beskriver därmed det föreslagna systemets inneboende diskrimineringsförmåga. Resultatet visar att arean under ROC-kurvan för den föreslagna algoritmen är 0,96853 med en känslighet 94,167% av och specificitet av 92,105%.
Dheeba m.fl. REF använde partikel svärm optimerade våget neurala nätverk (PSOWNN) för undersökning av ny klassificering teknik för att upptäcka avvikelser i mammogram.
15,457,910
Computer-aided detection of breast cancer on mammograms : A swarm intelligence optimized wavelet neural network approach
{'venue': 'Journal of biomedical informatics', 'journal': 'Journal of biomedical informatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
80,039
Web 2.0-tekniken har gjort det möjligt för fler och fler människor att fritt uttrycka sina åsikter på webben, vilket gör webben till en extremt värdefull källa för gruvanvändare åsikter om alla typer av ämnen. I detta dokument studerar vi hur man automatiskt integrerar åsikter som uttrycks i en välskriven expertgranskning med massor av åsikter som sprids i olika källor som bloggplatser och forum. Vi definierar formellt detta nya integrationsproblem och föreslår att man använder halvövervakade ämnesmodeller för att lösa problemet på ett principfast sätt. Experiment om att integrera åsikter om två helt olika ämnen (en produkt och en politisk figur) visar att den föreslagna metoden är effektiv för båda ämnena och kan generera användbara samordnade sammanfattningar av yttranden. Den föreslagna metoden är ganska allmän. Det kan användas för att integrera en välskriven granskning med åsikter i en godtycklig textsamling om något ämne för att potentiellt stödja många intressanta applikationer inom flera domäner.
Lu och Zhai REF föreslår en semiövervakad ämnesmodell för att införliva expertutlåtanden i modellering.
6,635,766
Opinion integration through semi-supervised topic modeling
{'venue': 'In Proceedings of the 17th International Conference on World Wide Web', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,040
Stora sensornätverk kan hanteras effektivt genom att dela upp dem i flera kluster. Med hjälp av klusterhuvuden kommunicerar varje kluster med hjälp av någon routing schema. Det är nödvändigt att rotera klusterhuvudens roll i ett kluster för att fördela energiförbrukningen om vi inte har dedikerade högenergiklusterhuvuden. Vanligtvis har valet av routing och klusterhuvud för sådana nätverk lösts separat. Om klusterhuvuden väljs med hänsyn till routing- och routingschemat förbereds med hänsyn till valda klusterhuvuden, kan det hjälpa varandra. Vi har föreslagit en integrerad strategi för val av klusterhuvud och routing i två nivåer trådlösa sensornätverk (WSN) med Genetisk Algoritm baserad klusterhuvud val med A-Star algoritm baserad routing metod för att förlänga livslängden för WSN. Detta tillvägagångssätt kan leda till betydande förbättringar av nätverkets livslängd jämfört med andra tekniker.
Rana och Zaveri REF föreslog en integrerad strategi för CH-val och routing i två nivåer WSN med GA-baserat CH-val med A-Star algoritmbaserad routing för att förlänga livslängden för WSN.
34,498,818
Synthesized Cluster Head Selection and Routing for Two Tier Wireless Sensor Network
{'venue': 'Journal Comp. Netw. and Communic.', 'journal': 'Journal Comp. Netw. and Communic.', 'mag_field_of_study': ['Computer Science']}
80,041
Abstract-Multicast är en viktig teknik som ger effektiv datakommunikation bland en uppsättning noder för trådlösa multi-hop nätverk. I sensornätverk och MANETs är multicast-algoritmer utformade för att vara energieffektiva och för att uppnå optimal vägupptäckt bland mobila noder, respektive. I trådlösa mesh-nät, som krävs för att tillhandahålla hög kvalitet service till slutanvändare som "last-mile" av Internet, genomput maximization som står i konflikt med knapp bandbredd har dock högsta prioritet. Vi föreslår en Level Channel Uppdrag (LCA) algoritm och en Multi-Channel Multicast (MCM) algoritm för att optimera genomströmning för flerkanaliga och multiinterface mesh nätverk. Algoritmerna bygger först en multicast struktur genom att minimera antalet relänoder och humle räkna avstånd mellan källan och destinationer, och använda dedikerade kanal tilldelningsstrategier för att förbättra nätverkskapaciteten genom att minska störningar. Vi illustrerar också att användningen av delvis överlappande kanaler ytterligare kan förbättra genomströmningen. Simuleringar visar att våra algoritmer i hög grad överträffar den enkanaliga multicast-algoritmen. Vi observerar att MCM uppnår bättre genomströmning och kortare fördröjning samtidigt som LCA kan realiseras på distribuerat sätt.
I REF föreslogs två multicast-algoritmer, som först bygger ett multicast-träd mellan källan och mottagaren, och sedan använder dedikerade strategier för att tilldela kanaler till trädet som syftar till att minska störningar.
14,509,936
Multicast Algorithms for Multi-Channel Wireless Mesh Networks
{'venue': '2007 IEEE International Conference on Network Protocols', 'journal': '2007 IEEE International Conference on Network Protocols', 'mag_field_of_study': ['Computer Science']}
80,042
Ett av de största hindren för förbättrad CLIR-effektivitet är att lösa tvetydighet i samband med översättning. Tillgång till resurser är också ett problem. Först presenterar vi en teknik baserad på co-occurence statistik från obundna korpora som kan användas för att minska tvetydigheten i samband med frasal och termöversättning. Vi kombinerar sedan denna metod med andra tekniker för att minska tvetydighet och uppnå mer än 90 % enspråkig effektivitet. Slutligen jämför vi co-occurrence-metoden med parallell corpus och maskinöversättningstekniker och visar att god hämtningseffektivitet kan uppnås utan komplexa resurser.
Lisa, och så vidare. I REF 1998 föreslogs en metod för att lösa tvetydighet i frågeöversättning och ordöversättning genom att använda statistik co-occurence analys från obundna corpus och kombinerar denna teknik med andra tekniker för att lösa tvetydighet och uppnå mer än 90 % av CLIR prestanda jämfört med enspråkig prestanda och även författaren jämförde sin metod med maskinöversättning och parallella corpus tekniker och de visade att bra prestanda för hämtning kan uppnås utan användning av komplexa resurser.
9,780,785
Resolving ambiguity for cross-language retrieval
{'venue': "SIGIR '98", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,043
Att jämföra det ena med det andra är en typisk del av människans beslutsprocess. Det är dock inte alltid lätt att veta vad man ska jämföra och vad som är alternativen. För att ta itu med denna svårighet presenterar vi ett nytt sätt att automatiskt minera jämförbara enheter från jämförande frågor som användare har publicerat online. För att säkerställa hög precision och hög recall, utvecklar vi en svagt övervakad bootstrapping metod för jämförande frågeidentifiering och jämförbar enhet extraktion genom att utnyttja ett stort online frågearkiv. De experimentella resultaten visar att vår metod uppnår F1-mått på 82,5% i jämförande frågeställning och 83,3% i jämförbar enhet extraktion. Båda är betydligt bättre än en befintlig toppmodern metod.
Li et al REF utvecklar en svagt övervakad bootstraping metod för automatisk jämförelse enheter gruvdrift från online jämförande frågor.
10,310,211
Comparable Entity Mining from Comparative Questions
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,044
Industriella recommender system hanterar extremt stora aktionsutrymmen - många miljoner objekt att rekommendera. Dessutom måste de tjäna miljarder användare, som är unika när som helst, vilket gör ett komplext användartillstånd utrymme. Lyckligtvis finns enorma mängder av loggad implicit feedback (t.ex., användarklick, uppehållstid) tillgänglig för lärande. Inlärning från den loggade feedbacken är dock föremål för fördomar som orsakas av att endast observera feedback på rekommendationer som valts av de tidigare versionerna av rekommendationen. I detta arbete presenterar vi ett allmänt recept på att ta itu med sådana förutfattade meningar i en produktion top-K rekommendationssystem på YouTube, byggt med en policy-gradient-baserad algoritm, dvs... REINFORCE [48].................................................................................................... Bidragen från tidningen är: (1) skala REINFORCE till ett produktionsrekommendationssystem med ett åtgärdsutrymme på order av miljoner; (2) tillämpa off-policy korrigering för att ta itu med datafördomar i lärande från loggad feedback samlas in från flera beteendepolicyer; (3) föreslå en ny top-K off-policy korrigering för att redovisa vår policy rekommendera flera objekt i taget; (4) visa värdet av prospektering. Vi demonstrerar effektiviteten i våra strategier genom en serie simuleringar och flera levande experiment på YouTube.
Chen och Al. REF presenterar en icke-politisk korrigeringsram för att ta itu med problemet med dataförvrängningar i ett topp-K-recommender-system på YouTube.
54,447,345
Top-K Off-Policy Correction for a REINFORCE Recommender System
{'venue': None, 'journal': 'Proceedings of the Twelfth ACM International Conference on Web Search and Data Mining', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,045
Abstract-Intelligent konsolidering av arbetsbelastningen och dynamisk klusteranpassning erbjuder en stor möjlighet till energibesparingar i nuvarande storskaliga kluster. På grund av dessa miljöers heterogena karaktär är skalbara, feltoleranta och distribuerade konsolideringsansvariga nödvändiga för att effektivt kunna hantera sin arbetsbelastning och på så sätt spara energi och minska driftskostnaderna. De flesta av de konsolideringsförvaltare som finns nu för tiden uppfyller dock inte dessa krav. Därför är de oftast centraliserade och endast utformade för att användas i virtualiserade miljöer. I detta arbete presenterar vi arkitekturen för en ny skalbar, feltolerant och distribuerad konsolideringshanterare kallad Snooze som dynamiskt kan konsolidera arbetsbelastningen för en programvara och hårdvara heterogent storskaligt kluster som består av resurser med hjälp av virtualiserings- och SSI-teknik (Single System Image). Därför införs ett gemensamt API för övervakning och hantering av kluster, vilket ger en enhetlig och öppen tillgång till de underliggande plattformarnas funktioner. Vår arkitektur är öppen för att stödja framtida teknologier och kan enkelt utökas med övervakning av mätvärden och algoritmer. Slutligen visar en omfattande fallstudie om användning att vår strategi för att hantera energiförbrukningen i ett storskaligt kluster är genomförbar.
Feller m.fl. föreslog en dynamisk klusterhanterare kallad Snooze REF, som dynamiskt kan konsolidera arbetsbelastningen hos ett heterogent storskaligt kluster bestående av resurser med hjälp av virtualisering.
16,494,098
Snooze: A Scalable, Fault-Tolerant and Distributed Consolidation Manager for Large-Scale Clusters
{'venue': "2010 IEEE/ACM Int'l Conference on Green Computing and Communications & Int'l Conference on Cyber, Physical and Social Computing", 'journal': "2010 IEEE/ACM Int'l Conference on Green Computing and Communications & Int'l Conference on Cyber, Physical and Social Computing", 'mag_field_of_study': ['Computer Science']}
80,046
Förmågan att förutsäga och därför förutse framtiden är ett viktigt attribut för intelligens. Det är också av yttersta vikt i realtidssystem, t.ex. inom robotteknik eller autonom körning, som är beroende av visuell scenförståelse för beslutsfattande. Medan förutsägelse av råa RGB pixelvärden i framtida videoramar har studerats i tidigare arbete, här introducerar vi den nya uppgiften att förutsäga semantiska segmenteringar av framtida ramar. Med tanke på en sekvens av videoramar är vårt mål att förutsäga segmenteringskartor över ännu inte observerade videoramar som ligger upp till en sekund eller längre i framtiden. Vi utvecklar ett autoregressivt konvolutionellt neuralt nätverk som lär sig att iterativt generera flera ramar. Våra resultat på Cityscapes dataset visar att det är betydligt bättre att direkt förutsäga framtida segmenteringar än att förutsäga och sedan segmentera framtida RGB-ramar. Förutsägelseresultat upp till en halv sekund i framtiden är visuellt övertygande och mycket mer exakta än de vid en baslinje baserad på varpande semantiska segmenteringar med hjälp av optiskt flöde.
Mer nyligen, Luc et al. REF föreslog ett automatiskt regressivt konvolutionsnätverk för att förutsäga semantiska segmenteringar i framtida ramar som förbigår pixelprognoser.
3,073,351
Predicting Deeper into the Future of Semantic Segmentation
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
80,047
Stochastiska neuroner och hårda icke-linjäriteter kan vara användbara av ett antal skäl i djupt lärande modeller, men i många fall utgör de ett utmanande problem: hur man uppskattar lutningen av en förlustfunktion med avseende på inmatningen av sådana stokastiska eller icke-smooth neuroner? Dvs., kan vi "bakåt-propagate" genom dessa stokastiska nervceller? Vi undersöker denna fråga, befintliga tillvägagångssätt, och jämför fyra familjer av lösningar, som är tillämpliga i olika miljöer. En av dem är den minsta variansen objektiv gradient estimator för stochatiska binära neuroner (ett specialfall av REINFORCE algoritm). En andra metod, som introduceras här, dekomponerar driften av en binär stokastisk neuron i en stokastisk binär del och en jämn differential del, som approximerar den förväntade effekten av den rena stochatiska binär neuron till första ordningen. En tredje metod innebär insprutning av additivt eller multiplikativt buller i ett beräkningsdiagram som annars kan skiljas åt. En fjärde metod heuritiskt kopierar lutningen med avseende på den stokastiska utgången direkt som en uppskattning av lutningen med avseende på sigmoid argumentet (vi kallar detta den rakt-genom uppskattning). För att utforska ett sammanhang där dessa skattningar är användbara, anser vi en småskalig version av villkorlig beräkning, där glesa stokastiska enheter bildar en distribuerad representation av grindar som kan stängas av i kombinatoriskt många sätt stora bitar av den beräkning som utförs i resten av det neurala nätverket. I detta fall är det viktigt att gatingenheterna producerar en faktisk 0 för det mesta. Den resulterande sparsamheten kan potentiellt utnyttjas för att avsevärt minska beräkningskostnaderna för stora djupa nät för vilka villkorlig beräkning skulle vara användbar.
Båda dessa verk använder sig av den linjära uppskattningen eller REF för att bakåtjustera genom avrundning, vilket resulterar i en lutningsförskjutning.
18,406,556
Estimating or Propagating Gradients Through Stochastic Neurons for Conditional Computation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,048
Programmering språkbehandling (liknar naturliga språkbehandling) är en het forskningsämne inom området programvaruteknik; det har också väckt ökat intresse för artificiell intelligens community. Men ett program, som skiljer sig från en mening i ett naturligt språk, innehåller rik, explicit och komplicerad strukturell information. Därför kan traditionella NLP-modeller vara olämpliga för program. I detta dokument föreslår vi en ny trädbaserad konvolutionell neurala nätverk (TBCNN) för programmering språkbehandling, där en konvolution kärna är utformad över program abstrakt syntax träd för att fånga strukturell information. TBCNN är en generisk arkitektur för programmering språkbehandling; våra experiment visar sin effektivitet i två olika program analys uppgifter: klassificera program enligt funktionalitet, och upptäcka kod sippets av vissa mönster. TBCNN överträffar baslinjemetoder, inklusive flera neurala modeller för NLP.
Lili Ref föreslår ett trädbaserat konvolutionellt neuralt nätverk för att bädda in koder.
1,914,494
Convolutional Neural Networks over Tree Structures for Programming Language Processing
{'venue': 'AAAI', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,049
Denna artikel tar upp två problem som ligger vid skärningspunkten mellan geometrisk analys och teoretisk datavetenskap: Den icke-linjära isomorfa Dvoretzky-teoretiken och utformningen av goda ungefärliga avståndsorakler för stor distorsion. Vi introducerar begreppet Ramsey-partitioner av ett ändligt metriska utrymme, och visar att förekomsten av goda Ramsey-partitioner innebär en lösning på det metriska Ramsey-problemet för stor distorsion (alias. Den icke-linjära versionen av den isomorfiska Dvoretzky-teoremen, som infördes av Bourgain, Figiel och Milman [8]. Vi fortsätter sedan att konstruera optimala Ramsey-partitioner, och använder dem för att visa att för varje ε (0,1) har varje n-punkts metriska utrymme en delmängd av storlek n 1−ε som inbäddar i Hilbert utrymme med distorsion O(1/ε). Detta resultat är bäst möjligt och förbättrar en del av den metriska Ramsey teorem av Bartal, Linial, Mendel och Naor [5], förutom att avsevärt förenkla sitt bevis. Vi använder våra nya Ramsey-partitioner för att designa ungefärliga avståndsorakler med en universell konstant frågetid, vilket täpper till en lucka som Thorup och Zwick lämnade kvar i [32]. Nämligen, vi visar att för varje n-punkt metrisk utrymme X, och k ≥ 1, finns det en O (k)-ungefärlig avstånd orakel vars lagringskrav är O n 1+1/k, och vars frågetid är en universell konstant. Vi diskuterar också applikationer av Ramsey-partitioner på olika andra geometriska datastrukturproblem, såsom utformningen av effektiva datastrukturer för ungefärlig rankning. Motiverad av sökandet efter en icke-linjär version av Dvoretzkys teorem utgjorde Bourgain, Figiel och Milman [8] följande problem, som idag är känt som det metriska Ramsey problemet: Med tanke på en målförvrängning α > 1 och ett heltal n, vad är den största k sådan att varje n-punkts metriska utrymme har en delmängd av storlek k som bäddar in i Hilbert utrymme med distorsion α? (Ring att ett metriska utrymme (X, d X) sägs inbädda i Hilbert utrymme med distorsion α om det finns en kartläggning f : X → L 2 sådan att för varje x, y X, vi har. Detta problem har sedan dess undersökts av flera författare, delvis motiverat av upptäckten av dess tillämpningar till online-algoritmer - vi hänvisar till [5] för en diskussion om historia och tillämpningar av det metriska Ramsey problemet. Det senaste arbetet med det metriska Ramsey problemet beror på Bartal, Linial, Mendel och Naor [5], som fick olika nästan optimala övre och nedre gränser i flera sammanhang. Bland resultaten i [5] är följande teorem som behandlar fallet av stor distorsion: För varje ε på 0, 1), varje n-punkt metriska utrymme har en delmängd av storlek n 1−ε som inbäddar i en ultrametrisk med distorsion O Eftersom ultrametrics inbäddade isometrically i Hilbert utrymme, är detta verkligen en metrisk Ramsey teorem. Dessutom visades [5] att detta resultat är optimalt upp till log(2/ε)-faktorn, dvs. Det finns godtyckligt stora metriska n-punktsutrymmen, av vilka varje delmängd av storlek n 1−ε orsakar förvrängning (1/ε) i varje inbäddning i Hilbertrymden. Huvudresultatet av detta papper avslutar denna lucka: Under de fyra år som gått sedan vårt arbete på [5] har det skett en anmärkningsvärd utveckling i strukturteorin för finita metriska utrymmen. I synnerhet har teorin om slumpmässiga partitioner av metriska utrymmen förfinats avsevärt och har visat sig ha många tillämpningar inom matematik och datavetenskap (se till exempel [17, 25, 24, 1] och hänvisningarna i den). Utgångspunkten i det här dokumentet var vårt försök att se över det metriska Ramsey-problemet med hjälp av slumpmässiga partitioner. Det visar sig att detta tillvägagångssätt verkligen kan användas för att lösa det metriska Ramsey problemet för stor distorsion, även om det kräver införandet av en ny typ av slumpmässig partition, en förbättrad "pudding ojämlikhet" för kända partitioner, och en ny tillämpning av den slumpmässiga partitionsmetoden i inställningen av Ramsey problem. I Avsnitt 2 introducerar vi begreppet Ramsey-partitioner, och visar hur de kan användas för att ta itu med det metriska Ramsey-problemet. Vi fortsätter sedan i sektion 3 för att konstruera optimala Ramsey-partitioner, vilket ger Theorem 1.1. Vår konstruktion är inspirerad delvis av Bartals probabilistiska inbäddning i träd [4], och bygger på en slumpmässig partition på grund av Calinescu, Karloff och Rabani [9], med en förbättrad analys som stärker arbetet av Fakcharoenphol, Rao och Talwar [17]. I synnerhet är vårt bevis på Theorem 1.1 själv inneslutet, och betydligt enklare än beviset på resultatet från [5] som citeras ovan. Men byggandet av [5] är deterministiskt, medan vårt bevis för Theorem 1.1 är probabilistiskt. Dessutom ser vi inte ett enkelt sätt att använda vår nya strategi för att förenkla bevisen för ett annat huvudresultat av [5], nämligen fasövergången vid distorsion α = 2 (vi hänvisar till [5] för detaljer, eftersom detta resultat inte kommer att användas här). Resultaten av [5] som användes på ett avgörande sätt i vårt arbete [27] om den metriska versionen av Milmans subrymdsteoretik omfattas inte heller av detta dokument. Algoritmiska tillämpningar för konstruktion av närhetsdatastrukturer. Den huvudsakliga algoritmiska tillämpningen av det metriska Ramsey-teoremet i [5] är att erhålla de mest kända lägre gränserna på konkurrensförhållandet för det randomiserade k-serverproblemet. Vi hänvisar till [5] och hänvisningarna där för mer information om detta ämne, eftersom Theorem 1.1 inte ger förbättrade k-server nedre gränser. Men, Ramsey partitioner är användbara för att få positiva resultat, och inte bara algoritmiska lägre gränser, som vi nu beskriver. En ändlig metriska utrymme kan tänkas på som anges av dess n × n avståndsmatris. Men i många algoritmiska sammanhang är det värt att förbehandla denna data så att vi lagrar betydligt mindre än n 2 nummer, och fortfarande kunna snabbt ta reda på ungefär avståndet mellan två frågepunkter. Med andra ord, citera Thorup och Zwick [32], "I de flesta applikationer är vi inte riktigt intresserade av alla avstånd, vi bara vill ha förmågan att hämta dem snabbt, om det behövs". Behovet av sådan "kompakt" representation av mätvärden förekommer också naturligt i matematik; till exempel de metoder som utvecklats inom den teoretiska datavetenskapen (speciellt [11, 20] ) är ett viktigt verktyg i det senaste arbetet av Fefferman och Klartag [18] om utvidgningen av C m funktioner definieras på n punkter i R d till alla R d. En inflytelserik kompakt representation av mätvärden som används i teoretisk datavetenskap är den ungefärliga distansen oracle [3, 14, 32, 20]. Anges formellt, a (P, S, Q, D)-ungefärlig avstånd oracle på en ändlig metriska utrymme (X, d X ) är en datastruktur som tar förväntad tid P att förbehandla från den givna avståndsmatrisen, tar utrymme S att lagra, och ges två frågepunkter x, y på X, beräknar i tid Q ett antal E(x, y) uppfyller I vad som följer kommer vi att avvika från ovanstående något besvärlig terminologi, och helt enkelt diskutera D-ungefärliga avstånd oracles (betonar distorsion D), och ange i ord värdena för andra relevanta parametrar (nämligen förbehandlingstid, lagringsutrymme och frågetid). Ett viktigt papper av Thorup och Zwick [32] konstruerar de mest kända avstånd orakel. Nämligen, de visar att för varje heltal k, varje n-punkt metrisk utrymme har en (2k − 1)-ungefärlig avstånd oracle som kan förbehandlas i tid O n 2, kräver lagring O k · n 1+1/k, och har frågetid O (k). Dessutom framgår det i [32] att denna snedvridning/nedläggning av lagringen är så gott som snäv:
I samma anda, vår algoritm börjar också med att åberopa Mendel och Naor REF avstånd oracle för att få en initial distans uppskattning och sedan förfina den ungefärliga avståndet.
3,266,436
Ramsey partitions and proximity data structures
{'venue': 'J. European Math. Soc. 9(2): 253-275, 2007', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,050
Vi analyserar en klass av estimatorer baserade på konvex avslappning för att lösa högdimensionella matris sönderdelningsproblem. Observationerna är bullriga förverkliganden av en linjär omvandling X av summan av en (ungefär) matris med låg rankning och med en andra matris som är utrustad med en kompletterande form av lågdimensionell struktur; denna uppsättning innehåller många statistiska modeller av intresse, inklusive former av faktoranalys, multi-task regression med delad struktur, och robust kovariansuppskattning. Vi härleder en allmän teorem som ger övre gränser på Frobenius norm fel för en uppskattning av paret ( ska, och ) som erhålls genom att lösa en konvex optimering problem som kombinerar den nukleära normen med en allmän decomposable regularizer. Våra resultat är baserade på att införa ett "spikiness" tillstånd som är relaterat till men mildare än singular vektor inkonsistens. Vi specialiserar vårt allmänna resultat till två fall som har studerats i tidigare arbete: låg rank plus en entrywise gles matris, och låg rank plus en kolumnvis gles matris. För båda modellerna ger vår teori icke-asymptotiska Frobenius-felgränser för både deterministiska och stokastiska bullermatriser, och gäller för matriser som kan vara exakt eller ungefär låg rank, och matriser som kan vara exakt eller ungefär sparsamt. Dessutom, när det gäller stokastiska bullermatriser och identitetsobservation operatör, vi etablera matchande nedre gränser på minimax felet, visar att våra resultat inte kan förbättras utöver konstanta faktorer. Kraften i våra teoretiska förutsägelser bekräftas av numeriska simuleringar.
REF analysera nedbrytningen av en låg-rankad matris plus en annan matris med generaliserad struktur.
1,124,555
Noisy matrix decomposition via convex relaxation: Optimal rates in high dimensions
{'venue': 'Annals of Statistics 2012, Vol. 40, No. 2, 1171-1197', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,051
Domänanpassning syftar till att generalisera en högpresterande inlärare på en måldomän genom att utnyttja den kunskap som destilleras från en källdomän som har en annan men relaterad datadistribution. En lösning på domänanpassning är att lära sig domäninvarianta funktionsrepresentationer medan de lärda representationerna också bör vara diskriminerande i förutsägelser. För att lära sig sådana representationer, domänanpassning ramar inkluderar vanligtvis en domän invariant representation lärande för att mäta och minska domänen diskrepans, samt en discriminator för klassificering. Inspirerad av Wasserstein GAN föreslår vi i detta dokument ett nytt tillvägagångssätt för att lära sig domän invarianta funktioner representationer, nämligen Wasserstein Avstånd Guidad representation Lärande (WD-GRL). WDPRL använder ett neuralt nätverk, betecknat av domänkritikern, för att uppskatta empiriskt Wasserstein avstånd mellan källan och målprover och optimerar funktionen extraktor nätverk för att minimera den uppskattade Wasserstein avstånd på ett kontradiktoriskt sätt. De teoretiska fördelarna med Wasserstein avstånd för domänanpassning ligger i dess gradient egenskap och lovande generalisering bunden. Empiriska studier av gemensamma känslo- och bildklassificeringsdata visar att vår föreslagna WDGRL överträffar den toppmoderna domänen invariant representationsinlärning.
Shen m.fl. REF mätte avståndet mellan käll- och målområden i domänanpassningsuppgiften.
3,861,990
Wasserstein Distance Guided Representation Learning for Domain Adaptation
{'venue': 'AAAI', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,052
Vi löser ett problem med Dujmović, Eppstein, Suderman och Wood genom att visa att det finns en funktion f med egenskapen att varje planar graf G med maximal grad d medger en ritning med icke korsande raka kanter, med som mest f (d) olika sluttningar. Om vi tillåter kanterna att representeras av polygonala stigar med en böj, då 2d sluttningar räcker. Med två böjar per kant, kan varje plana graf med maximal grad d ≥ 3 ritas med hjälp av segment av högst 2 / 2 olika sluttningar. Det finns bara ett undantag: grafen som bildas av kanterna på en oktahedron är 4-regelbunden, men det kräver 3 sluttningar. Dessa gränser kan inte förbättras.
Som redan nämnts, Keszegh et al. REF har visat att varje k-planar graf medger en planritning med högst k 2 olika sluttningar där varje kant har högst två kurvor.
817,874
Drawing planar graphs of bounded degree with few slopes
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,054
Detta dokument beskriver InfoGAN, en informations-teoretisk förlängning till Generative Adversarial Network som kan lära sig disentrangerade representationer på ett helt oövervakat sätt. InfoGAN är ett generativt kontradiktoriskt nätverk som också maximerar den ömsesidiga informationen mellan en liten delmängd av de latenta variablerna och observationen. Vi får en lägre gräns för det ömsesidiga informationsmålet som kan optimeras effektivt. Specifikt, InfoGAN framgångsrikt löses skriva stilar från siffror former på MNIST dataset, posera från belysning av 3D renderade bilder, och bakgrundssiffror från den centrala siffran på SVHN datasetet. Den upptäcker också visuella begrepp som inkluderar frisyrer, närvaro / frånvaro av glasögon, och känslor på CelebA ansikte dataset. Experiment visar att InfoGAN lär sig tolkningsbara representationer som är konkurrenskraftiga med representationer som lärts av befintliga övervakade metoder.
Chen och Al. I Ref föreslås en objektiv funktion som bygger på en maximering av den ömsesidiga informationen.
5,002,792
InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,055
ABSTRACT Fler och fler nätverkstrafikdata har medfört stora utmaningar för det traditionella intrångsdetekteringssystemet. Detektionsprestandan är nära relaterad till utvalda funktioner och klassificeringar, men traditionella funktionsvalsalgoritmer och klassificeringsalgoritmer kan inte prestera bra i massiv datamiljö. Även de råa trafikuppgifterna är obalanserade, vilket har en allvarlig inverkan på klassificeringsresultaten. I detta dokument föreslår vi en ny modell för att upptäcka intrång i nätet med hjälp av konvolutionella neurala nätverk (CNN). Vi använder CNN för att välja trafikfunktioner från rådata uppsättningen automatiskt, och vi ställer in kostnadsfunktion vikt koefficienten för varje klass baserat på dess nummer för att lösa obalansen data set problem. Modellen minskar inte bara falsklarmfrekvensen (FAR) utan förbättrar också noggrannheten hos klassen med små tal. För att ytterligare minska beräkningskostnaden konverterar vi det råa trafikvektorformatet till bildformat. Vi använder standarddatauppsättningen NSL-KDD för att utvärdera prestandan hos den föreslagna CNN-modellen. De experimentella resultaten visar att noggrannheten, FAR och beräkningskostnaden för den föreslagna modellen presterar bättre än traditionella standardalgoritmer. Det är en effektiv och tillförlitlig lösning för att upptäcka intrång i ett massivt nätverk. INDEX TERMS Nätverk intrång upptäckt, konvolutionella neurala nätverk, bild dataformat konvertering, kostnadsfunktion vikt, obalanserad datauppsättning.
I REF föreslår författarna en ny nätinbrottsdetekteringsmodell med hjälp av konvolutionella neurala nätverk (CNN).
52,927,542
A Novel Intrusion Detection Model for a Massive Network Using Convolutional Neural Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
80,056
Inspirerad av de senaste framstegen med djupinlärning i till exempel segmentering och objektspårning, introducerar vi konceptet convnet-baserad vägledning som tillämpas på videoobjekt segmentering. Vår modell utgår per ram, vägledd av resultatet från den tidigare ramen mot föremålet av intresse i nästa ram. Vi visar att mycket exakt objekt segmentering i videor kan aktiveras genom att använda en convolutional neurala nätverk (convnet) tränas med statiska bilder endast. Den viktigaste komponenten i vår strategi är en kombination av offline och online lärande strategier, där den förra producerar en förfinad mask från den tidigare "ram uppskattning och den senare gör det möjligt att fånga utseendet på den specifika objekt instans. Vår metod kan hantera olika typer av indataanteckningar såsom avgränsande rutor och segment samtidigt som man utnyttjar en godtycklig mängd kommenterade ramar. Därför är vårt system lämpligt för olika applikationer med olika krav när det gäller noggrannhet och effektivitet. I vår omfattande utvärdering får vi konkurrenskraftiga resultat på tre olika datauppsättningar, oberoende av vilken typ av indata annotation.
MaskTrack REF anser att utgången av den tidigare ramen är en vägledning i nästa ram för att förfina masken.
3,155,322
Learning Video Object Segmentation from Static Images
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,057
LaMotte, Robert H. Mjukhet diskriminering med ett verktyg. J. Neurofysiol. 83: 1777Neurophysiol. 83: -1786Neurophysiol. 83:, 2000.............................................................................................................. Människans förmåga att diskriminera mjukheten hos gummiobjekt med olika överensstämmelse med ett handhållet verktyg (en stilus) mättes under experimentella förhållanden som skilde sig åt i fråga om hur verktyget användes och vilken typ av sensorisk information som fanns tillgänglig. När motivet aktivt knackade eller tryckte på de överensstämmande objekten, de diskriminerade mjukhet samt med hjälp av en stilus som de gjorde genom att kontakta objekten direkt med fingersatsen. Diskriminering med stylus påverkades inte av om stylusen kontrollerades med ett eller två fingrar. När man knackar eller trycker på en stylus som hålls i ett precisionsgrepp, ökade greppkraften tidigare, nådde ett maximum samtidigt som, och minskade parallellt med den kompressiva kraften. Detta förhållande var ett tecken på förutseende motorstyrning baserat på en intern modell av motorsystemet och de fysiska egenskaperna hos objektet. Diskriminering var betydligt bättre när man knackade i stället för att trycka på föremålen med stylus. Detta var hypothesized som på grund av närvaron av taktila signaler som genereras av den snabba ökningen av krafthastigheten som stylus slog och indragen objektet under tappning. Under tappningen var storleken och hastigheten av den kompressionskraft som stylusen producerade mot föremålet större, ju svårare objektet var. En ytterligare signal, möjligen kinetisk, under pressning och tappning var storleken på indenteringen av provet av stylus som var större, desto mjukare objektet. Försökspersoner skulle kunna diskriminera skillnader i mjukhet enbart genom taktila signaler i frånvaro av kinestetik när kompatibla föremål avlyssnades i ungefär samma hastighet av försökspersonen mot en stylus i kontakt med försökspersonens passiva fingerdyna. Diskrimineringen försämrades om det mjukare exemplaret av ett par knackades med en något högre hastighet än det hårdare och inte var möjligt om exemplaren pressades mot stylus utan att ge taktila signaler om mekanisk kontakt. Däremot var diskriminering möjlig vid aktiv pressning och opåverkad av variationer i hastigheten under aktiv pressning. Slutsatsen är att under aktiva rörelser, kinetisk information och kunskap om centrala efferent kommandon ger användbara signaler som inte finns vid passiv beröring. Dessa signaler gör det möjligt för observatören att diskriminera skillnader i objektöverensstämmelse inte förbryllas av skillnader i tillämpad hastighet. Ett föremåls mjukhet kan uppfattas med hjälp av ett verktyg, t.ex. genom att knacka eller trycka, vilket man lätt kan kontrollera med hjälp av en penna eller något annat stelt föremål som hålls i handen. Uppfattad mjukhet är den subjektiva bedömningen av ett objekts överensstämmelse, den mängd ett objekt deformeras som svar på en tillämpad kraft. Den effektiva användningen av ett verktyg kräver vanligtvis att man känner av de fysiska egenskaperna hos målobjektet som överförs via verktyget. När verktyget hålls i handen appliceras krafter via verktyget på objektet. Samtidigt appliceras krafter med handen på själva verktyget för att hålla greppet stabilt. När verktyget kontaktar objektet genereras tfaktiska signaler som ger information om objektets överensstämmelse och kanske andra fysiska egenskaper såsom dess form och struktur. Förnimmelse av sådana egenskaper, antingen genom tfaktiska eller andra sensoriska signaler, kan vara användbart för optimal undersökning eller manipulation av objektet med verktyget. De krafter som används på verktyget måste samordnas med de krafter som appliceras på objektet. Om greppkraften är otillräcklig för islagskraften på ett föremål, kan verktyget glida ur handen. Om verktygets kraft är för stor kan föremålet eller verktyget skadas. Även om sensoriska och motoriska processer i den fingerfärdiga manipuleringen av objekt har fått stor uppmärksamhet (Johansson 1996), är relativt lite känt om betydelsen av tfaktiska signaler i förhållande till de olika sätt på vilka ett verktyg används för att känna av föremålens geometriska och materiella egenskaper. I vilken utsträckning är kraften i att greppa ett verktyg samordnat med kraften som appliceras på ett objekt och hur förändras uppkomsten och användningen av sensoriska signaler med skillnader i verktygsanvändning, till exempel när man trycker i stället för att knacka verktyget mot det överensstämmande objektet? Faktiska signaler är helt klart viktiga när man känner av objektens fysiska egenskaper med hjälp av ett verktyg (t.ex. LaMotte et al. 1994; Wellman och Howe 1995). Men det saknas information om den specifika roll som taktila och kinetiska signaler spelar för diskrimineringen av mjukhet med hjälp av ett verktyg. I de nuvarande experimenten mättes människans förmåga att diskriminera mjukhet med hjälp av en stilus som ett generiskt verktyg under experimentella förhållanden som skilde sig åt i fråga om motorprestanda och vilken typ av sensorisk information som gjordes tillgänglig. M E T H O D S Metoder för konstruktion och mätning beskrevs i en tidigare studie där samma eller liknande föremål palperades med fingerplattan (Srinivasan och LaMotte 1995). De överensstämmande provexemplaren är tillverkade av transparent silikongummilösning (RTV 615, General Electric) blandad med varierande mängder spädningsvätska (RTV 910). Som varje prov var indragen med en plan ända cylindrisk sond (0,25 in. diam) vid en konstant indenteringshastighet på 0,5 mm/s gjordes samtidiga mätningar av kraft och förskjutning (Srinivasan och LaMotte 1995). Efterlevnaden definierades som den genomsnittliga lutningen för den ungefär linjära funktion som avser förskjutning till kraft. Efterlevnaden av de exemplar som användes i denna studie var (i m/mN): 0. 188, 0,278, 0,312, 0,407, 0,585, 0,692, 0,784, 0,946, 1.109 och 2.243. Dämpbarhetsdiskriminering mättes genom två testförfaranden. Under den första, försökspersoner tilläts att rangordna mjukheten av alla 10 exemplar, under en mängd olika experimentella förhållanden, genom att aktivt palpera varje prov, på ett naturligt sätt, antingen direkt med ett De kostnader för publicering av denna artikel var avskräckt delvis genom betalning av sidavgifter. Artikeln måste därför märkas med "reklam" i enlighet med 18 U.S.C. Avsnitt 1734 endast för att ange detta faktum.
När ett verktyg användes för prospektering, ytterligare kinestetiska signaler befanns vara nödvändiga för alla typer av objekt REF.
17,801,882
Softness Discrimination With a Tool
{'venue': 'Journal of neurophysiology', 'journal': 'Journal of neurophysiology', 'mag_field_of_study': ['Psychology', 'Medicine']}
80,058
Kärnrobotar utgör ett betydande hot mot datorsystemen eftersom de löper på högsta prioritetsnivå och har obegränsad tillgång till offrens resurser. Många pågående insatser inom kärnrootkitförsvar fokuserar på upptäckt av kärnrootkit - efter en rootkit attack har ägt rum, medan det mindre antalet insatser i kärnrootkit förebyggande uppvisar begränsningar i deras förmåga eller utplacering. I detta dokument presenterar vi ett kärnrootkit preventionssystem som heter NICKLE som behandlar en vanlig, grundläggande egenskap hos de flesta kärnrootkit: behovet av att köra sin egen kärnkod. NICKLE är ett lätt, virtuell maskinmonitor (VMM)-baserat system som på ett transparent sätt förhindrar exekvering av otillåten kärnkod för omodifierade operativsystem (gäster). NICKLE är baserat på ett nytt system som kallas minnesskuggning, där den betrodda VMM behåller ett skuggfysiskt minne för en körande VM och utför autentisering av kärnans kod i realtid så att endast autentiserad kärnkod lagras i skuggminnet. Dessutom leder NICKLE transparent gästkärnan instruktioner hämtar till skuggminnet på runtime. Genom att göra det garanterar NICKLE att endast den autentiserade kärnkoden kommer att köras, vilket omintetgör kärnans rootkitts försök att slå till från början. Vi har implementerat NICKLE i tre VMM-plattformar: QEMU+KQEMU, VMware Workstation och VirtualBox. Våra experiment med 23 verkliga kärnrootkit som riktar sig mot Linux eller Windows OS visar NICKLEs effektivitet. Dessutom visar vår prestandautvärdering att NICKLE introducerar små omgångar till VMM-plattformen (t.ex. < 2% till QEMU+KQEMU).
För att säkerställa detektionssystemens integritet krävs vanligtvis en virtuell maskinövervakare (VMM) särskilt för detektion av rootkit (t.ex. REF ).
497,050
Guest-Transparent Prevention of Kernel Rootkits with VMM-based Memory Shadowing
{'venue': 'In Proceedings of the 11th International Symposium on Recent Advances in Intrusion Detection (RAID', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,059
På senare tid har segmentering av fall utan förslag fått allt större uppmärksamhet på grund av dess koncisa och effektiva rörledning. Generellt ger förslagsfria metoder exempel-agnostiska semantiska segmenteringsetiketter och exempel-medvetna funktioner för att gruppera pixlar i olika objekt instanser. Tidigare metoder använder dock oftast separata moduler för dessa två deluppgifter och kräver flera passerkort för slutsats. Vi hävdar att behandlingen av dessa två deluppgifter var för sig är ooptimal. I själva verket minskar möjligheten att använda flera separata moduler avsevärt. De ömsesidiga fördelarna mellan de två kompletterande deluppgifterna är också outforskade. I detta syfte föreslås i detta arbete en metod för segmentering av en enda instans som är fri från förslag och som endast kräver ett enda godkännande för förutsägelse. Vår metod är baserad på en pixel-pair affinitet pyramid, som beräknar sannolikheten för att två pixlar tillhör samma instans på ett hierarkiskt sätt. Affiniteten pyramid kan också läras tillsammans med den semantiska klass märkning och uppnå ömsesidiga fördelar. Dessutom, införliva med den inlärda affinitet pyramiden, en ny kaskad graf partition modul presenteras för att sekventiellt generera fall från grov till fin. Till skillnad från tidigare tidskrävande graf partition metoder, denna modul uppnår 5× upphastighet och 9% relativ förbättring på genomsnittlig-precision (AP). Vår strategi uppnår ny toppmodernitet på det utmanande Cityscapes datasetet.
SSAP REF lär sig en pixelpair affinitet pyramid, sannolikheten för att två pixlar tillhör samma instans, och genererar fall i följd genom en kaskad graf partition.
202,537,006
SSAP: Single-Shot Instance Segmentation With Affinity Pyramid
{'venue': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'journal': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
80,060
Ridesharing är en lovande metod för att ta itu med transportproblem som trafikstockningar och parkering. Även om traditionella samåkning och taxiridning har undersökts av många, sluging, som en enkel men effektiv form av ridesharing, har inte varit välstuderade. I detta dokument definierar vi formellt det tröga problemet och dess generalisering. Vi ger bevis på deras beräkningstid komplexitet. För varianterna av det tröga problemet som begränsas av fordonets kapacitet och förseningar i restiden, bevisar vi NP-fullständighet och föreslår även några effektiva heuristiker. Dessutom diskuterar vi det dynamiska tröghetsproblemet. Vi utförde experiment med hjälp av en GPS-bana data som innehåller 60 tusen resor. De experimentella resultaten visar att våra föreslagna heuristiker kan uppnå nära-optimala prestationer, vilket innebär så mycket som 59 % besparing i fordonsresor.
I REF definierar Ma och Wolfson formellt det tröga problemet och föreslår en nästan optimal heuristisk för det matchande problemet med tanke på fordonets kapacitetsbegränsningar.
884,660
Analysis and evaluation of the slugging form of ridesharing
{'venue': "SIGSPATIAL'13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,061
Beräkningen för dagens intelligenta personliga assistenter som Apple Siri, Google Now och Microsoft Cortana utförs i molnet. Detta moln-enbart tillvägagångssätt kräver betydande mängder data som ska skickas till molnet över det trådlösa nätverket och sätter betydande beräkningstryck på datacenteret. Men när beräkningsresurserna i mobila enheter blir mer kraftfulla och energieffektiva uppstår frågor om huruvida denna molnbaserade behandling är önskvärd framåt, och vad är konsekvenserna av att driva en del eller alla av denna beräkning till de mobila enheterna på kanten. I detta dokument undersöker vi status quo-metoden för molnbaserad bearbetning och undersöker datadelningsstrategier som effektivt utnyttjar både cyklerna i molnet och den mobila enheten för att uppnå låg latens, låg energiförbrukning och hög datacenterkapacitet för denna klass av intelligenta applikationer. Vår studie använder 8 intelligenta applikationer som spänner över datorseende, tal, och naturliga språkdomäner, alla använder state-of-the-art Deep Neural Networks (DNNs) som kärnan maskininlärning teknik. Vi finner att med tanke på egenskaperna hos DNN-algoritmer, en finkornig, lagernivå-beräkning partitioneringsstrategi baserad på data och beräkningsvariationer för varje skikt i en DNN har betydande latens och energifördelar jämfört med status quo-metoden. Med hjälp av denna insikt designar vi Neurosurgeon, en lätt schemaläggare för att automatiskt partitionera DNN-beräkning mellan mobila enheter och datacenter vid granulariteten i neurala nätverkslager. Neurokirurg kräver inte profilering per applikation. Den anpassar sig till olika DNN-arkitekturer, hårdvaruplattformar, trådlösa nätverk och serverbelastningsnivåer, intelligent partitionera beräkning för tillstånd att göra digitala eller hårda kopior av hela eller delar av detta arbete för personligt eller klassrum användning beviljas utan avgift, förutsatt att kopior inte görs eller distribueras för vinst eller kommersiella fördelar och att kopior bär detta meddelande och den fullständiga hänvisning på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. Att kopiera på annat sätt, eller återpublicera, att posta på servrar eller att omfördela till listor, kräver tidigare specifik behörighet och / eller en avgift. Begär tillstånd från [email protected]. bästa latens eller bästa mobila energi. Vi utvärderar neurokirurgi på en toppmodern mobil utvecklingsplattform och visar att det förbättrar end-to-end latency med 3,1× i genomsnitt och upp till 40,7×, minskar mobil energiförbrukning med 59,5% i genomsnitt och upp till 94,7%, och förbättrar datacenter genomströmning med 1,5× i genomsnitt och upp till 6,7×.
Neurosurgeon REF identifierar när det är fördelaktigt (t.ex. när det gäller energiförbrukning och end-to-end latency) att avlasta ett DNN-lager som ska beräknas på molnet.
1,158,124
Neurosurgeon: Collaborative Intelligence Between the Cloud and Mobile Edge
{'venue': "ASPLOS '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,062
Ämnet semantisk segmentering har bevittnat betydande framsteg på grund av de kraftfulla egenskaper som lärts av konvolutionella neurala nätverk (CNN) [13]. De nuvarande ledande tillvägagångssätten för semantisk segmentering utnyttjar forminformation genom att extrahera CNN-funktioner från maskerade bildregioner. Denna strategi inför konstgjorda gränser på bilderna och kan påverka kvaliteten på de extraherade funktionerna. Dessutom kräver verksamheten på den råa bilddomänen att man beräknar tusentals nätverk på en enda bild, vilket är tidskrävande. I detta dokument föreslår vi att man utnyttjar forminformationen genom att maskera konvolutionella funktioner. Förslagssegmenten (t.ex. superpixlar) behandlas som masker på de konvolutionella huvudkartorna. CNN-funktionerna i segmenten är direkt maskerade från dessa kartor och används för att utbilda klassificeringar för igenkänning. Vi föreslår vidare en gemensam metod för att hantera föremål och "material" (t.ex. gräs, himmel, vatten) inom samma ram. Toppmoderna resultat visas på riktmärken för PASCAL VOC och nya PASCAL-CONTEXT, med en övertygande beräkningshastighet.
I REF, binära masker tillämpas på convolutional funktion kartor för att maskera ut bakgrundsregion.
206,593,096
Convolutional Feature Masking for Joint Object and Stuff Segmentation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,063
Trådlös kommunikation med obemannade luftfartyg (UAV) är en lovande teknik för framtida kommunikationssystem. I detta dokument, förutsatt att UAV flyger horisontellt med en fast höjd, studerar vi energieffektiv UAV-kommunikation med en markterminal genom att optimera UAV:s bana, ett nytt designparadigm som tillsammans tar hänsyn till både kommunikationsgenomströmningen och UAV:s energiförbrukning. För detta ändamål härleder vi först en teoretisk modell för framdrivningsenergiförbrukningen för fasta UAV som en funktion av UAV:s flyghastighet, riktning och acceleration. Baserat på den härledda modellen och genom att ignorera den strålning och signalbehandling energiförbrukningen, energieffektivitet UAV kommunikation definieras som den totala information bitar kommuniceras normaliseras av UAV framdrivningsenergi som förbrukas för en ändlig tidshorisont. När det gäller okonstruerad banoptimering visar vi att både hastighetsmaximering och energiminimering leder till att energieffektiviteten försvinner och därmed är energiineffektiv i allmänhet. Därefter introducerar vi en enkel cirkulär UAV-bana, under vilken UAV:s flygradie och hastighet är gemensamt optimerade för att maximera energieffektiviteten. Dessutom föreslås en effektiv konstruktion för att maximera UAV:s energieffektivitet med allmänna begränsningar på banan, inklusive dess initiala/slutliga platser och hastigheter, samt minimal/maximal hastighet och acceleration. Numeriska resultat visar att de föreslagna konstruktionerna uppnår betydligt högre energieffektivitet för UAV-kommunikation jämfört med andra referenssystem.
I REF studeras den energieffektiva konstruktionen för drönarkommunikation, där en drönare utnyttjas för att kommunicera med basstationen.
206,828,353
Energy-Efficient UAV Communication With Trajectory Optimization
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,064
Vi presenterar ett tillvägagångssätt för att identifiera en uppsättning kandidatobjekt i en given bild. Denna uppsättning kandidater kan användas för objektigenkänning, segmentering och andra objektbaserade bildtolkningsuppgifter. För att generera förslagen identifierar vi kritiska nivåuppsättningar i geodesiska avstånd transformerar beräknade för frön placerade i bilden. Fröna placeras av specialutbildade klassiatorer som är optimerade för att upptäcka föremål. Experiment visar att det framlagda tillvägagångssättet uppnår betydligt högre noggrannhet än alternativa tillvägagångssätt, till en bråkdel av beräkningskostnaden.
Krähenbühl och Koltun REF hittar objektförslag genom att identifiera kritiska nivåuppsättningar i geodesiska avstånd transformer, baserat på frön placerade på inlärda platser i bilden.
939,426
Geodesic Object Proposals
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,065
Abstract-I detta dokument, Vi genomför en detaljerad studie av YouTube CDN i syfte att förstå de mekanismer och policyer som används för att avgöra vilka datacenter användare ladda ner video från. Vår analys görs med hjälp av veckolånga datauppsättningar som samtidigt samlas in från kanten av fem nätverk - två universitetsområden och tre ISP-nätverk - som finns i tre olika länder. Vi använder toppmoderna fördröjningsbaserade geolokaliseringstekniker för att hitta den geografiska platsen för YouTube-servrar. En unik aspekt av vårt arbete är att vi utför vår analys av grupper av relaterade YouTube-flöden. Detta gör det möjligt för oss att dra slutsatser om viktiga aspekter av systemets utformning som skulle vara svåra att få fram genom att betrakta enskilda flöden isolerat. Våra resultat visar att medan RTT mellan användare och datacenter spelar en roll i urvalsprocessen videoserver, en mängd andra faktorer kan påverka detta val inklusive belastningsbalansering, dygnseffekter, variationer mellan DNS-servrar inom ett nätverk, begränsad tillgänglighet av sällan tillgängliga video, och behovet av att lindra hot-spots som kan uppstå på grund av populärt videoinnehåll.
Torres m.fl. REF fann att en mängd olika faktorer som RTT mellan klienter och videoinnehållsservrar, lastbalansering, variationer mellan DNS-servrar inom ett nätverk och video popularitet kan påverka urvalsprocessen för videoinnehållsserver i YouTube.
13,523,804
Dissecting Video Server Selection Strategies in the YouTube CDN
{'venue': '2011 31st International Conference on Distributed Computing Systems', 'journal': '2011 31st International Conference on Distributed Computing Systems', 'mag_field_of_study': ['Computer Science']}
80,066
Användningen av heterogena flerkärniga arkitekturer har ökat på grund av deras potentiella energieffektivitet jämfört med de homogena flerkärniga arkitekturerna. Övergången från homogen flerkärnig till heterogen flerkärnig arkitektur skapar många utmaningar för schemaläggning av applikationer på det heterogena flerkärnsystemet. I detta dokument studeras den energieffektiva schemaläggningen på Intels heterogena prototypplattform QuickIA [6]. En regressionsmodell utvecklas för att uppskatta energiförbrukningen på den verkliga heterogena multikärnplattformen. Vårt schemaläggningssätt kartlägger programmet till den lämpligaste kärnan, baserat på programfaser, genom en kombination av statisk analys och körtidsschema. Vi visar energieffektiviteten i vår fasbaserade schemaläggningsmetod genom att jämföra den med den statiska kartläggningsmetod som föreslås i [5] och den periodiska provtagning baserad metod som föreslås i [11], De experimentella resultaten visar att vårt schemaläggningssystem kan uppnå en genomsnittlig 10,20% minskning av energifördröjning produkt jämfört med [5] och en genomsnittlig 19,81% minskning av energifördröjning produkt jämfört med [11].
Cong m.fl. REF föreslår en teknik för energiskattning på Intels heterogena plattform QuickIA.
7,943,747
Energy-efficient scheduling on heterogeneous multi-core architectures
{'venue': "ISLPED '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,067
Frihandsskissbaserad bildsökning (SBIR) är en specifik hämtningsuppgift för korsvyer, där frågor är abstrakta och tvetydiga skisser medan hämtningsdatabasen bildas med naturliga bilder. Arbetet inom detta område fokuserar främst på att extrahera representativa och delade funktioner för skisser och naturliga bilder. Dessa kan dock varken klara av den geometriska förvrängningen mellan skisser och bilder eller vara möjliga för storskaliga SBIR på grund av den tunga kontinuerliga avståndsberäkningen. I detta dokument påskyndar vi SBIR genom att införa en ny binär kodningsmetod, kallad Deep Sketch Hashing (DSH), där en semi-heterogen djup arkitektur föreslås och införlivas i en end-to-end binär kodning ram. Specifikt, tre konvolutionella neurala nätverk används för att koda fri-hand skisser, naturliga bilder och, särskilt, de extra skiss-tokens som antas som broar för att mildra skiss-bild geometrisk förvrängning. De lärda DSH-koderna kan effektivt fånga de korsvisa likheterna samt de inneboende semantiska korrelationerna mellan olika kategorier. Såvitt vi vet är DSH det första hasharbetet speciellt utformat för kategorinivå SBIR med en end-to-end djup arkitektur. Den föreslagna DSH utvärderas utförligt på två storskaliga datauppsättningar av TU-Berlin Extension och Sketchy, och experimenten visar konsekvent DSH:s överlägsna S-BIR-accuracies över flera toppmoderna metoder, samtidigt som man uppnår betydligt minskad hämtningstid och minnesavtryck.
Liu m.fl. REF föreslog djupskisshashing (DSH) för frihandsskissbaserad bildsökning.
4,285,461
Deep Sketch Hashing: Fast Free-Hand Sketch-Based Image Retrieval
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,068
: Vi bäddade tillsammans in former och bilder av tre kategorier (stol, flygplan och bil) i ett gemensamt utrymme. Avstånden mellan enheter i det högdimensionella inbäddningsutrymmet återspeglar objektlikheter mellan former och bilder (visualiserade av t-SNE här). Både 3D-modeller och 2D-bilder innehåller en mängd information om vardagsföremål i vår miljö. Det är dock svårt att semantiskt länka samman dessa två medieformer, även när de har identiska eller mycket liknande objekt. Vi föreslår ett gemensamt inbäddat utrymme befolkat av både 3D-former och 2D-bilder av objekt, där avstånden mellan inbäddade enheter återspeglar likheten mellan de underliggande objekten. Detta gemensamma inbäddningsutrymme underlättar jämförelser mellan enheter av båda formerna och möjliggör hämtning mellan olika transportsätt. Vi konstruerar inbäddningen utrymme med 3D form likhet mäter, eftersom 3D former är mer ren och komplett än deras utseende i bilder, vilket leder till mer robust avståndsmått. Vi använder sedan ett Convolutional Neural Network (CNN) för att "rena" bilder genom att stänga av distraherande faktorer. CNN tränas att kartlägga en bild till en punkt i inbäddningsutrymmet, så att den är nära en punkt som tillskrivs en 3D-modell av ett liknande objekt som den som avbildas i bilden. Denna renande förmåga hos CNN uppnås med hjälp av en stor mängd träningsdata som består av bilder syntetiserade från 3D-former. Vår gemensamma inbäddning möjliggör cross-view bild hämtning, bildbaserad form hämtning, samt form-baserad bild hämtning. Vi utvärderar vår metod för dessa hämtningsuppgifter och visar att den konsekvent överträffar toppmoderna metoder, och visar användbarheten av en gemensam inbäddning i ett antal ytterligare applikationer.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF producerar gemensamma inbäddningar av former och bilder, som är användbara för formbaserad bildsökning.
4,311,592
Joint embeddings of shapes and images via CNN image purification
{'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,069
Språk används i allt högre grad för att definiera synproblem med stöd för bildsamlingar som hämtas från webben. Strukturerade förutsägelsemodeller används i dessa uppgifter för att dra nytta av korrelationer mellan co-occurring etiketter och visuell inmatning men riskerar att oavsiktligt koda sociala fördomar som finns i webbkorpora. I detta arbete studerar vi data och modeller förknippade med multimärkning av objekt och visuell semantisk rollmärkning. Vi finner att a) datauppsättningar för dessa uppgifter innehåller betydande könsfördomar och b) modeller som är utbildade på dessa datauppsättningar ytterligare förstärker befintliga förutfattade meningar. Till exempel är aktiviteten matlagning mer än 33% mer sannolikt att involvera kvinnor än män i ett träningsset, och en utbildad modell ytterligare förstärker skillnaden till 68% vid testtid. Vi föreslår att ingjuta corpus-nivå begränsningar för kalibrering av befintliga strukturerade förutsägelser modeller och designa en algoritm baserad på Lagrangian avkoppling för kollektiv inferens. Vår metod resulterar i nästan ingen prestandaförlust för den underliggande igenkänningsuppgiften men minskar omfattningen av snedförstärkning med 47,5 % respektive 40,5 % för multimärkningsklassificering respektive visuell semantisk rollmärkning.
I REF ingår begränsningar på corpus-nivå för att undvika att förstärka könsfördomar när det gäller visuell semantisk rollmärkning och klassificering med flera märken.
1,389,483
Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,070
I detta dokument presenterar vi rapporten och resultaten av den gemensamma uppgiften om Aggression Identification som anordnades som en del av den första workshopen om trolling, Aggression och cybermobbning (TRAC -1) vid COLING 2018. Uppgiften var att utveckla en klassificerare som kunde diskriminera mellan overtly Aggressive, covert Aggressive, och icke-aggressiva texter. För denna uppgift, deltagarna fick en datauppsättning på 15,000 aggression-annoterade Facebook Posts och Kommentarer var i Hindi (i både Roman och Devanagari manus) och engelska för utbildning och validering. För testning, två olika uppsättningar - en från Facebook och en från en annan sociala medier - tillhandahölls. Totalt 130 lag registrerade sig för att delta i uppgiften, 30 lag lämnade in sina testkörningar, och slutligen 20 lag skickade också sina systembeskrivning papper som ingår i TRAC workshop förfarande. Det bästa systemet fick en viktad F-poäng på 0,64 för både hindi och engelska på Facebook testuppsättningar, medan de bästa poäng på överraskningsuppsättningen var 0,60 och 0,50 för engelska respektive hindi. De resultat som presenteras i denna rapport visar hur utmanande uppgiften är. Det positiva gensvaret från samhället och det stora deltagandet i den första upplagan av denna gemensamma uppgift belyser också intresset för detta ämne.
TRAC delade uppgiften om Aggression Identification, en datauppsättning på över 15 000 Facebook kommentarer märkta med olika nivåer av aggression, släpptes som en del av en konkurrens REF.
59,336,626
Benchmarking Aggression Identification in Social Media.
{'venue': 'TRAC@COLING 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,071
Mobile-edge computing (MEC) är ett framväxande paradigm för att möta de ständigt ökande kraven på beräkning från mobila applikationer. Genom att avlasta den beräkningsintensiva arbetsbelastningen till MEC-servern kan kvaliteten på beräkningsupplevelsen, t.ex. exekveringslatensen, förbättras avsevärt. Eftersom batterikapaciteten på enheten är begränsad, skulle dock beräkningen avbrytas när batteriets energi tar slut. För att ge tillfredsställande beräkningsprestanda och uppnå grön databehandling är det av stor betydelse att söka förnybara energikällor för att driva mobila enheter via energiskördsteknik. I detta dokument kommer vi att undersöka ett grönt MEC-system med EH-enheter och utveckla en effektiv avlastningsstrategi. Exekveringskostnaden, som tar upp både genomförande latency och uppgiftsfel, antas som prestandamått. En låg-komplexitet online-algoritm, nämligen Lyapunov optimering-baserad dynamisk beräkning offloading (LODCO) algoritm föreslås, som gemensamt beslutar avlastning beslut, CPU-cykel frekvenser för mobilt utförande, och sändningseffekt för beräkning offloading. En unik fördel med denna algoritm är att besluten endast beror på den ögonblickliga sidan information utan att kräva distribution information om begäran om beräkning uppgift, den trådlösa kanalen, och EH processer. Genomförandet av algoritmen kräver bara att lösa ett deterministiskt problem i varje tidsrymd, för vilken den optimala lösningen kan erhållas antingen i sluten form eller genom bisektionssökning. Dessutom visas att den föreslagna algoritmen är asymptotiskt optimal genom noggrann analys. Resultaten av provsimuleringen ska presenteras för att verifiera den teoretiska analysen och validera den föreslagna algoritmens effektivitet. Mobil-edge computing, energi skörd, dynamisk spänning och frekvensskalning, effektstyrning, QoE, Lyapunov optimering. Författarna är med
föreslog en låg-komplexitet online-algoritm för att gemensamt bestämma avlastningsstrategin, CPU cykelfrekvens och överföringskraft för att uppnå en asymptotiskt optimal genomförandekostnad i REF.
14,777,050
Dynamic Computation Offloading for Mobile-Edge Computing with Energy Harvesting Devices
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,072
Hårdvarudesign, programvaruarkitektur och kärnalgoritmer för en bimanuell mobil manipulatorVutvecklad för att utföra användbara uppgifter för och med människorVare beskriven i denna uppsats. Carnegie Mellon University, Pittsburgh, PA. Vi har utvecklat HERB 2.0 för att utföra användbara uppgifter för och med människor i mänskliga miljöer. Vi utnyttjar två viktiga paradigm i mänskliga miljöer: att de har en struktur som en robot kan lära sig, anpassa och utnyttja, och att de kräver allmän förmåga i robotsystem. I denna uppsats avslöjar vi några av de strukturer som finns i vardagsmiljöer som vi har kunnat utnyttja för manipulering och interaktion, kommentera de särskilda utmaningarna med att arbeta i mänskliga utrymmen och beskriva några av de lärdomar vi lärt oss av att grundligt testa vår integrerade plattform i köks- och kontorsmiljöer.
e HERB 2.0 REF består av en tvåhands mobil manipulator som kan utföra användbara uppgifter för och med människor i mänskliga miljöer.
2,214,029
Herb 2.0: Lessons Learned From Developing a Mobile Manipulator for the Home
{'venue': 'Proceedings of the IEEE', 'journal': 'Proceedings of the IEEE', 'mag_field_of_study': ['Engineering', 'Computer Science']}
80,073
Detta dokument tar upp problemet med att uppskatta djupkartan för en scen med en enda RGB-bild. Vi föreslår en helt konvolutionell arkitektur, som omfattar resterande lärande, för att modellera den tvetydiga kartläggningen mellan monokulära bilder och djupkartor. För att förbättra utdataupplösningen presenterar vi ett nytt sätt att på ett effektivt sätt lära sig kartsampling inom nätverket. För optimering introducerar vi den omvända Huberförlusten som är särskilt lämplig för den aktuella uppgiften och driven av de värdefördelningar som vanligen finns på djupkartor. Vår modell består av en enda arkitektur som är utbildad end-toend och inte förlitar sig på efterbehandlingstekniker, såsom CRFs eller andra ytterligare förfining steg. Som ett resultat, det körs i realtid på bilder eller videor. I utvärderingen visar vi att den föreslagna modellen innehåller färre parametrar och kräver färre utbildningsdata än den senaste tekniken, samtidigt som man överträffar alla infallsvinklar på djupuppskattning. Kod och modeller är allmänt tillgängliga 5.
I REF föreslogs ett resterande nät med uppsamplingsmoduler för att ta fram kartor med högre upplösningsdjup.
11,091,110
Deeper Depth Prediction with Fully Convolutional Residual Networks
{'venue': '2016 Fourth International Conference on 3D Vision (3DV)', 'journal': '2016 Fourth International Conference on 3D Vision (3DV)', 'mag_field_of_study': ['Computer Science']}
80,074
Abstract-Trust och rykte för webbtjänster framträder som en viktig forskningsfråga i valet av webbtjänster. Nuvarande förtroendemodeller för webbtjänster varken integrerar olika viktiga källor till förtroende (t.ex. subjektiva och objektiva), eller fokuserar inte på att uppfylla olika användares krav på olika kvalitet på tjänster (QoS) attribut såsom prestanda, tillgänglighet etc. I detta dokument föreslår vi en Bayesian nätverk förtroende och rykte modell för webbtjänster som kan övervinna sådana begränsningar genom att överväga flera faktorer när man bedömer webbtjänsters förtroende: direkta åsikter från truster, användarbetyg ( subjective view) och QoS övervakning information (objektiv vy). Vår övergripande strategi tar också upp problemen med användarnas preferenser och flera QoS-baserade förtroende genom att ange olika villkor för Bayesian nätverket och mål för att bygga en rimlig trovärdighet modell för taxare av webbtjänster.
REF föreslog en förtroende- och ryktesmodell baserad på Bayesianskt nätverk för webbtjänster.
4,422,314
A Trust and Reputation Model Based on Bayesian Network for Web Services
{'venue': '2010 IEEE International Conference on Web Services', 'journal': '2010 IEEE International Conference on Web Services', 'mag_field_of_study': ['Computer Science']}
80,075
Abstract-Uppkomsten av Internet of Things (IoT) deltar i ökningen av data-och energihungriga applikationer. Eftersom anslutna enheter ännu inte erbjuder tillräckligt med kapacitet för att upprätthålla dessa program, utför användare beräkning avlastning till molnet. För att undvika flaskhalsar i nätet och minska kostnaderna i samband med datarörelser har kantmolnslösningar börjat användas, vilket förbättrar tjänstens kvalitet. I detta dokument förespråkar vi att utnyttja produktion av förnybar energi på plats i de olika kantmoln noderna till gröna IoT-system samtidigt som vi erbjuder förbättrad QoS jämfört med kärnmolnlösningar. Vi föreslår en analytisk modell för att avgöra om man ska avlasta beräkningen från objekten till kanten eller till kärnan Cloud, beroende på tillgången på förnybar energi och den önskade applikationen QoS. Denna modell är validerad på vårt applikationsanvändarcase som behandlar videoflödesanalys från fordonskameror.
I REF, författarna förespråkade för att utnyttja produktion på plats förnybar energi i de olika edge computing noder för att möjliggöra grönare IoT-system samtidigt erbjuder förbättrad QoS jämfört med kärnan moln strategier.
28,611,722
Leveraging Renewable Energy in Edge Clouds for Data Stream Analysis in IoT
{'venue': '2017 17th IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing (CCGRID)', 'journal': '2017 17th IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing (CCGRID)', 'mag_field_of_study': ['Computer Science']}
80,076
Trådlösa Sensornätverk (WSN) består av små noder med avkänning, beräkning och trådlös kommunikation. Många routing-, power management- och dataspridningsprotokoll har utformats särskilt för WSN där energimedvetenhet är en viktig designfråga. Fokus har dock lagts på routingprotokollen som kan skilja sig åt beroende på applikation och nätverksarkitektur. I detta dokument presenterar vi en undersökning av de senaste routingteknikerna i WSN. Vi beskriver först designutmaningarna för routing protokoll i WSNs följt av en omfattande undersökning av olika routing tekniker. På det hela taget klassificeras routingteknikerna i tre kategorier baserade på den underliggande nätverksstrukturen: platt, hierarkisk och platsbaserad routing. Dessutom kan dessa protokoll klassificeras i multipatbaserade, frågebaserade, förhandlingsbaserade, QoS-baserade och sammanhängande baserade beroende på protokolldriften. Vi studerar designen kompromisser mellan energi och kommunikation overhead besparingar i varje routing paradigm. Vi lyfter också fram fördelarna och prestandafrågorna med varje routingteknik. Dokumentet avslutas med möjliga framtida forskningsområden.
Dessutom presenteras en omfattande undersökning av routing tekniker som föreslås för trådlösa sensornätverk också av REF.
1,236,072
Routing Techniques in Wireless Sensor Networks: A Survey
{'venue': 'IEEE Wireless Communications', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,077
Abstract-Processen att tilldela ett kvantitativt värde till en text som uttrycker en stämning eller effekt kallas Sentiment analys. Jämförelse av flera maskininlärning, funktion utvinning metoder, och parameteroptimering gjordes för att uppnå bästa noggrannhet. I detta dokument föreslås ett tillvägagångssätt för att extrahera jämförelsevärdet av känslor granskning med hjälp av tre funktioner extraktion: Word2vek, Doc2vek, Termer FrequencyInverse Document Frequency (TF-IDF) med maskininlärning klassificering algoritmer, såsom Support Vector Machine (SVM), Naive Bayes och Decision Tree. Rutnätssökningsalgoritm används för att optimera funktionens extraktions- och klassificeringsparameter. Prestanda hos dessa klassificeringsalgoritmer utvärderas baserat på noggrannhet. Det tillvägagångssätt som används i denna forskning lyckades öka klassificeringsnoggrannheten för alla funktionsextraktioner och klassificeringar med hjälp av nätsökningshyperparameteroptimering på varierande förbehandlade data.
I studie REF, författarna använde rutnätssökning algoritmer för parameteroptimering av maskininlärning algoritmer och funktion utvinningsmetoder.
106,404,940
Optimizing the Hyperparameter of Feature Extraction and Machine Learning Classification Algorithms
{'venue': None, 'journal': 'International Journal of Advanced Computer Science and Applications', 'mag_field_of_study': ['Computer Science']}
80,078
ABSTRACT Användarintegriteten måste betraktas som högsta prioritet i distribuerade nätverk. För att skydda användarnas identitet presenterades attributbaserad kryptering (ABE) av Sahai et al. ABE har använts i stor utsträckning i många scenarier, särskilt i molntjänster. I detta dokument sammanställs nyckelkryptering med jämlikhetstest med nyckelpolicy ABE (KP-ABE) för att presentera KP-ABE med jämlikhetstest (KP-ABEwET). Det föreslagna systemet erbjuder inte bara finkorniga tillstånd för chiffertexter utan skyddar också användarnas identiteter. I motsats till ABE med sökordssökning kan KP-ABEwET testa om chiffertexterna som krypterats av olika öppna nycklar innehåller samma information. Dessutom är godkännandeprocessen för det föreslagna systemet mer flexibel än Ma et al.Det är en plan. Dessutom uppnår det föreslagna systemet envägs-mot-valt-chiffertext attack baserat på den bilinjära Diffie-Hellman (BDH) antagande. Dessutom föreslås i detta dokument ett nytt beräkningsproblem som kallas "twin-decision BDH"-problemet (tDBDH). tDBDH har visat sig vara lika svårt som det beslutande BDH-problemet. Slutligen, för första gången, säkerhetsmodellen för auktorisation tillhandahålls, och säkerheten för auktorisation som bygger på tDBDH antagandet är bevisad i den slumpmässiga orakle modellen. Molntjänst, attributbaserad kryptering, kryptering med öppen nyckel, jämlikhetstest, sökordssökning.
Kombinerad KP-ABE med jämlikhetstest, Zhu et al. I REF föreslogs ett nytt KP-ABE-ET-system.
27,745,379
Key-Policy Attribute-Based Encryption With Equality Test in Cloud Computing
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
80,079
I detta arbete utvärderar vi direkt två PGAS-programmeringsmodeller, CAF och OpenSHMEM, som kandidatteknik för att förbättra prestanda och skalbarhet för vetenskapliga tillämpningar på framtida exaskala HPC-plattformar. PGAS-strategier anses av många utgöra en lovande forskningsriktning med potential att lösa några av de befintliga problemen som hindrar kodbaser från att skalas upp till exaskalanivå. Syftet med detta arbete är att bättre informera om exacsaleplaneringen vid stora HPC-center som AWE. Sådana organisationer investerar betydande resurser för att upprätthålla och uppdatera befintliga vetenskapliga kodbaser, av vilka många inte var utformade för att köras i den skala som krävs för att nå exaskalanivåer för beräkningsprestanda på framtida systemarkitekturer. Vi dokumenterar vår strategi för att genomföra en nyligen utvecklad Lagrangian-Eulerian explicit hydrodynamics mini-applicering på vart och ett av dessa PGAS språk. Dessutom presenterar vi också våra resultat och erfarenheter av att skala dessa olika tillvägagångssätt till hög nod räknas på två state-of-the-art, stora systemarkitekturer från Cray (XC30) och SGI (ICE-X), och jämför deras nytta med en motsvarande befintlig MPI-implementation.
Mallinson m.fl. jämföra prestandan hos två PGAS-programmeringsmodeller (OpenSHMEM och Co-Array Fortran) mot MPI med hjälp av CloverLeaf, en Lagrangian-Eulerian hydrodynamics mini-application REF.
2,922,688
Experiences at scale with PGAS versions of a Hydrodynamics application
{'venue': 'PGAS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,080
Metoder för djupa neurala nätverk (DNN) har nyligen visat överlägsen prestanda på ett antal naturliga språk bearbetning uppgifter. I de flesta tidigare arbeten är modellerna dock inlärda på antingen oövervakade mål, som inte direkt optimerar den önskade uppgiften, eller singeluppgiftsövervakade mål, som ofta lider av otillräckliga utbildningsdata. Vi utvecklar en multi-task DNN för lärande representationer över flera uppgifter, inte bara utnyttja stora mängder kors-task data, men också dra nytta av en legalisering effekt som leder till mer allmänna representationer för att hjälpa uppgifter på nya områden. Vår multi-task DNN metod kombinerar uppgifter med flera domäner klassificering (för frågeklassificering) och informationssökning (rankning för webbsökning), och visar betydande vinster över starka baslinjer i en omfattande uppsättning domänanpassning.
REF kombinerar framgångsrikt uppgifterna frågeklassificering och rankning för webbsökning med hjälp av ett djupt multi-task neuralt nätverk.
11,754,890
Representation Learning Using Multi-Task Deep Neural Networks for Semantic Classification and Information Retrieval
{'venue': 'HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,081
Motståndskraftiga inlärningsmetoder är ett lovande sätt att träna robusta djupa nätverk och kan generera komplexa prover över olika områden. De kan också förbättra igenkännandet trots förekomsten av domänskifte eller dataset-fördomar: de senaste kontradiktoriska tillvägagångssätten för oövervakad domänanpassning minskar skillnaden mellan utbildnings- och testdomändistributioner och förbättrar därmed generaliseringens prestanda. Men även om generativa kontradiktoriska nätverk (GAN) visar övertygande visualiseringar, är de inte optimala på diskriminerande uppgifter och kan begränsas till mindre skift. Å andra sidan kan diskriminativa metoder hantera större domänskiften, men tvinga på bundet vikter på modellen och inte utnyttja en GAN-baserad förlust. I detta arbete skisserar vi först en ny generaliserad ram för kontradiktorisk anpassning, som tar upp den senaste tidens moderna tillvägagångssätt som specialfall, och använder denna generaliserade syn för att bättre relatera tidigare tillvägagångssätt. Vi föreslår sedan en tidigare outforskad instans av vårt allmänna ramverk som kombinerar diskriminerande modellering, obundet viktdelning, och en GAN-förlust, som vi kallar Adversarial Discriminative Domain Adaptation (ADDA). Vi visar att ADA är effektivare men betydligt enklare än konkurrerande domänadversariella metoder, och visar löftet om vårt tillvägagångssätt genom att överskrida toppmoderna oövervakade anpassningsresultat på standarddomänanpassningsuppgifter samt en svår funktion för klassificering av objekt med olika transportsätt.
Adversarial Discriminative Domain Adaptation (ADDA) REF använder GAN tillsammans med viktdelning för att lära sig domäninvarianta funktioner.
4,357,800
Adversarial Discriminative Domain Adaptation
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,082
: Från en rå scan med betydande saknade data, vår algoritm extraherar en komplett kurva skelett, visas i mitten. RBF ytrekonstruktion kan härleda fel yttopologi från den ursprungliga inmatningen, samtidigt som man lyckas med hjälp av kurvskelettet. Vi presenterar en algoritm för kurva skelett extraktion från ofullkomliga punktmoln där stora delar av data kan saknas. Vår konstruktion är främst baserad på en ny uppfattning om generaliserad rotationssymmetriaxel (ROSA) av en orienterad punktuppsättning. Speciellt, med tanke på en delmängd S av orienterade punkter, introducerar vi en variationsdefinition för en orienterad punkt som är mest rotationsmässigt symmetrisk med avseende på S. Vår formulering använder effektivt normal information för att kompensera för de saknade data och leder till robust kurva skelett beräkning över regioner av en form som i allmänhet är cylindriska. Vi presenterar en iterativ algoritm via planar nedskärningar för att beräkna ROSA i ett punktmoln. Detta kompletteras med särskild hantering av icke-cylindriska gemensamma regioner för att erhålla en centrerad, topologiskt ren, och komplett 1D skelett. Vi visar att kvalitetskurva skelett kan extraheras från en mängd olika former fångas av ofullständiga punktmoln. Slutligen visar vi hur vår algoritm hjälper i form slutförande under dessa utmaningar genom att utveckla en skelettdriven punkt molnet slutförande schema.
REF bygger på begreppet generaliserad rotationssymmetriaxel för robust kurvaskelettextraktion.
1,664,563
Curve skeleton extraction from incomplete point cloud
{'venue': "SIGGRAPH '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,083
World Wide Web utvecklas inte bara som en infrastruktur för data, utan också för ett bredare utbud av resurser som i allt högre grad görs tillgängliga som webbtjänster. Relevanta nuvarande standarder som UDDI, WSDL och SOAP är under sina nya år och utgör grunden för att göra webbtjänster till en fungerande och allmänt accepterad teknik. Om man emellertid inser att löftet om webbtjänster och tillhörande tjänsteorienterad arkitektur är mer omfattande, kommer man att kräva ytterligare tekniska framsteg inom områdena tjänsteinteroperation, tjänsteupptäckt, tjänstesammansättning och processorkestrering. Semantik, särskilt som det stöds av ontologier och relaterad Semantisk webbteknik, kommer sannolikt att ge bättre kvalitativa och skalbara lösningar för dessa krav. Precis som semantisk notering av data i den semantiska webben är det första avgörande steget för bättre sökning, integration och analys över heterogena data, är semantisk notering av webbtjänster ett lika viktigt första steg för att uppnå ovanstående löfte. Vår strategi är att arbeta med befintlig webbtjänstteknik och kombinera dem med idéer från Semantic Web för att skapa ett bättre ramverk för webbtjänstupptäckt och komposition. I detta dokument presenterar vi MWSAF (METEOR-S Web Service Annotation Framework), ett ramverk för halvautomatisk märkning av webbtjänstbeskrivningar med ontologier. Vi har utvecklat algoritmer för att matcha och kommentera WSDL-filer med relevanta ontologier. Vi använder domän ontologier för att kategorisera webbtjänster till domäner. En empirisk studie av vårt tillvägagångssätt presenteras för att hjälpa till att utvärdera dess resultat.
METEOR-S REF är ett ramverk för att kommentera WSDL-beskrivningar med semantiska metadata.
1,542,044
Meteor-s web service annotation framework
{'venue': "WWW '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,084
Routing i fordonsnätverk är en utmanande uppgift på grund av egenskapen av intermittent anslutning, särskilt när noder beter sig själviskt i den verkliga världen. Tidigare verk antar vanligtvis att alla noder i nätverket är villiga att vidarebefordra paket för andra, vilket är opraktiskt i verkliga världen. Själviska beteenden av noder skulle försämra nätverksprestanda kraftigt. I detta dokument föreslår vi SCR, ett socialt bidragsbaserat routing protokoll, för själviska fordonsnätverk. Vid beslut om vidarebefordran tar SCR hänsyn till både sannolikheten för leverans till destinationen och de sociala avgifterna för relänoden. Sannolikheten för leverans bestäms av de sociala relationerna mellan noder och sociala bidrag används som incitament för att stimulera själviska noder att bli mer kooperativa, som består av ömsesidiga bidrag och gemenskapsbidrag. Noden med högre leverans sannolikhet och lägre sociala avgifter är den föredragna kandidaten för nästa humle. Simuleringsresultat visar att SCR uppnår bättre resultat än andra sociala routingprotokoll med incitamentssystemet.
Tidningen om socialt bidrag från Gong m.fl. REF, belyser de giriga noder i fordonsnätverket bidrar till leverans av data.
19,524,261
Social Contribution-Based Routing Protocol for Vehicular Network with Selfish Nodes
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
80,085
Vi betraktar problemet med oövervakad domänanpassning i semantisk segmentering. En nyckel i denna kampanj består i att minska domänbytet, dvs. se till att datadistributionen av de två domänerna blir likartad. En av de gemensamma strategierna är att anpassa marginalfördelningen i funktionsutrymmet genom kontradiktoriskt lärande. Denna övergripande anpassningsstrategi tar dock inte hänsyn till den gemensamma fördelningen på kategorinivå. En möjlig konsekvens av en sådan global rörelse är att vissa kategorier som ursprungligen är väl anpassade mellan källan och målet kan vara felaktigt kartlagda, vilket leder till sämre segmenteringsresultat i måldomänen. För att ta itu med detta problem inför vi ett kontradiktoriskt nätverk på kategorinivå som syftar till att upprätthålla lokal semantisk enhetlighet under utvecklingen av global anpassning. Vår idé är att ta en närmare titt på kategori-nivå gemensam distribution och anpassa varje klass med en adaptiv kontraarial förlust. Särskilt minskar vi vikten av den kontradiktoriska förlusten för kategori-nivåanpassade funktioner samtidigt som den kontradiktoriska kraften ökar för dem som är dåligt anpassade. I denna process bestämmer vi hur väl en funktion är kategorinivå anpassad mellan källa och mål genom en gemensam utbildningsmetod. I två domänanpassningsuppgifter, dvs. GTA5 → Stadslandskap och SYN-THIA → Stadslandskap, validerar vi att den föreslagna metoden matchar toppmodern i segmenteringsnoggrannhet.
För att lindra detta problem, Luo et al. föreslå ett kontradiktoriskt nätverk på kategorinivå för att uppmuntra lokal semantisk konsekvens genom att väga om den kontradiktoriska förlusten för varje funktion REF.
52,825,087
Taking a Closer Look at Domain Shift: Category-Level Adversaries for Semantics Consistent Domain Adaptation
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,086
Paradigmet för Tabled Logic Programmering (TLP) stöds nu av ett antal Prolog system, inklusive XSB, YAP Prolog, B-Prolog, Merkurius, ALS och Ciao. Orsakerna till detta är delvis teoretiska: ingivande säkerställer uppsägning och optimal känd komplexitet för frågor till en stor klass av program. Men de tvingande skälen är praktiska. TLP gör att sofistikerade program kan skrivas koncist och effektivt, särskilt när mekanismer som inlämnad negation och samtal och svar subkonsumtion stöds. Som ett resultat har TLP nu använts i en mängd olika applikationer från programanalys till förfrågan över den semantiska webben. Detta dokument ger en undersökning av TLP och dess tillämpningar som genomförs i XSB Prolog, tillsammans med diskussioner om hur XSB stöder ingivande med dynamiskt ändrande kod, och i en flertrådig miljö 1.
Utökningar av logiska språk med tabulering kan säkerställa uppsägning och optimal känd komplexitet för frågor till en stor klass av praktiska program REF.
6,153,112
XSB: Extending Prolog with Tabled Logic Programming
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,087
Abstract-This paper presenterar en datakomprimeringsalgoritm med felbundna garanti för trådlösa sensornätverk (WSNs) med hjälp av komprimerande neurala nätverk. Den föreslagna algoritmen minimerar datastockningar och minskar energiförbrukningen genom att utforska spatiotemporala korrelationer mellan dataprover. Funktionen adaptive rate-snedvridning balanserar den komprimerade datastorleken (datahastigheten) med den erforderliga felbundna garantin (förvrängningsnivån). Denna kompression minskar belastningen på energi och bandbredd resurser samtidigt samla WSN data inom tolerabla felmarginaler, vilket ökar skalan av WSNs. Algoritmen utvärderas med hjälp av verkliga datauppsättningar och jämförs med konventionella metoder för tidsmässig och rumslig datakomprimering. Den experimentella valideringen visar att den föreslagna algoritmen överträffar flera befintliga WSN-datakomprimeringsmetoder när det gäller komprimeringseffektivitet och signalrekonstruktion. Dessutom visar en energianalys att komprimera data kan minska energiutgifterna, och därmed utöka livslängden med flera veck. Index Terms-förlorade data kompression, fel bunden garanti, komprimera neurala nätverk, Internet av saker.
Alsheikh m.fl. REF använder komprimera neurala nätverk för att komprimera data med bunden garanti och föreslå en hastighetsförvrängning balanserad datakomprimering algoritm.
17,032,886
Rate-distortion Balanced Data Compression for Wireless Sensor Networks
{'venue': 'IEEE Sensors Journal, vol. 16, no. 12, pp. 5072-5083, June15, 2016', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,088
Abstract-This paper beskriver en programrepresentation och algoritmer för att förverkliga en ny strukturell testning metod som inte bara fokuserar på att ta itu med komplexa funktioner i objektorienterade språk, men också införliva strukturen av objektorienterad programvara i metoden. Testmetoden bygger på uppbyggnaden av kontextuella def-use-föreningar, som ger sammanhang för varje definition och användning av ett objekt. Testning baserad på kontextuella def-use-föreningar kan ge ökad testtäckning genom att identifiera flera unika def-use-föreningar för samma sammanhangsfria förening. En sådan testmetod främjar grundligare och mer fokuserad testning av manipulering av objekt i objektorienterade program. I detta dokument presenteras en teknik för konstruktion av kontextuella def-use associationer, samt detaljerade exempel som illustrerar deras konstruktion, en analys av kostnaden för att bygga kontextuella def-use associationer med detta tillvägagångssätt, och en beskrivning av en prototyp testverktyg som visar hur de teoretiska bidragen av detta arbete kan vara användbara för strukturell testtäckning.
Souter och Pollack Ref föreslår ett sätt att skapa kontextuella def-use-föreningar, där varje definition och användning av ett objekt är förknippad med sammanhang.
14,113,730
The construction of contextual def-use associations for object-oriented systems
{'venue': 'IEEE TRANS. SOFTWARE ENGINEERING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,089
Förhållandena i meningarna är ofta komplicerade. Olika relationstrioler kan ha överlappningar i en mening. Vi delade upp meningarna i tre typer enligt trilling överlappning grad, inklusive Normal, EntityPairOverlap och SingleEntiyOverlap. Befintliga metoder fokuserar främst på normal klass och misslyckas med att extrahera relationstrioler exakt. I detta dokument föreslår vi en end-to-end-modell baserad på sekvens-till-sekvens-inlärning med kopieringsmekanism, som tillsammans kan extrahera relationsfakta från meningar av någon av dessa klasser. Vi antar två olika strategier i avkodningsprocessen: anställa endast en enad dekoder eller tillämpa flera separerade dekodrar. Vi testar våra modeller i två offentliga datauppsättningar och vår modell överträffar baslinjemetoden betydligt.
REF föreslår sedan en end-to-end sekvens-to-sekvens-modell för relationsextraktion.
51,870,827
Extracting Relational Facts by an End-to-End Neural Model with Copy Mechanism
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,090
: Från en rå scan med betydande saknade data, vår algoritm extraherar en komplett kurva skelett, visas i mitten. RBF ytrekonstruktion kan härleda fel yttopologi från den ursprungliga inmatningen, samtidigt som man lyckas med hjälp av kurvskelettet. Vi presenterar en algoritm för kurva skelett extraktion från ofullkomliga punktmoln där stora delar av data kan saknas. Vår konstruktion är främst baserad på en ny uppfattning om generaliserad rotationssymmetriaxel (ROSA) av en orienterad punktuppsättning. Speciellt, med tanke på en delmängd S av orienterade punkter, introducerar vi en variationsdefinition för en orienterad punkt som är mest rotationsmässigt symmetrisk med avseende på S. Vår formulering använder effektivt normal information för att kompensera för de saknade data och leder till robust kurva skelett beräkning över regioner av en form som i allmänhet är cylindriska. Vi presenterar en iterativ algoritm via planar nedskärningar för att beräkna ROSA i ett punktmoln. Detta kompletteras med särskild hantering av icke-cylindriska gemensamma regioner för att erhålla en centrerad, topologiskt ren, och komplett 1D skelett. Vi visar att kvalitetskurva skelett kan extraheras från en mängd olika former fångas av ofullständiga punktmoln. Slutligen visar vi hur vår algoritm hjälper i form slutförande under dessa utmaningar genom att utveckla en skelettdriven punkt molnet slutförande schema.
REF föreslår en generaliserad rotationssymmetriaxel (ROSA) för att extrahera kurvskelett från ofullständiga punktmoln.
1,664,563
Curve skeleton extraction from incomplete point cloud
{'venue': "SIGGRAPH '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,091
Förutsägbara metoder för övervakning av affärsprocesser utnyttjar loggar av avslutade fall av en process för att göra förutsägelser om att köra fall därav. Befintliga metoder i detta utrymme är skräddarsydda för specifika förutsägelser. Dessutom är deras relativa noggrannhet mycket känslig för de data som finns till hands, vilket kräver att användarna engagerar sig i test-andror och stämning när de tillämpar dem i en viss miljö. Detta papper undersöker Long Short-Term Memory (LSTM) neurala nätverk som ett tillvägagångssätt för att bygga konsekvent korrekta modeller för ett brett spektrum av prediktiva processövervakning uppgifter. För det första visar vi att LSTM:er överträffar befintliga tekniker för att förutsäga nästa händelse av ett löpande fall och dess tidsstämpel. Därefter visar vi hur man använder modeller för att förutsäga nästa uppgift för att förutsäga den fullständiga fortsättningen av ett löpande fall. Slutligen tillämpar vi samma metod för att förutsäga den återstående tiden, och visar att detta tillvägagångssätt överträffar befintliga skräddarsydda metoder.
I REF Tax m.fl. visa att LSTMs kan överträffa befintliga metoder för olika förutsägelser uppgifter som nästa händelse förutsägelse och tillhörande tidsstämpel förutsägelser.
2,192,354
Predictive Business Process Monitoring with LSTM Neural Networks
{'venue': 'Lecture Notes in Computer Science, 10253 (2017) 477-492', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,092
I detta dokument rapporterar vi vårt arbete med att införliva syntaktisk och morfologisk information för engelska till hindi statistisk maskinöversättning. Två enkla och beräknande billiga idéer har visat sig vara förvånansvärt effektiva: (i) omordning den engelska källmeningen enligt hindi syntax, och (ii) använda suffix av hindi ord. Det första görs genom att tillämpa enkla omvandlingsregler på det engelska parseträdet. Den senare, genom att använda en enkel suffix separation program. Med endast en liten mängd tvåspråkiga träningsdata och begränsade verktyg för Hindi uppnår vi rimliga resultat och betydande förbättringar jämfört med det grundläggande frasbaserade systemet. Vår strategi eschews användningen av tolkning eller andra sofistikerade språkliga verktyg för målspråket (Hindi) vilket gör det till en användbar ram för statistisk maskinöversättning från engelska till indiska språk i allmänhet, eftersom sådana verktyg inte är allmänt tillgängliga för indiska språk för närvarande.
Ett arbete på engelska till hindi statistisk maskinöversättning REF som använder en enkel och beräkningsmässigt billig idé för att införliva morfologisk information i SMT ramverk har rapporterats.
2,276,401
Simple Syntactic and Morphological Processing Can Help English-Hindi Statistical Machine Translation
{'venue': 'Proceedings of the Third International Joint Conference on Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,093
Abstrakt. Vi beskriver en asynkron parallell stokastisk proximal koordinatnedstigningsalgoritm för att minimera en sammansatt objektiv funktion, som består av en jämn konvex funktion plus en separerbar konvex funktion. I motsats till tidigare analyser, vår modell av asynkron beräkning står för det faktum att komponenter i den okända vektorn kan skrivas av vissa kärnor samtidigt med läsas av andra. Trots de komplikationer som denna möjlighet medför, uppnår metoden en linjär konvergenshastighet på funktioner som uppfyller en optimal stark konvexitet egenskap och en sublinjär hastighet (1/k) på allmänna konvexa funktioner. Nära linjär upphastighet på ett flerkärnigt system kan förväntas om antalet processorer är O(n 1/4 ). Vi beskriver resultat från implementering på tio kärnor av en multicore processor.
Mer nyligen, REF föreslår en asynkron stokastisk proximal koordinat-descent algoritm för sammansatta objektiva funktioner.
2,863,912
Asynchronous Stochastic Coordinate Descent: Parallelism and Convergence Properties
{'venue': None, 'journal': 'arXiv: Optimization and Control', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,094