src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Vi betraktar problemet med djupuppskattning från en enda monokulär bild i detta arbete. Det är en utmanande uppgift eftersom det inte finns några tillförlitliga djupsignaler, t.ex. stereokorrespondenser, rörelser etc. Tidigare insatser har varit inriktade på att utnyttja geometriska föregångare eller ytterligare informationskällor, med alla handgjorda funktioner. Nyligen finns det ökande bevis för att funktioner från djupa konvolutionella neurala nätverk (CNN) sätter nya rekord för olika synapplikationer. Å andra sidan, med tanke på den kontinuerliga egenskapen hos djupvärden, djupuppskattningar kan naturligt formuleras till en kontinuerlig villkorlig slumpmässig fält (CRF) lärande problem. Därför presenterar vi i detta dokument en djup konvolutionell neural fältmodell för att uppskatta djup från en enda bild, syftar till att gemensamt utforska kapaciteten hos djup CNN och kontinuerlig CRF. I synnerhet föreslår vi ett djupgående strukturerat utbildningsprogram som lär sig de oföränderliga och parvisa potentialerna i kontinuerlig CRF inom en enhetlig djup CNN-ram. Den föreslagna metoden kan användas för djupuppskattningar av allmänna scener utan geometriska föregångare eller någon ytterligare information som injiceras. I vårt fall kan integralen av partitionsfunktionen beräknas analytiskt, så vi kan exakt lösa log-likelihood optimering. Dessutom är det mycket effektivt att lösa MAP-problemet för att förutsäga djupet av en ny bild eftersom det finns slutna lösningar. Vi visar experimentellt att den föreslagna metoden överträffar toppmoderna djupuppskattningsmetoder på både inomhus- och utomhusscensdata.
Med tillkomsten av djupt lärande arkitekturer, har convolutionala neurala nätverk visat sig vara mycket användbara i 3D rekonstruktion med bara en enda bild REF.
13,153
Deep convolutional neural fields for depth estimation from a single image
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,400
Vi tillämpar visualiseringstekniker på användarprofiler och förvarsmetadata från GitHubs källkodshotelltjänst. Vår motivation är att identifiera mönster inom denna utvecklingsgemenskap som annars skulle kunna förbli dolda. Sådana mönster inkluderar effekten av geografiskt avstånd på utvecklarrelationer, social konnektivitet och inflytande mellan städer, och variation i projektspecifika bidragsstilar (t.ex. centraliserade vs. distribuerade). Vår analys undersöker riktade grafer där noder representerar användares geografiska platser och kanter representerar (a) följarrelationer, (b) successiva åtaganden, eller (c) bidrag till samma projekt. Vi inspekterar dessa data med hjälp av en uppsättning visualiseringstekniker: geo-scatter kartor, små flera displayer, och matrisdiagram. Med hjälp av dessa representationer, och verktyg baserade på dem, utvecklar vi hypoteser om den större GitHub samhället som skulle vara svårt att urskilja med hjälp av traditionella listor, tabeller, eller beskrivande statistik. Dessa metoder är inte avsedda att ge definitiva svar; istället ger de ett sätt för forskare att utforska frågeutrymmet och kommunicera initiala insikter.
I REF används visualiseringstekniker för att enkelt upptäcka kommunikationsmönster från Githubs databasmetadata (t.ex. effekten av geografiskt avstånd mellan utvecklare, påverkan mellan städer osv.).)..............................................................................................
12,682,623
Visualizing collaboration and influence in the open-source software community
{'venue': "MSR '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,401
Abstrakt. Spatial pyramid pooling modul eller kod-dekoder struktur används i djupa neurala nätverk för semantiska segmentering uppgift. De tidigare nätverken kan koda flerskalig kontextuell information genom att undersöka inkommande funktioner med filter eller poolning i flera hastigheter och flera effektiva synfält, medan de senare nätverken kan fånga skarpare objektgränser genom att gradvis återställa den rumsliga informationen. I detta arbete föreslår vi att fördelarna med båda metoderna kombineras. Speciellt vår föreslagna modell, DeepLabv3+, utökar DeepLabv3 genom att lägga till en enkel men effektiv dekodermodul för att förfina segmenteringsresultaten, särskilt längs objektgränser. Vi utforskar vidare Xception-modellen och tillämpar djupvis separerbar konvolution på både Atrous Spatial Pyramid Pooling- och dekodermoduler, vilket resulterar i ett snabbare och starkare encoder-dekoder-nätverk. Vi demonstrerar effektiviteten hos den föreslagna modellen på PASCAL VOC 2012 och Cityscapes datauppsättningar, vilket ger en prestanda på 89,0% och 82,1% utan någon efterbehandling. Vårt dokument åtföljs av ett offentligt tillgängligt referensgenomförande av de föreslagna modellerna i Tensorflow på https: // github.com/ tensorflow/modeller/tree/master/research/deeplab.
Denna modul kombineras ytterligare med en enkel dekodermodul i REF.
3,638,670
Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,402
Nyligen genomförda experimentella studier har visat att trådlösa länkar i verkliga sensornätverk kan vara extremt opålitliga, avviker i stor utsträckning från den idealiserade perfekt-reception inom intervall modeller som används i gemensamma nätverk simuleringsverktyg. Tidigare föreslagna geografiska routing protokoll använder vanligen en maximal avstånd girig speeding teknik som fungerar bra under idealiska förhållanden. En sådan speditionsteknik fungerar dock dåligt under realistiska förhållanden eftersom den tenderar att vidarebefordra paket på förlorade länkar. Vi identifierar och illustrerar detta problem med svag koppling och den därmed sammanhängande kompromissen mellan distanshopar, där energieffektiv geografisk vidarebefordring måste skapa en balans mellan kortare förbindelser av hög kvalitet och längre förlorade länkar. Studien görs för scenarier med och utan automatisk upprepad begäran (ARQ). Baserat på en analytisk länkförlustmodell studerar vi distance-hop-count-off via matematisk analys och omfattande simuleringar av ett brett spektrum av svartlistning/länkvalsstrategier; vi validerar också några strategier med hjälp av en uppsättning riktiga experiment på Motes. Våra analyser, simuleringar och experiment visar alla att produkten av paketmottagningen (PRR) och avståndet som korsas mot destinationen är den optimala speditionsmätaren för ARQ-fallet, och är ett bra mätvärde även utan ARQ. Noder som använder denna metriska ofta dra nytta av grannar i övergångsregionen (hög variation länkar). Våra resultat visar också att mottagningsbaserade termineringsstrategier är effektivare än rent distansbaserade strategier; relativa svartlistningssystem minskar frånkopplingar och uppnår högre leveranshastigheter än absoluta svartlistningssystem; och att ARQ-system blir viktigare i större nätverk.
I REF (Energy Efficient Geographic Forwarding Strategy) föreslogs att man skulle välja nästa humlenod med hänsyn till Packet Reception Rate (PRR) och avstånd tvärgående mot destinationen.
13,160,521
Energy-efficient forwarding strategies for geographic routing in lossy wireless sensor networks
{'venue': "SenSys '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,403
Abstrakt. Vi föreslår Convolutional Block Uppmärksamhet Module (CBAM), en enkel men effektiv uppmärksamhet modul för feed-forward konvolutionala neurala nätverk. Med tanke på en mellanliggande funktionskarta kan vår modul sekventiellt sluta sig till uppmärksamhetskartor längs två separata dimensioner, kanaler och rumsliga, sedan multipliceras uppmärksamhetskartorna med inmatningsfunktionens karta för adaptiv funktionsförfining. Eftersom CBAM är en lättviktig och allmän modul, kan den integreras i alla CNN arkitekturer sömlöst med försumbara overheads och är end-to-end trainingable tillsammans med bas CNNs. Vi validerar vår CBAM genom omfattande experiment på ImageNet-1K, MS COCO detektion, och VOC 2007 detektionsdataset. Våra experiment visar konsekventa förbättringar i klassificerings- och detektionsprestanda med olika modeller, vilket visar den breda tillämpligheten av CBAM. Koden och modellerna kommer att finnas tillgängliga för allmänheten.
CBAM är den uppmärksamhetsmodul som kan användas i kombination med ett restblock, som används för klassificering och detektionsuppgifter i REF.
49,867,180
CBAM: Convolutional Block Attention Module
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,404
Abstract-Context-medveten dator beskriver den situation där en bärbar/mobil dator är medveten om användarens tillstånd och omgivning och ändrar sitt beteende baserat på denna information. Vi designade, implementerade och utvärderade ett bärbart system som kan lära sig kontextberoende personliga preferenser genom att identifiera enskilda användarstater och observera hur användaren interagerar med systemet i dessa stater. Detta lärande sker online och kräver ingen extern övervakning. Systemet bygger på tekniker från maskininlärning och statistisk analys. En fallstudie integrerar tillvägagångssättet i en kontextmedveten mobiltelefon. Resultaten visar att metoden kan skapa en meningsfull användarkontextmodell samtidigt som den endast kräver data från bekväma bärbara sensorenheter.
Krause m.fl. REF presenterade ett flersensorbaserat system som lärde sig kontextmedvetna personliga preferenser genom att identifiera enskilda användarstater och observera hur användaren interagerade med systemet i dessa stater.
16,189,817
Context-aware mobile computing: learning context- dependent personal preferences from a wearable sensor array
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
80,405
Vi presenterar en skalbar metod för halvövervakad inlärning på grafstrukturerade data som bygger på en effektiv variant av konvolutionella neurala nätverk som fungerar direkt på grafer. Vi motiverar valet av vår konvolutionella arkitektur via en lokaliserad första ordningen approximation av spektral graf konvolutioner. Vår modell skalar linjärt i antalet grafkanter och lär sig dolda lager representationer som kodar både lokala graf struktur och funktioner i noder. I ett antal experiment på citeringsnätverk och på ett kunskapsdiagram visar vi att vårt tillvägagångssätt överträffar relaterade metoder med en betydande marginal.
Kipf och Welling REF föreslog en lokaliserad första ordningens approximation av spektral grafkonvolutioner för skalbart halvövervakat lärande.
3,144,218
Semi-Supervised Classification with Graph Convolutional Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,406
Tidigare ansträngningar tyder på att förekomsten av smärta kan upptäckas från ansiktet. Kan smärtans intensitet också upptäckas? Prkachin och Solomon Pain Intensity (PSPI) metriska användes för att klassificera fyra nivåer av smärtintensitet (ingen, spår, svag och stark) i 25 deltagare med tidigare axelskada (McMaster-UNBC Pain Archive). Deltagarna spelades in medan de fullföljde en serie rörelser av sina påverkade och opåverkade axlar. Från videoinspelningarna, kanoniskt normaliserat utseende av ansiktet (CAPP) extraherades med hjälp av aktivt utseende modellering. För att kontrollera för variation i ansikte storlek, alla CAPP omskalas till 96x96 pixlar. CAPP passerade sedan genom en uppsättning Log-Normala filter som bestod av 7 frekvenser och 15 orienteringar för att extrahera 9216 funktioner. För att upptäcka smärtnivån tränades 4 vektormaskiner (SVM) separat för automatisk mätning av smärtintensiteten på en ram-för-ram-nivå med både 5-faldig korsvalidering och leave-one-individualout korsvalidering. F1 för varje nivå av smärtintensitet varierade från 91% till 96% och från 40% till 67% för 5- faldig respektive leaveone-subject-out korsvalidering. Intra-klass korrelation, som bedömer konsekvensen av kontinuerlig smärtintensitet mellan manuell och automatisk PSPI var 0,85 och 0,55 för 5-faldig respektive leave-one-subject-out korsvalidering, vilket tyder på måttlig till hög konsistens. Dessa fynd visar att smärtintensiteten kan mätas på ett tillförlitligt sätt från ansiktsuttryck hos deltagare med ortopedisk skada.
I REF kanoniskt utseende av ansiktet med AAM passerar genom en uppsättning lognormala filter för att få en diskriminerande energi-baserad representation av ansiktsuttrycket som sedan används för att uppskatta smärtnivån.
4,031,955
Automatic detection of pain intensity
{'venue': "ICMI '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,407
Prov komplexitet resultat från beräkningslära teori, när tillämpas på neurala nätverk lärande för mönster classi katjon problem, tyder på att för god generalisering prestanda antalet utbildningsexempel bör växa minst linjärt med antalet justerbara parametrar i nätverket. Resultat i detta papper visar att om ett stort neuralt nätverk används för ett mönster classi katjon problem och lärande algoritm NDs ett nätverk med små vikter som har små kvadratfel på träningsmönster, då generaliseringen prestanda beror på storleken på vikterna snarare än antalet vikter. Till exempel, överväga en två lager feedforward nätverk av sigmoid enheter, i vilken summan av magnituderna av de vikter som är förknippade med varje enhet begränsas av A och ingångsdimensionen är n. Vi visar att felklassificering sannolikhet är inte mer än en viss feluppskattning (som är relaterad till kvadratfel på träningssetet) plus A 3 p (log n) = m (ignorering log A och log m faktorer), där m är antalet träningsmönster. Detta kan förklara generaliseringen prestanda neurala nätverk, särskilt när antalet utbildning
Till exempel, REF visar att för ett neuralt nätverk med små vikter och liten utbildning set squared fel, beror det verkliga felet på storleken på dess vikter snarare än antalet vikter; detta fynd liknar i andemening till ekv. 4 )..............................................................................................................
685,382
The Sample Complexity of Pattern Classification With Neural Networks: The Size of the Weights is More Important Than the Size of the Network
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,408
Maskininlärning modeller är sårbara för kontradiktoriska exempel, indata illvilligt störd för att vilseleda modellen. Dessa ingångar överför mellan modeller, vilket möjliggör Black-box attacker mot utplacerade modeller. Motståndsträning ökar robustheten mot attacker genom att ge kontradiktoriska exempel på träningsdata. Förvånansvärt nog finner vi att även om de kontradiktoriskt utbildade modellerna uppvisar en stark robusthet i vissa white-box-attacker (dvs. med kunskap om modellparametrarna), är de fortfarande mycket sårbara för överförda kontradiktoriska exempel gjorda på andra modeller. Vi visar att orsaken till denna sårbarhet är modellens beslutsyta som uppvisar skarp krökning i närheten av datapunkterna, vilket hindrar attacker baserade på första ordningens approximationer av modellens förlust, men tillåter svart-box attacker som använder kontradiktoriska exempel överförs från en annan modell. Vi utnyttjar denna observation på två sätt: För det första föreslår vi en enkel men kraftfull ny attack som först tillämpar en liten slumpmässig perturbation på en ingång, innan vi hittar den optimala perturbationen under en första ordningen approximation. Vår attack överträffar tidigare "enstegs" attacker på modeller tränade med eller utan kontradiktorisk träning. För det andra föreslår vi Ensemble Adversarial Training, en förlängning av den kontradiktoriska utbildningen som dessutom utökar träningsdata med perturbed-ingångar som överförs från ett antal fasta förtränade modeller. På MNIST och ImageNet förbättrar ensembleträningen avsevärt robustheten mot attacker i svarta boxar.
I REF infördes en kontradiktorisk utbildningsmetod för ensembleträning på de kontradiktoriska exempel som skapats på själva modellen och en ensemble av andra förträngda modeller.
21,946,795
Ensemble Adversarial Training: Attacks and Defenses
{'venue': 'International Conference on Learning Representations (ICLR) 2018', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,409
Abstract-Det har gjorts stora framsteg på effektiva algoritmer för kluster datapunkter som genereras av en blandning av k sannolikhetsfördelningar under antagandet att medel för distributionerna är väl åtskilda, dvs avståndet mellan medel för två distributioner är minst på (k) standardavvikelser. Dessa resultat i allmänhet använder sig i stor utsträckning av den generativa modellen och särskilda egenskaper hos distributionerna. I den här artikeln visar vi att en enkel klusteralgoritm fungerar utan att anta någon generativ (probabilistisk) modell. Vårt enda antagande är vad vi kallar ett "närhetstillstånd": projektionen av någon datapunkt på linjen som förenar dess klustercenter till något annat klustercenter är och (k) standardavvikelser närmare sitt eget centrum än det andra centrum. Här är begreppet standardavvikelser baserat på spektralnormen för den matris vars rader representerar skillnaden mellan en punkt och medelvärdet av den kluster som den tillhör. Vi visar att i de generativa modeller som studeras är vårt närhetstillstånd tillfredsställt och därför kan vi härleda mest kända resultat för generativa modeller som följd av vårt huvudresultat. Vi bevisar också några nya resultat för generativa modeller - t.ex. kan vi samla alla utom en liten bråkdel av punkter bara antar en gräns på variansen. Vår algoritm bygger på den välkända k-means algoritm, och längs vägen, visar vi ett resultat av oberoende intresse - att k-means algoritm konvergerar till de "sanna centra" även i närvaro av falska punkter förutsatt att de ursprungliga (uppskattade) centra är tillräckligt nära de motsvarande faktiska centra och alla utom en liten bråkdel av punkterna uppfyller närhetstillståndet. Slutligen presenterar vi en ny teknik för att öka förhållandet mellan mittseparation och standardavvikelse. Detta gör att vi kan bevisa resultat för att lära sig vissa blandning av distributioner under svagare separationsförhållanden.
Kumar och Kannan REF studerade ett tillstånd där projektionen av någon punkt på linjen mellan dess klustercenter till något annat klustercenter är en stor additiv faktor närmare sitt eget centrum än det andra centrum.
14,298,859
Clustering with Spectral Norm and the k-Means Algorithm
{'venue': '2010 IEEE 51st Annual Symposium on Foundations of Computer Science', 'journal': '2010 IEEE 51st Annual Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,410
Vi överväger automatiskt erkännande av mänskliga åtgärder i övervakningsvideor. De flesta nuvarande metoder bygger klassificeringar baserade på komplexa handgjorda funktioner som beräknas från de råa indata. Konvolutionella neurala nätverk (CNN) är en typ av djup modell som kan agera direkt på råa ingångar. Sådana modeller är dock för närvarande begränsade till hantering av 2D-ingångar. I detta dokument utvecklar vi en ny 3D CNN-modell för åtgärdsigenkänning. Denna modell extraherar funktioner från både rumsliga och tidsmässiga dimensioner genom att utföra 3D-konvolutioner, vilket fångar rörelseinformationen kodad i flera angränsande ramar. Den utvecklade modellen genererar flera kanaler av information från inmatningsramarna, och den slutliga funktionen representation kombinerar information från alla kanaler. För att ytterligare öka prestandan föreslår vi att resultaten regleras med hög nivå funktioner och kombinerar förutsägelser av en mängd olika modeller. Vi tillämpar de utvecklade modellerna för att känna igen mänskliga åtgärder i den verkliga miljön av flygplatsövervakningsvideor, och de uppnår överlägsen prestanda i jämförelse med baslinjemetoder.
Ji och al. REF tar upp det automatiska erkännandet av mänskliga åtgärder i övervakningsvideor och utvecklar en ny 3D CNN-modell för erkännande av åtgärder.
1,923,924
3D Convolutional Neural Networks for Human Action Recognition
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
80,411
Abstract-Vi undersöker användningen av message-passing algoritmer för problemet med att hitta maximal vikt oberoende uppsättning (MWIS) i en graf. Först studerar vi prestandan av den klassiska loopy max-produkt tro förökning. Vi visar att varje fast punkt uppskattning av max-produkt kan kartläggas på ett naturligt sätt till en extrem punkt av LP polytope i samband med MWIS-problemet. Men denna extrema punkt kanske inte är den som maximerar värdet av nodvikter; den särskilda extrema punkten vid slutlig konvergens beror på initiering av max-produkt. Vi visar sedan att om max-produkt startas från den naturliga initiering av oinformativa meddelanden, det alltid löser rätt LP - om det konvergerar. Detta resultat erhålls genom en direkt analys av den iterativa algoritmen, och kan inte erhållas genom att endast titta på fasta punkter. Tätheten i LP-avslappningen är därför nödvändig för maximal produkt optimalitet, men det är inte tillräckligt. Motiverade av denna observation, visar vi att en enkel ändring av max-produkt blir lutning nedstigning på (en konvex version av) den dubbla av LP, och konvergerar till den dubbla optimal. Vi utvecklar också en meddelande-passing algoritm som återvinner den primära MWIS-lösningen från utgången av nedstigning algoritmen. Vi visar att MWIS uppskattning som erhållits med hjälp av dessa två algoritmer tillsammans är korrekt när grafen är bipartite och MWIS är unik. Slutligen visar vi att alla problem med MAP-uppskattning för sannolikhetsfördelning över ändliga domäner kan reduceras till ett MWIS-problem. Vi tror att denna minskning kommer att ge nya insikter och algoritmer för MAP uppskattning.
En algoritm för meddelandepassering för att ta fram en genomförbar lösning till MWIS föreslogs i REF.
3,615,329
Message-passing for Maximum Weight Independent Set
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,412
Abstrakt. Detta papper undersöker algoritmer som effektivt löser linjära ekvationer eller beräknar eigenvärden även när de berörda matriserna är för stora för att passa i datorns huvudminne och måste lagras på diskar. Papperet fokuserar på schemaläggning tekniker som resulterar i mestadels sekventiella data åtkomster och i data återanvändning, och på tekniker för att omvandla algoritmer som inte effektivt kan schemaläggas. Undersökningen omfattar out-of-core algoritmer för att lösa täta system av linjära ekvationer, för den direkta och iterativa lösningen av glesa system, för att beräkna eigenvärden, för snabba Fouriertransforms, och för N-kroppsberäkningar. I dokumentet diskuteras också rimliga antaganden om minnesstorlek, metoder för analys av out-of-core algoritmer och samband mellan out-of-core, cache-aware och parallella algoritmer.
Toledo Ref föreslår en fin undersökning av utformningen av out-of-core algoritmer för linjär algebra, inklusive täta och glesa beräkningar.
6,128,186
A Survey of Out-of-Core Algorithms in Numerical Linear Algebra
{'venue': 'DIMACS SERIES IN DISCRETE MATHEMATICS AND THEORETICAL COMPUTER SCIENCE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,413
Abstrakt. Sopsamlare är notoriskt svåra att verifiera, på grund av deras låga nivå interaktion med det underliggande systemet och den allmänna svårigheten att resonera om nåbarhet i grafer. Flera papper har uppvisat verifierade samlare, men antingen var bevisen handskrivna eller samlarna alltför enkla att använda i praktiska tillämpningar. I detta arbete presenterar vi två mekaniskt verifierade sopsamlare, båda praktiska nog att använda för verkliga C# riktmärken. Insamlarna och deras tillhörande allokatorer består av instruktioner för x86 monteringsspråk och makroinstruktioner, kommenterade med förutsättningar, postvillkor, invarianter och påståenden. Vi använde Boogie verifiering generator och Z3 automatiserade teorem bevis för att verifiera denna montering språkkod mekaniskt. Vi tillhandahåller mätningar som jämför prestandan hos den verifierade samlaren med prestandan hos standard- Bartok-samlarna på off-the-shelf C#-riktmärken, vilket visar deras konkurrenskraft.
REF annoterad x86 kod för två GC för hand, och sedan använde Boogie och Z3 automatiserade teorem bevis för att verifiera deras korrekthet automatiskt.
52,865,497
Automated Verification of Practical Garbage Collectors
{'venue': 'LMCS 6 (3:6) 2010', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,414
Problemdomäner bryts ofta ned hierarkiskt för att fullt ut utnyttja parallella resurser i moderna mikroprocessorer. Sådana nedbrytningar kan tillhandahållas som biblioteksrutiner, skrivna av erfarna experter, för allmänna algoritmiska mönster. Men sådana API:er tenderar att begränsas till vissa arkitekturer eller datastorlekar. Att integrera dem med tillämpningskoden är ofta en onödigt skrämmande uppgift, särskilt när dessa rutiner måste vara nära kopplade till användarkoden för att uppnå bättre prestanda. Detta dokument bidrar till HiDP, ett hierarkiskt dataparallellt språk på hög nivå. Syftet med HiDP är att förbättra kodningsproduktiviteten för att integrera hierarkisk dataparallalism utan betydande förlust av prestanda. HiDP är en källkodskompilator som omvandlar ett mycket koncist dataparallellspråk till CUDA C++ källkod. Internt utför den nödvändig analys för att komponera användarkod med effektiva och arkitekturmedvetna kodslippar. I detta dokument diskuteras olika aspekter av HiDP systematiskt: språket, kompilatorn och run-time-systemet med inbyggda inställningsmöjligheter. De gör det möjligt för HiDP-användare att uttrycka algoritmer i mindre kod än vad låg nivå SDK kräver för inhemska plattformar. HiDP avslöjar också rikliga datorresurser av moderna parallella arkitekturer. Förbättrad kodning produktivitet tenderar att komma med en uppoffring i prestanda. Ändå visar experimentella resultat att den genererade koden levererar prestanda mycket nära handgjorda inhemska GPU-kod.
HiDP REF är ett hierarkiskt dataparallellt språk som kartlägger beräkningar till OpenCL.
8,808,105
Hidp: A hierarchical data parallel language
{'venue': 'Proceedings of the 2013 IEEE/ACM International Symposium on Code Generation and Optimization (CGO)', 'journal': 'Proceedings of the 2013 IEEE/ACM International Symposium on Code Generation and Optimization (CGO)', 'mag_field_of_study': ['Computer Science']}
80,415
Med utvecklingen av högeffektiv grafdatainsamlingsteknik inom många tillämpningsområden framträder klassificering av grafdata som ett viktigt ämne inom datautvinning och maskininlärning. Mot att bygga mycket noggranna klassificeringsmodeller för grafdata, här presenterar vi en effektiv graf funktion val metod. I vår metod använder vi ofta subgrafer som funktioner för grafklassificering. Olika från befintliga metoder, anser vi den rumsliga fördelningen av subgraffunktioner i grafdata och välj de som har konsekvent rumslig plats. Vi har tillämpat vår funktion urvalsmetoder på flera cheminformatiska riktmärken. Vår metod visar en betydande förbättring av förutsägelser jämfört med de senaste metoderna.
Till exempel Fei och Huan REF använde frekventa subgrafer som egenskaper hos grafer.
1,690,852
Structure feature selection for graph classification
{'venue': "CIKM '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,416
Media verkar ha blivit mer partisan, ofta ger en partisk täckning av nyheter catering till intresse för specifika grupper. Det är därför viktigt att identifiera trovärdigt informationsinnehåll som ger en objektiv beskrivning av en händelse. Nyhetsgemenskaper som digg, reddit eller newstrust erbjuder rekommendationer, recensioner, kvalitetsbetyg och ytterligare insikter om journalistiska verk. Det finns dock ett komplext samspel mellan olika faktorer i sådana nätgemenskaper: rättvisa och stil för rapportering, språkuppfattbarhet och objektivitet, aktuella perspektiv (som politisk synpunkt), sakkunskap och partiskhet hos samhällsmedlemmar med mera. Detta dokument presenterar en modell för att systematiskt analysera de olika interaktionerna i en nyhetsgemenskap mellan användare, nyheter och källor. Vi utvecklar en probabilistisk grafisk modell som utnyttjar denna gemensamma interaktion för att identifiera 1) mycket trovärdiga nyhetsartiklar, 2) pålitliga nyhetskällor och 3) expertanvändare som utför rollen som "medborgarjournalister" i samhället. Vår metod utökar CRF modeller för att införliva real-värderade betyg, eftersom vissa samhällen har mycket finkorniga skalor som inte kan lätt diskretiseras utan att förlora information. Såvitt vi vet är detta dokument den första fullständiga analysen av trovärdighet, förtroende och expertis i nyhetsgemenskaper.
Ett liknande tillvägagångssätt i REF identifierar trovärdiga nyhetsartiklar, pålitliga nyhetskällor och expertanvändare.
23,983,162
Leveraging Joint Interactions for Credibility Analysis in News Communities
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,417
I detta arbete utför vi oövervakad inlärning av representationer genom att maximera ömsesidig information mellan en ingång och utgången av en djup neural nätverk kodare. Viktigt är att vi visar att strukturfrågor: att införliva kunskap om lokaliseringen av bidraget till målet kan i hög grad påverka en representations lämplighet för nedströmsuppgifter. Vi kontrollerar ytterligare egenskaperna hos representationen genom att matcha med en tidigare distribution motsträvigt. Vår metod, som vi kallar Deep InfoMax (DIM), överträffar ett antal populära oövervakade inlärningsmetoder och konkurrerar med fullt övervakad inlärning på flera klassificeringsuppgifter. DIM öppnar nya vägar för oövervakat lärande av representationer och är ett viktigt steg mot flexibla formuleringar av representations-lärandemål för specifika mål. Ett centralt mål med djupt lärande är att upptäcka "bra" representationer, och den enkla idé som utforskas här är att träna en representations-lärande funktion (dvs. en kodare) för att maximera den ömsesidiga informationen (MI) mellan dess ingångar och resultat. MI är notoriskt svårt att beräkna, särskilt i kontinuerliga och högdimensionella inställningar. Lyckligtvis, nya framsteg möjliggör effektiv beräkning av MI mellan högdimensionell ingång / output par av djupa neurala nätverk (Belghazi et al., 2018). Vi utnyttjar MI uppskattning för representation lärande, men vi kommer också att visa att, beroende på nedströms uppgift, maximera MI mellan den fullständiga input och kodare utdata (dvs. global MI) är ofta inte tillräckligt för att lära användbara representationer. I stället är strukturen viktig: att maximera den genomsnittliga felprocenten mellan representationen och de lokala regionerna av bidraget kan avsevärt förbättra representationens kvalitet för t.ex. klassificeringsuppgifter, medan global felprocent spelar en starkare roll i förmågan att rekonstruera den fulla inputen med tanke på representationen.
En liknande modellarkitektur föreslås i REF, där de ger en ny oövervakad inlärningsmetod genom att maximera den ömsesidiga informationen mellan prover och deras representationer.
52,055,130
Learning deep representations by mutual information estimation and maximization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,418
Abstract-Assult LoRaWAN-nätverk är aktivt utplacerade inom området, det är viktigt att förstå begränsningarna i denna nätteknik med låg effekt. Tidigare arbete har väckt frågor om skalbarheten och kapaciteten hos LoRaWAN-nätverk när antalet slutenheter ökar till hundratals eller tusentals per gateway. Vissa verk har modellerat LoRaWAN-nätverk som rena ALOHA-nätverk, som inte fångar upp viktiga egenskaper såsom fångande effekt och effekter av interferens. Andra verk ger en mer omfattande modell genom att förlita sig på empiriska och stokastiska tekniker. Detta papper använder ett annat tillvägagångssätt där en LoRa felmodell är konstruerad från omfattande komplexa basband bit felhastighetssimuleringar och används som en interferensmodell. Felmodellen kombineras med LoRaWAN MAC-protokollet i en ns-3 modul som gör det möjligt att studera flerkanaliga, multispridningsfaktor, multigateway, dubbelriktade LoRaWAN-nätverk med tusentals slutenheter. Med hjälp av LoRaWAN ns-3-modulen visar en skalbarhetsanalys av LoRaWAN den skadliga inverkan nedströmstrafiken har på leveransförhållandet för bekräftad uppströmstrafik. Analysen visar att den ökande gatewaytätheten kan lindra men inte eliminera denna effekt, eftersom stränga krav på tullcykel för gateways fortsätter att begränsa möjligheterna i efterföljande led.
Abeele m.fl. REF med hjälp av en LoRa ns-3 modul, utföra en skalbarhetsanalys av LoRaWAN.
16,344
Scalability Analysis of Large-Scale LoRaWAN Networks in ns-3
{'venue': 'IEEE Internet of Things Journal', 'journal': 'IEEE Internet of Things Journal', 'mag_field_of_study': ['Computer Science']}
80,419
Vi presenterar k-Flipper, en graf transformationsalgoritm som omvandlar regelbundna oriktade grafer. Med tanke på en stig på k + 2 kanter byter den ut den sista hörnen på stigen. Den här operationen bevarar per definition regelbundenhet och konnektivitet. Vi visar att varje regelbundet ansluten graf kan nås genom en serie av dessa operationer för alla k ≥ 1. Vi använder en randomiserad version, kallad Random k-Flipper, för att skapa slumpmässiga regelbundna anslutna oriktade grafer som kan fungera som en ryggrad för peer-to-peer nätverk. Vi bevisar för de- 2 log 1/ ) omvandlar någon graf till en expander graf med hög sannolikhet, dvs.. 1−n −.(1).............................................................................................. Random 1-flippern är symmetrisk, dvs. Omvandlingsannolikheten från någon märkt d-regelbunden graf G till G är lika med de från G till G. Från detta och nåbarhet egenskapen drar vi slutsatsen att i gränsen en serie slumpmässiga 1-flipper operationer konvergerar mot en enhetlig sannolikhetsfördelning över alla anslutna märkta d-regelbundna grafer. För grad d en (1) växer med grafens storlek innebär detta att iterativt tillämpa random 1-flipper omvandlar någon given graf till en expander asymptotiskt nästan säkert. Vi använder dessa operationer som en underhållsoperation för ett peer-to-peer-nätverk baserat på slumpmässiga regelbundna uppkopplade grafer som ger hög robusthet och återhämtar sig från degenererade nätverksstrukturer genom att kontinuerligt tillämpa dessa slumpmässiga graftransformationer. För detta beskriver vi hur nätverksoperationer för att ansluta och lämna nätverket kan utformas och hur sammanfallande grafomvandlingar kan hanteras.
Inledningsvis har Mahlmann och Schindelhauer föreslagit Random k-Flipper REF, en graf transformationsalgoritm som skapar slumpmässiga regelbundet anslutna oriktade grafer, asymptotiskt nästan säkert enhetlig.
8,141,545
Peer-to-peer networks based on random transformations of connected regular undirected graphs
{'venue': "SPAA '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,420
häst zebra zebra häst Sommar Vinter vinter vinter vinter sommar Fotografering Van Gogh Cezanne Monet Ukiyo-e Monet Bilder Monet foto foto Monet Figur 1: Med tanke på två oordnade bildsamlingar X och Y, vår algoritm lär sig att automatiskt "översätta" en bild från en till den andra och vice versa. Exempel ansökan (botten): med hjälp av en samling målningar av en berömd konstnär, lära sig att göra en användares fotografi i deras stil. Image-to-image översättning är en klass av vision och grafik problem där målet är att lära sig kartläggningen mellan en ingångsbild och en utgångsbild med hjälp av en utbildning uppsättning av anpassade bildpar. För många uppgifter kommer dock inte parade träningsdata att finnas tillgängliga. Vi presenterar ett tillvägagångssätt för att lära sig översätta en bild från en källkodsdomän X till en måldomän Y i avsaknad av parade exempel. Vårt mål är att lära sig en kartläggning G : X → Y sådan att distributionen av bilder från G(X) är oskiljaktig från distributionen Y med hjälp av en kontradiktorisk förlust. Eftersom denna kartläggning är mycket underkonsekventa, vi par det med en invers kartläggning F : Y → X och införa en cykelkonsistens förlust att push F (G(X)) på X (och vice versa). Kvalitativa resultat presenteras på flera uppgifter där parade träningsdata inte finns, inklusive insamling stil överföring, objekttransfiguration, säsong överföring, fotoförbättring, etc. Kvantitativa jämförelser mot flera tidigare metoder visar hur överlägsen vår strategi är.
CycleGAN REF utför oparerad bild-till-bild översättning genom att använda motstående förluster och cykelkonsistens förluster.
206,770,979
Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
80,421
Djupa neurala nätverk är sårbara för kontradiktoriska exempel, som ger säkerhetsproblem på dessa algoritmer på grund av de potentiellt allvarliga konsekvenserna. Motgångar fungerar som en viktig surrogat för att utvärdera robustheten hos djupinlärningsmodeller innan de sätts in. Men de flesta av de befintliga kontradiktoriska attackerna kan bara lura en svart låda modell med en låg framgång. För att ta itu med denna fråga föreslår vi en bred klass av momentumbaserade iterativa algoritmer för att öka de kontradiktoriska attackerna. Genom att integrera momentumtermen i iterativ process för attacker, våra metoder kan stabilisera uppdatera riktningar och fly från fattiga lokala maxima under iterationer, vilket resulterar i mer överförbara kontradiktoriska exempel. För att ytterligare förbättra framgångarna för Black-box attacker, tillämpar vi momentum iterativa algoritmer på en ensemble av modeller, och visar att de motsträviga utbildade modeller med en stark försvarsförmåga också är sårbara för våra Black-box attacker. Vi hoppas att de föreslagna metoderna kommer att fungera som ett riktmärke för att utvärdera robustheten hos olika djupa modeller och försvarsmetoder. Med denna metod vann vi de första platserna i NIPS 2017 Non-targeted Adversarial Attack och Targeted Adversarial Attack tävlingar. * Motsvarande författare. Alperna: 94,39 % Hund: 99,99 % Puffer: 97,99 % Krabba: 100,00 %
Dong m.fl. I REF föreslogs en bred klass av momentumbaserade iterativa algoritmer för att öka överförbarheten av kontradiktoriska exempel.
4,119,221
Boosting Adversarial Attacks with Momentum
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,422
I detta dokument optimerar vi energieffektiviteten (bits/s/Hz/J) för trådlös enhet-till-multi-enhet (D2MD). Även om scenariot enhet-till-enhet har studerats i stor utsträckning för att förbättra spektraleffektiviteten i cellulära nätverk, öppnar användningen av multicast-kommunikation möjligheten att återanvända spektrumresurserna också inom grupperna. Optimeringsproblemet är formulerat som ett blandat heltal icke-linjär gemensam optimering för effektstyrning och tilldelning av resursblock (RBs) till varje grupp. Vår modell beaktar uttryckligen resursdelning genom att låta co-channel överföring över en RB (upp till maximalt r sändare) och / eller överföring genom olika kanaler i varje grupp. Vi använder en iterativ nedbrytningsmetod, med hjälp av första matchningsteorin för att hitta en stabil även om suboptimal kanalal fördelning, för att sedan optimera överföringskraftvektorerna i varje grupp via fraktionerad programmering. Inom denna ram undersöks dessutom både nätenergieffektiviteten och den individuella maxmin-energieffektiviteten. Vi karakteriserar numeriskt den energieffektiva kapacitetsregionen, och våra resultat visar att den normaliserade energieffektiviteten är nästan optimal (över 90 procent av nätkapaciteten) för ett brett spektrum av minimikrav. Denna prestanda är bättre än andra matchningsbaserade tekniker som tidigare föreslagits.
Till exempel, för att förbättra spektrumeffektiviteten i cellulära nätverk, Hmila et al. REF beaktade resursdelning genom att låta co-channel överföring över en RB (upp till ett maximalt antal sändare).
147,704,096
Energy Efficient Power and Channel Allocation in Underlay Device to Multi Device Communications
{'venue': 'IEEE Transactions Communications, Vol. 67, No. 8, August 2019', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,423
Vi ser över arbetet med datadriven förståelse syntes och metoderna för provtagning och rankning kandidat grepp. Vi delar in tillvägagångssätten i tre grupper baserat på om de syntetiserar grepp för kända, bekanta eller okända objekt. Denna struktur gör att vi kan identifiera gemensamma objekt representationer och perceptuella processer som underlättar den använda datadrivna grepp syntesteknik. När det gäller kända objekt koncentrerar vi oss på de metoder som bygger på objektigenkänning och utgör uppskattning. När det gäller bekanta objekt, teknikerna använder någon form av en likhet som matchar en uppsättning av tidigare påträffade objekt. Slutligen för tillvägagångssätt som handlar om okända objekt, den centrala delen är utvinning av specifika egenskaper som är tecken på bra grepp. Vår enkät ger en översikt över de olika metoderna och diskuterar öppna problem inom robotgriparområdet. Vi drar också en parallell till de klassiska tillvägagångssätt som är beroende av analytiska formuleringar.
Bohg m.fl. REF indelade möjliga tillvägagångssätt i grepp av kända, bekanta eller okända objekt.
8,815,923
Data-Driven Grasp Synthesis - A Survey
{'venue': 'Trans. Rob. 30, 2 (April 2014), 289-309', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science', 'Psychology']}
80,424
Webbtjänster – Webbtillgängliga program och enheter – är ett nyckelprogramområde för Semantic Web. Med spridningen av webbtjänster och utvecklingen mot den semantiska webben kommer möjligheten att automatisera olika webbtjänster uppgifter. Vårt mål är att möjliggöra pålägg och automatiserad resonemangsteknik för att beskriva, simulera, komponera, testa och verifiera sammansättningar av webbtjänster. Vi tar som utgångspunkt DAML-S DAML + OIL ontology för att beskriva kapaciteten hos webbtjänster. Vi definierar semantiken för en relevant delmängd av DAML-S i termer av ett första ordningens logiskt språk. Med semantiken i handen kodar vi våra tjänstebeskrivningar i en Petri Net formalism och ger beslutsprocedurer för webbtjänstsimulering, verifiering och komposition. Vi ger också en analys av komplexiteten i dessa uppgifter under olika restriktioner till DAML-S sammansatta tjänster som vi kan beskriva. Slutligen presenterar vi ett genomförande av vår analysteknik. Denna implementation tar som indata en DAML-S beskrivning av en webbtjänst, genererar automatiskt ett Petri Net och utför den önskade analysen. Ett sådant verktyg har bred tillämplighet både som en bakdel till befintliga manuella verktyg för webbtjänstsammansättning, och som ett fristående verktyg för webbtjänstutvecklare.
I REF föreslår författarna en strategi för simulering, verifiering och automatiserad sammansättning av webbtjänster baserad på en översättning av DAML-S till situationskalkyl och Petri Nets.
6,279,134
Simulation, verification and automated composition of web services
{'venue': "WWW '02", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,425
Detta dokument föreslår romanen Pose Guidad Person Generation Network (PG 2 ) som gör det möjligt att syntetisera personbilder i godtyckliga poser, baserat på en bild av den personen och en roman pose. Vår generations ramverk PG 2 använder pose information explicit och består av två viktiga steg: pose integration och bildförfining. I det första steget är tillståndet bilden och målet pose matas in i ett U-Net-liknande nätverk för att generera en initial men grov bild av personen med målet pose. Det andra steget förfinar sedan det inledande och suddiga resultatet genom att träna en U-Net-liknande generator på ett kontradiktoriskt sätt. Omfattande experimentella resultat på både 128×64 återidentifierande bilder och 256×256 modebilder visar att vår modell genererar högkvalitativa personbilder med övertygande detaljer. * Lika lön.
Mamma och Al. Ref föreslog en pose guidad person generation nätverk (PG 2 ), som gör det möjligt att generera bilder av individer i godtyckliga poser.
30,484,693
Pose Guided Person Image Generation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,426
Abstract-Vi undersöker problemet med planeringsvägar för ett autonomt undervattensfordon (AUV) för att samla in data från ett undervattenssensornätverk. Sensorerna i nätverket är utrustade med akustiska modem som ger bullriga, avståndsbegränsade kommunikationer. AUV måste planera en väg som maximerar den insamlade informationen samtidigt minimera restid eller bränslekostnader. Detta problem är nära relaterat till den klassiska Traveling Salesperson Problem (TSP), men skiljer sig genom att data från en viss sensor har en sannolikhet att samlas in beroende på kvaliteten på kommunikationen. Vi föreslår metoder för att lösa detta problem genom att utöka approximationsalgoritmer för varianter av TSP, och vi jämför våra föreslagna algoritmer med baslinjestrategier genom simulerade experiment med varierande kommunikationskvalitet. Våra simuleringar använder en realistisk modell av akustisk kommunikation för att bestämma sannolikheten för att få data från varje sensor. Resultaten visar att planeringen av turnén för hela nätverket samtidigt som kommunikationsmodellen utnyttjas under planeringen förbättrar prestandan jämfört med myopiska metoder.
I REF föreslår författarna en modifierad Traveling Salesperson Problem att navigera ett undervattensfordon i ett sensorfält, med hjälp av en realistisk modell som anser akustisk kommunikation bleknande effekter.
1,480,883
Autonomous data collection from underwater sensor networks using acoustic communication
{'venue': '2011 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'journal': '2011 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'mag_field_of_study': ['Computer Science']}
80,427
Under de senaste åren har Batch-Normalization ofta använts i djupa nätverk, vilket möjliggör snabbare utbildning och hög prestanda för en mängd olika applikationer. Orsakerna till dess förtjänster förblev dock obesvarade, med flera brister som hindrade dess användning för vissa uppgifter. I detta arbete presenterar vi en ny syn på syftet med och funktionen hos normaliseringsmetoder och viktminskning, som verktyg för att koppla loss vikternas norm från det underliggande optimerade målet. Denna egenskap belyser sambandet mellan metoder som normalisering, vikt förfall och justeringar av inlärningsgraden. Vi föreslår flera alternativ till den allmänt använda L 2 batch-norm, med hjälp av normalisering i L 1 och L ∞ utrymmen som avsevärt kan förbättra numerisk stabilitet i låg precision implementationer samt ge beräknings- och minnesfördelar. Vi visar att sådana metoder gör det möjligt för det första batch-normalternativet att fungera för halvprecisionsimplementeringar. Slutligen föreslår vi en ändring av viktnormalisering, vilket förbättrar dess prestanda på storskaliga uppgifter.
van Laarhoven (2017); REF studerade effekten av (batch) normalisering och viktfall på den effektiva inlärningshastigheten.
3,813,742
Norm matters: efficient and accurate normalization schemes in deep networks
{'venue': 'NeurIPS2018', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,428
Probabilistiska databassystem har framgångsrikt etablerat sig som ett verktyg för att hantera osäkra data. En stor del av forskningen inom detta område har dock fokuserat på effektiv frågeutvärdering och har i stort sett ignorerat två nyckelfrågor som ofta uppstår i osäker datahantering: För det första, hur man ger förklaringar till frågeresultat, t.ex. "Varför är denna tuple i mitt resultat?" eller "Varför denna utdata tuple har så hög sannolikhet?". För det andra, problemet med att bestämma den känsliga inmatning tuples för den givna frågan, t.ex., användare är intresserade av att veta indata tuples som kan avsevärt ändra utdata, när deras sannolikheter ändras (eftersom de kan vara osäkra på indata sannolikhetsvärden). Befintliga system ger härstamning/bevisning av var och en av utdata tuples förutom utdata sannolikheter, som är en boolesk formel som anger beroendet av utdata tuple på inmatning tuples. Men härstamning ger inte omedelbart en kvantitativ relation och det är inte informativt när vi har flera utdata tuples. I detta dokument föreslår vi en enhetlig ram som kan hantera båda de frågor som nämns ovan för att underlätta robust frågebehandling. Vi definierar formellt begreppen påverkan och förklaringar och ger algoritmer för att bestämma den översta influentiella uppsättningen av variabler och den översta uppsättningen förklaringar för en mängd olika frågor, inklusive konjunktiva frågor, probabilistiska tröskelfrågor, top-k-frågor och aggregeringsfrågor. Dessutom möjliggör vårt ramverk naturligtvis en mycket effektiv stegvis utvärdering när sannolikheten för input ändras (t.ex. om osäkerheten löses). Våra preliminära experimentella resultat visar fördelarna med vårt ramverk för att utföra robust frågebehandling över probabilistiska databaser.
Kanagal m.fl. REF studerade hur man kan kvantifiera inverkan av inmatning tuples på resultaten av frågor över en probabilistisk databas.
9,585,850
Sensitivity analysis and explanations for robust query evaluation in probabilistic databases
{'venue': "SIGMOD '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,429
Abstrakt. Detta papper behandlar den dynamiska schemaläggningen av formbara jobb med QoS krav (soft-deadlines) i multiclusters. En formbar jobb kan köras på ett variabelt antal resurser. Tre mätvärden (överdeadline, makepan och overksamhet) kombineras med vikter för att utvärdera schemaläggningsprestandan. Två nivåer av prestandaoptimering tillämpas i multiklustret. På multicluster nivå, en schemaläggare (som vi kallar MUSCLE) allokerar parallella jobb med hög packningspotential till samma kluster; MUSCLE tar också jobbens QoS krav i beaktande och använder en heuristic för att uppnå prestanda balansering över multicluster. På en enda klusternivå använder en befintlig arbetsbördachef, kallad TITAN, en genetisk algoritm för att ytterligare förbättra schemaläggningen av de jobb som tilldelats av MUSCLE. Omfattande experimentella studier genomförs för att verifiera effektiviteten hos schemaläggningsmekanismen i MUSCLE. Resultaten visar att den omfattande schemaläggningen av parallella arbetstillfällen avsevärt förbättras i hela multiklustret.
Den QoS-efterfrågan som berörs i REF är soft-deadline.
7,214,306
Hybrid Performance-Oriented Scheduling of Moldable Jobs with QoS Demands in Multiclusters and Grids
{'venue': 'GCC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,430
Även om djupet tenderar att förbättra nätverksprestanda, gör det också gradientbaserad träning svårare eftersom djupare nätverk tenderar att vara mer icke-linjära. Den nyligen föreslagna kunskapsdestilleringsmetoden syftar till att få fram små och snabba modeller, och den har visat att ett studentnätverk kan imitera det mjuka resultatet av ett större lärarnätverk eller ensemble av nätverk. I denna uppsats utvidgar vi denna idé för att möjliggöra utbildning av en student som är djupare och tunnare än läraren, inte bara med hjälp av resultaten utan också de mellanliggande representationer som läraren lärt sig som tips för att förbättra den studerandes utbildningsprocess och slutresultat. Eftersom den studerandes mellanliggande dolda lager i allmänhet kommer att vara mindre än lärarens mellanliggande dolda lager, införs ytterligare parametrar för att kartlägga den studerandes dolda lager till förutsägelsen av läraren dolda lager. Detta gör att man kan träna djupare studenter som kan generalisera bättre eller köra snabbare, en kompromiss som styrs av den valda studentkapaciteten. Till exempel, på CIFAR-10, ett djupt studentnätverk med nästan 10,4 gånger mindre parametrar överträffar ett större, toppmodernt lärarnätverk.
FitNet REF gör att studenten efterliknar lärarens fullständiga specialkartor.
2,723,173
FitNets: Hints for Thin Deep Nets
{'venue': 'ICLR 2015', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,431
ABSTRACT Med utvecklingen av trådlös kraftöverföringsteknik har trådlösa kommunikationsnät (WPCN) som kan ge en hållbar energiförsörjning för användarutrustningen fått stor uppmärksamhet från forskare. Ett obemannade luftfartyg (UAV)-baserat WFCN (U-WPCN) kan effektivt lösa problemen med energibrist och svag signalstyrka för markterminaler i avlägsna områden. För att etablera en högeffektiv U-WPCN bör serviceområdet för varje UAV-plattform fastställas så att varje UAV-plattform svävar vid den optimala positionen beroende på positionen för markterminalerna i sin grupp. Genom att hålla positionsoptimering föreslår detta dokument två nätverksstrategier för att förbättra nätverkseffektiviteten och maximera kommunikationsprestandan. En girig algoritm används för att hitta den optimala svävande punkten för varje område; alltså, svävande punkter för alla UAVs i U-WPCN slutligen uppnås. Simuleringsresultat visar att UAV-utnyttjandeeffektiviteten kan ökas avsevärt genom det ekonomiska läget, och terminalöverföringshastigheterna kan förbättras för ett givet antal drönare i prestandaläget. INDEX TERMS Obemannade flygfordon, optimal placering, trådlöst kommunikationsnät, hållbar kommunikation.
Författarna till REF föreslog två nätverksstrategier och en girig algoritm i UAV-baserade WPCN (U-WPCN) för att maximera kommunikationsprestandan och förbättra nätverkseffektiviteten genom att optimera svävande position för UAV.
57,763,564
UAV Hovering Strategy Based on a Wirelessly Powered Communication Network
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
80,432
Sparse representation har applicerats på visuell spårning genom att hitta den bästa kandidaten med minimal återuppbyggnad fel med hjälp av målmallar. De flesta sparsamma representationsbaserade spårare tar dock bara hänsyn till den holistiska representationen och utnyttjar inte fullt ut de glesa koefficienterna för att diskriminera mellan målet och bakgrunden, och kan därför misslyckas med större möjlighet när det finns liknande objekt eller ocklusion i scenen. I detta dokument utvecklar vi en enkel men ändå robust spårningsmetod baserad på den strukturella lokala glesa utseendemodellen. Denna representation utnyttjar både partiell information och rumslig information om målet baserat på en ny anpassningspoolningsmetod. Likheten som erhålls genom att samla över de lokala patchar hjälper inte bara lokalisera målet mer exakt men också hantera ocklusion. Dessutom använder vi en malluppdateringsstrategi som kombinerar inkrementellt subrymdsinlärning och sparsam representation. Denna strategi anpassar mallen till utseendet förändring av målet med mindre möjlighet att driva och minskar påverkan av den ockluded målmallen också. Både kvalitativa och kvantitativa utvärderingar av utmanande bildsekvenser visar att den föreslagna spårningsalgoritmen fungerar gynnsamt mot flera toppmoderna metoder.
Jia m.fl. REF föreslår en spårningsmetod baserad på en strukturell lokal gles utseendemodell.
1,315,786
Visual tracking via adaptive structural local sparse appearance model
{'venue': '2012 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2012 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
80,433
Frågesvarssystem (QA) över Knowledge Graphs (KG) besvarar automatiskt frågor om naturligt språk med hjälp av fakta i ett kunskapsdiagram. Enkla frågor, som kan besvaras genom utvinning av ett enda faktum, utgör en stor del av de frågor som ställs på webben men utgör fortfarande utmaningar för QA-system, särskilt när de ställs mot en stor kunskapsresurs. Befintliga kvalitetssäkringssystem är vanligtvis beroende av olika komponenter som var och en är specialiserad på att lösa olika deluppgifter i problemet (t.ex. segmentering, enhetsigenkänning, disambigering och relationsklassificering osv.). I detta arbete följer vi en helt annan strategi: Vi tränar ett neuralt nätverk för att svara på enkla frågor på ett end-to-end sätt, lämnar alla beslut till modellen. Det lär sig att ranka subjekt predicate par för att möjliggöra hämtning av relevanta fakta som ges en fråga. Nätverket innehåller en inbäddad frågekod på ord- och teckennivå som gör det möjligt att hantera problem med utanför-vokabulära och sällsynta ord samtidigt som man fortfarande kan utnyttja semantik på ordnivå. Vår strategi uppnår resultat som är konkurrenskraftiga med toppmoderna end-to-end-strategier som bygger på en uppmärksamhetsmekanism.
REF är mer lik vårt tillvägagångssätt där de tränar ett neuralt nätverk på ett end-to-end sätt.
12,983,389
Neural Network-based Question Answering over Knowledge Graphs on Word and Character Level
{'venue': 'WWW', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,434
Med tanke på två på varandra följande ramar syftar interpolering till att generera mellanliggande ramar för att bilda både rumsligt och tidsmässigt sammanhängande videosekvenser. Medan de flesta befintliga metoder fokuserar på en ram interpolation, föreslår vi en end-to-end convolutional neural nätverk för variabel-längd multi-frame video interpolation, där rörelsetolkning och ocklusion resonemang är gemensamt modellerade. Vi börjar med att beräkna det dubbelriktade optiska flödet mellan ingångsavbildningarna med hjälp av en U-Net-arkitektur. Dessa flöden kombineras sedan linjärt vid varje steg för att approximera de mellanliggande dubbelriktade optiska flödena. Dessa ungefärliga flöden fungerar dock bara bra i lokalt smidiga regioner och producerar artefakter kring rörelsegränser. För att ta itu med denna brist använder vi en annan UNet för att förfina det ungefärliga flödet och även förutsäga mjuka siktkartor. Slutligen är de två ingångsbilderna förvrängda och linjärt sammansmälta för att bilda varje mellanliggande ram. Genom att applicera siktkartorna på de förvrängda bilderna före fusion, utesluter vi bidraget från ockluded pixlar till den interpolerade mellanliggande ramen för att undvika artefakter. Eftersom ingen av våra lärda nätverksparametrar är tidsberoende, kan vår strategi producera så många mellanliggande ramar som behövs. Vi använder 1.132 videoklipp med 240-fps, som innehåller 300K individuella videoramar, för att träna vårt nätverk. Experimentella resultat på flera datauppsättningar, som förutsäger olika antal interpolerade ramar, visar att vårt arbetssätt fungerar konsekvent bättre än befintliga metoder.
För att övervinna artefakter av optiskt flöde, ett U-Net används för att förfina det optiska flödet i REF.
10,817,557
Super SloMo: High Quality Estimation of Multiple Intermediate Frames for Video Interpolation
{'venue': 'CVPR 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,435
Abstract-Cloud Computing har föreställts som nästa generations arkitektur för IT Enterprise. I motsats till traditionella lösningar där IT-tjänsterna är under ordentlig fysisk, logisk och personalkontroll flyttar Cloud Computing applikationsprogramvaran och databaserna till de stora datacenteren, där hanteringen av data och tjänster kanske inte är helt tillförlitlig. Detta unika attribut innebär dock många nya säkerhetsutmaningar som inte har förståtts väl. I den här artikeln fokuserar vi på molndatalagringssäkerhet, vilket alltid har varit en viktig aspekt av tjänstens kvalitet. För att säkerställa korrektheten i användarnas data i molnet, föreslår vi ett effektivt och flexibelt distribuerat system med två framträdande funktioner, mot sina föregångare. Genom att använda homomorphic token med distribuerad verifiering av radering-kodade data, vårt system uppnår integration av lagring korrekthet försäkring och datafel lokalisering, dvs identifiering av felhavande server(er). Till skillnad från de flesta tidigare arbeten stöder det nya systemet ytterligare säkra och effektiva dynamiska operationer på datablock, inklusive: uppdatering av data, radering och tillägg. Omfattande säkerhets- och prestandaanalys visar att det föreslagna systemet är mycket effektivt och motståndskraftigt mot bysantinska misslyckanden, skadlig datamodifiering attack, och även server colluding attacker.
Genom att säkerställa datalagringssäkerhet i Cloud Computing REF, som introducerar de nya säkerhetshoten i molnet och vissa tekniker som ger datasäkerhet i molnet.
11,017,037
Ensuring data storage security in Cloud Computing
{'venue': '2009 17th International Workshop on Quality of Service', 'journal': '2009 17th International Workshop on Quality of Service', 'mag_field_of_study': ['Computer Science']}
80,436
Vi inför en hierarkisk Bayesiansk strategi för att ta itu med det utmanande problemet med storleksrekommendationer inom e-handel. Vår strategi tillsammans modellerar en storlek köpt av en kund, och dess möjliga retur händelse: 1. ingen avkastning, 2. returnerade för liten 3. returnerade för stor. Dessa händelser ritas efter en multinomal fördelning parameteriserad på den gemensamma sannolikheten för varje händelse, byggd efter en hierarki som kombinerar tidigare. En sådan modell gör det möjligt för oss att införliva utökad domänkompetens och artikelegenskaper som förkunskaper, vilket i sin tur gör det möjligt för de underliggande parametrarna att framträda tack vare tillräckliga data. Experiment presenteras på verkliga (anonymiserade) data från miljontals kunder tillsammans med en detaljerad diskussion om effektiviteten i ett sådant tillvägagångssätt inom ett storskaligt produktionssystem.
I REF föreslår författarna en hierarkisk Bayesiansk strategi för personlig storleksrekommendation.
52,898,549
A Hierarchical Bayesian Model for Size Recommendation in Fashion
{'venue': 'In: Proceedings of the 12th ACM Conference on Recommender Systems. ACM, 2018. S. 392-396', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,437
Drivs av visioner av Internet of Things och 5G-kommunikation, har de senaste åren sett ett paradigm skifte i mobila datorer, från den centraliserade mobila molndata till mobila kantdata (MEC). Det viktigaste inslaget i MEC är att driva mobil databehandling, nätverksstyrning och lagring till nätverkskanterna (t.ex. basstationer och åtkomstpunkter) för att möjliggöra beräkningsintensiva och latentkritiska tillämpningar vid de resursbegränsade mobila enheterna. MEC utlovar en dramatisk minskning av latens och mobil energiförbrukning och tar itu med de viktigaste utmaningarna för att förverkliga 5G-visionen. MEC:s utlovade vinster har motiverat ett omfattande arbete inom både akademin och industrin med att utveckla tekniken. En huvudinriktning i MEC-forskningen är att sömlöst slå samman de två disciplinerna trådlös kommunikation och mobil databehandling, vilket resulterar i ett brett spektrum av nya konstruktioner som sträcker sig från tekniker för beräkning av avlastning till nätverksarkitekturer. Detta dokument ger en omfattande översikt över den toppmoderna MEC-forskningen med fokus på gemensam förvaltning av radio- och beräkningsresurser. Vi diskuterar också en rad frågor, utmaningar och framtida forskningsinriktningar för MEC-forskning, inklusive MEC-systemdistribution, cacheaktiverad MEC, mobilitetshantering för MEC, grön MEC, samt integritetsmedveten MEC. Framsteg i dessa riktningar kommer att underlätta omvandlingen av MEC från teori till praktik. Slutligen introducerar vi de senaste standardiseringsinsatserna för MEC samt några typiska MEC-scenarier.
I REF gav författarna en omfattande översikt över den senaste MEC-forskningen, särskilt gemensam förvaltning av radio- och datorresurser.
206,578,365
A Survey on Mobile Edge Computing: The Communication Perspective
{'venue': 'IEEE Communications Surveys & Tutorials', 'journal': 'IEEE Communications Surveys & Tutorials', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,438
Vårt arbete föreslår en ny ram för djupt lärande för att uppskatta folkmassans densitet från statiska bilder av mycket täta folkmassor. Vi använder en kombination av djupa och grunda, helt konvolutionella nätverk för att förutsäga densitet kartan för en given publik bild. En sådan kombination används för att effektivt fånga upp både den semantiska informationen på hög nivå (ansikts-/kroppsdetektorer) och de lågnivåfunktioner (blob-detektorer), som är nödvändiga för att man ska kunna räkna i stor skala. Eftersom de flesta crowd dataset har begränsade träningsprover (<100 bilder) och djupinlärningsbaserade metoder kräver stora mängder träningsdata, utför vi flerskalig dataförstärkning. Att förstärka utbildningsproverna på ett sådant sätt hjälper till att vägleda CNN att lära sig skala invarianta representationer. Vår metod är testad på den utmanande UCF CC 50 dataset, och visade sig överträffa toppmoderna metoder.
För att använda sig av både semantisk information på hög nivå och lågnivåfunktioner, Bouninathan et al. REF gör en kombination av djupa och grunda, helt konvolutionella nätverk för att uppskatta densitetskartorna.
697,405
CrowdNet: A Deep Convolutional Network for Dense Crowd Counting
{'venue': "MM '16", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,439
Idag spelar molnet en central roll i lagring, bearbetning och distribution av data. Trots att bidra till den snabba utvecklingen av IoT-tillämpningar, har den nuvarande IoT-moln-centrerad arkitekturen lett till en myriad av isolerade data silos som hindrar den fulla potentialen av holistisk datadriven analys inom IoT. I detta dokument presenterar vi en blockchain-baserad design för sakernas internet som ger en distribuerad åtkomstkontroll och datahantering. Vi avviker från den nuvarande förtroendemodellen som delegerar åtkomstkontroll av våra data till en centraliserad betrodd myndighet och i stället ger användarna tillgång till data. Vår design är skräddarsydd för IoT-dataströmmar och möjliggör säker datadelning. Vi möjliggör en säker och motståndskraftig åtkomstkontrollhantering, genom att använda blockkedjan som en granskningsbar och distribuerad åtkomstkontrollskikt till lagringslagret. Vi underlättar lagring av tidsserie IoT-data i utkanten av nätverket via ett lokalt-medvetet decentraliserat lagringssystem som hanteras med blockchain-tekniken. Vårt system är agnostiskt för de fysiska lagringsnoder och stöder såväl utnyttjande av molnlagringsresurser som lagringsnoder. Med framväxten av nätverksanslutna inbyggda enheter kallas IoT, vi bevittnar ett ständigt ökande antal innovativa applikationer. Det nuvarande ekosystemet för sakernas internet består vanligtvis av utsedda lågeffektenheter som är utrustade med sensorer som samlar in data. Dessa data lagras sedan via appar för särskilda ändamål (dvs. gateways för applikationslager) i en tredje parts molnlagring för vidare behandling. Denna arkitektur med kaminrör [31] har resulterat i isolerade datasilor, där användarna har begränsad kontroll över sina data och hur de används. Användare måste lita på molnet och programleverantörer
REF säkerställer att IoT-dataägandet stannar hos intressenterna.
207,561,485
Towards Blockchain-based Auditable Storage and Sharing of IoT Data
{'venue': "CCSW '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,440
På grund av kognitiva radionäts dynamiska karaktär kräver flera användares videoströmning (med olika egenskaper för videotrafik och QoS-krav) effektiva system för dynamisk kanalurval för att utnyttja tillgängliga spektrumresurser. För att göra detta måste en trådlös användare effektivt modellera den dynamiska trådlösa miljön och uppskatta fördröjningen av videopaketöverföringen när man väljer en viss frekvenskanal. I det här dokumentet tillämpar vi den prioriterade virtuella kömodellen för dessa trådlösa användare för att anpassa deras kanalval och maximera videokvaliteter. Simuleringsresultaten visar att den föreslagna kanalurvalslösningen baserad på prioriteringsplanering överträffar det konventionella dynamiska kanalurvalet med 2 dB (PSNR). Index Terms-Video streaming, kognitiva radionätverk, prioriterad köanalys.
Shing m.fl. REF föreslog idén om dynamisk kanalval för video streaming över en CRN, baserat på vissa prioritetsbaserade schemaläggning av videosignaler.
15,645,652
Dynamic channel selection for multi-user video streaming over cognitive radio networks
{'venue': '2008 15th IEEE International Conference on Image Processing', 'journal': '2008 15th IEEE International Conference on Image Processing', 'mag_field_of_study': ['Computer Science']}
80,441
Abstract-This paper presenterar en ram för säkerhetskrav frammanande och analys. Ramen bygger på att skapa ett sammanhang för systemet, som representerar säkerhetskrav som begränsningar, och att utveckla tillfredsställande argument för säkerhetskraven. Systemets sammanhang beskrivs med hjälp av en problemorienterad notation, sedan valideras mot säkerhetskraven genom konstruktion av en tillfredsställelse argument. Belåtenhetsargumentet består av två delar: ett formellt argument om att systemet kan uppfylla sina säkerhetskrav och ett strukturerat informellt argument som stöder de antaganden som uttrycks i det formella argumentet. Uppförandet av tillfredsställelse argumentet kan misslyckas, visar antingen att säkerhetskravet inte kan uppfyllas i sammanhanget eller att sammanhanget inte innehåller tillräcklig information för att utveckla argumentet. I detta fall uppmanas designers och arkitekter att tillhandahålla ytterligare designinformation för att lösa problemen. Vi utvärderar ramverket genom att tillämpa det på en säkerhetsanalys inom ramen för ett projekt för utvärdering av flygkontrollteknik.
Dessutom presenteras en ram för representation och analys av säkerhetskraven av Haley et al. i REF................................................................................................
1,955,293
Security Requirements Engineering: A Framework for Representation and Analysis
{'venue': 'IEEE Transactions on Software Engineering', 'journal': 'IEEE Transactions on Software Engineering', 'mag_field_of_study': ['Computer Science']}
80,442
I detta dokument studerar vi energieffektiv resursallokering för multicarrier icke-ortogonala system för flera åtkomster. Utformningen av resursalgoritmerna är formulerad som ett icke-konvext optimeringsproblem som tillsammans konstruerar strömfördelning, hastighetstilldelning, schemaläggning av användare och successiv avkodning av störningar (SIC) för att minimera den totala sändningseffekten. I den föreslagna ramen beaktas bristen på kanalstatsinformation vid sändare och användarnas krav på tjänsternas kvalitet. För att underlätta utformningen av optimal SIC-avkodningspolicy för varje undertransport, definierar vi ett kanal-till-brusförhållande avbrottströskel. Därefter omarbetas det anses icke-konvexa optimeringsproblemet som ett generaliserat linjärt multiplikativt programmeringsproblem, för vilket en globalt optimal lösning erhålls genom att använda den gren-och-bundna metoden. Den optimala resursfördelningspolicyn fungerar som ett riktmärke för systemets prestanda på grund av dess stora komplexitet i beräkningen. För att hitta en balans mellan systemprestanda och computational komplexitet föreslår vi en suboptimal iterativ resursalgoritm baserad på skillnaden i konvex programmering. Simuleringsresultat visar att det suboptimala systemet uppnår en prestanda som är nära optimal. Båda de föreslagna systemen ger också betydande besparingar i överföringseffekt jämfört med konventionella ortogonala system för flergångstillträde. Index Villkor-Icke-ortogonal flera åtkomst, resursfördelning, ofullständig kanal tillstånd information, kvalitet på tjänsten.
MC-NOMA studeras också i REF där författarna gemensamt utformar makt- och hastighetstilldelningen, användarschemaläggningen och den successiva SIC-avkodningspolicyn för att minimera strömförbrukningen.
20,065,907
Optimal Resource Allocation for Power-Efficient MC-NOMA With Imperfect Channel State Information
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,443
Webbsökningsklassificering (QC) syftar till att klassificera webbanvändares frågor, som ofta är korta och tvetydiga, i en uppsättning målkategorier. QC har många program inklusive sidrankning i webbsökning, riktad annons som svar på frågor, och personalisering. I detta dokument presenterar vi en ny strategi för QC som överträffar den vinnande lösningen i ACM KDDCUP 2005 tävlingen, vars syfte är att klassificera 800 000 verkliga användare frågor. I vårt tillvägagångssätt bygger vi först en överbryggande klassificering på en mellanliggande taxonomi i ett offlineläge. Denna klassificering används sedan i ett online-läge för att kartlägga användarfrågor till målkategorierna via ovanstående mellanliggande taxonomi. En viktig nyhet är att vi genom att utnyttja likhetsfördelningen över den mellanliggande taxonomin inte behöver omskola en ny klassificering för varje ny uppsättning målkategorier, och därför behöver den överbryggande klassificeringen endast utbildas en gång. Dessutom inför vi kategoriurval som en ny metod för att begränsa omfattningen av den mellanliggande taxonomi som vi klassificerar frågorna på. Kategorival kan förbättra både effektiviteten och effektiviteten i online-klassificeringen. Genom att kombinera vår algoritm med den vinnande lösningen av KDDCUP 2005, gjorde vi en förbättring med 9,7 % respektive 3,8 % i fråga om precision respektive F1 jämfört med de bästa resultaten av KDDCUP 2005.
REF förbättrar webbsökningsklassificeringen genom att kartlägga frågan till begreppen i en mellanliggande taxonomi som i sin tur är kopplade till begreppen i målgruppen taxonomi.
16,719,259
Building bridges for web query classification
{'venue': "SIGIR '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,444
Uppfattning och uttryck för känslor är nyckelfaktorer för att dialogsystem eller samtalsagenter ska lyckas. Detta problem har dock hittills inte studerats i den storskaliga konversationsgenerationen. I detta dokument föreslår vi Emotional Chatting Machine (ECM) som kan generera lämpliga svar inte bara i innehåll (relevant och grammatisk) utan också i känslor (emotionellt konsekvent). Såvitt vi vet är detta det första arbetet som tar upp känslofaktorn i den storskaliga konversationsgenerationen. ECM tar upp faktorn med hjälp av tre nya mekanismer som (1) modellerar den höga gradens abstraktion av känslouttryck genom att inbädda känslokategorier, (2) fångar förändringen av implicita inre känslotillstånd, och (3) använder uttryckliga känslouttryck med en yttre känsla vokabulär. Experiment visar att den föreslagna modellen kan ge lämpliga svar inte bara i fråga om innehåll utan också i fråga om känslor.
Zhou m.fl. REF har föreslagit Emotional Chatting Machine som kan generera lämpliga svar inte bara i innehåll (relevant och grammatisk) utan också känslomässigt överensstämmer med inmatningsprompten.
2,024,574
Emotional Chatting Machine: Emotional Conversation Generation with Internal and External Memory
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,445
Abstract-I detta papper föreslår vi en robust visuell spårningsmetod genom att gjuta spårning som ett glest approximationsproblem i ett partikelfilterramverk. Inom denna ram hanteras ocklusion, buller och andra utmanande frågor sömlöst genom en uppsättning triviala mallar. För att hitta spårningsmålet i en ny ram är varje målkandidat glest representerad i det utrymme som spänns av målmallar och triviala mallar. Den gleshet uppnås genom att lösa ett'1 - regularized minst-square problem. Därefter tas kandidaten med minsta projektionsfel som mål för spårningen. Därefter fortsätter spårningen med hjälp av Bayesian State Inference Framework. Två strategier används för att ytterligare förbättra spårningsprestandan. Först, målmallar uppdateras dynamiskt för att fånga utseende förändringar. För det andra tillämpas icke-negativitetsbegränsningar för att filtrera bort skräp som negativt liknar spårningsmål. Vi testar den föreslagna metoden på många sekvenser som involverar olika typer av utmaningar, inklusive ocklusion och variationer i belysning, skala, och pose. Det föreslagna tillvägagångssättet visar på utmärkta resultat jämfört med tidigare föreslagna spårare. Vi utökar också metoden för samtidig spårning och igenkänning genom att införa en statisk malluppsättning som lagrar målbilder från olika klasser. igenkänningsresultatet vid varje ram förökas för att producera slutresultatet för hela videon. Metoden valideras för en fordonsspårnings- och klassificeringsuppgift med hjälp av infraröda videosekvenser utomhus.
I REF är en spårningskandidat glest representerad som en linjär kombination av målmallar och triviala mallar som endast har ett icke-nollelement.
16,051,076
Robust Visual Tracking and Vehicle Classification via Sparse Representation
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Medicine', 'Computer Science']}
80,446
Att lära sig förutsäga framtida bilder från en videosekvens innebär att man konstruerar en intern representation som modellerar bildutvecklingen exakt, och därför i viss mån dess innehåll och dynamik. Det är därför pixel-rymd video förutsägelse kan ses som en lovande väg för oövervakad funktionsinlärning. Dessutom, medan optiskt flöde har varit ett mycket studerat problem i datorseende för en lång tid, framtida ram förutsägelse sällan närma sig. Ändå kan många vision program dra nytta av kunskapen om nästa bilder av videor, som inte kräver komplexiteten i att spåra varje pixel bana. I detta arbete utbildar vi ett konvolutionellt nätverk för att generera framtida ramar med tanke på en ingångssekvens. För att hantera de inneboende suddiga förutsägelser som erhålls från den standard Mean Squared Error (MSE) förlust funktion, föreslår vi tre olika och kompletterande funktioner lärande strategier: en flerskalig arkitektur, en kontradiktorisk utbildningsmetod, och en bild gradient skillnad förlust funktion. Vi jämför våra förutsägelser med olika publicerade resultat baserade på återkommande neurala nätverk på UCF101 datasetet.
I REF föreslår författarna olika funktionsinlärningsstrategier (multi-scale arkitektur, kontraarial utbildningsmetod, bildgradient skillnad förlustfunktion) för att förutsäga framtida ramar i råa videor.
205,514
Deep multi-scale video prediction beyond mean square error
{'venue': 'ICLR 2016', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,447
Med den rika uppsättning inbyggda sensorer installerade i smartphones och det stora antalet mobila användare, bevittnar vi uppkomsten av många innovativa kommersiella mobila crowdsensing applikationer som kombinerar kraften i mobil teknik med crowdsourcing för att leverera tidskänslig och platsberoende information till sina kunder. Motiverade av dessa verkliga applikationer, anser vi problemet med uppgiftsval för heterogena användare med olika ursprungliga platser, rörelsekostnader, rörelsehastigheter och ryktesnivåer. Att beräkna det sociala överskottet maximering uppgift allokering visar sig vara ett NP-hård problem. Därför fokuserar vi på det distribuerade fallet och föreslår en asynkron och distribuerad aktivitetsvalalgoritm (ADTS) för att hjälpa användarna att planera sina aktivitetsval på egen hand. Vi bevisar konvergensen av algoritmen, och ytterligare karakteriserar beräkningstiden för användarnas uppdateringar i algoritmen. Simuleringsresultat tyder på att ADTS-systemet uppnår Jains högsta rättviseindex och täckning jämfört med flera referensalgoritmer, samtidigt som det ger liknande fördelar för användaren till ett girigt centraliserat riktmärke. Slutligen illustrerar vi hur mobila användare samordnar sig enligt ADTS-systemet baserat på några praktiska rörelsetidsdata från Google Maps.
Cheung m.fl. REF övervägde problemet med distribuerat aktivitetsval för tidskänsliga och platsberoende uppgifter.
2,596,533
Distributed Time-Sensitive Task Selection in Mobile Crowdsensing
{'venue': "MobiHoc '15", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,449
Generation of Referring Expressions är ett blomstrande delfält i Natural Language Generation som traditionellt har fokuserat på uppgiften att välja en uppsättning attribut som entydigt identifierar en viss referens. I detta dokument tar vi upp det kompletterande problemet med att generera upprepade, potentiellt olika referentiella uttryck som hänvisar till samma enhet i samband med ett föredrag längre än en mening. Vi beskriver en corpus av korta encyklopediska texter som vi har sammanställt och kommenterat för referens till huvudämnet i texten, och rapporterar resultat för våra experiment där vi sätter mänskliga ämnen och automatiska metoder uppgiften att välja ett referentiellt uttryck från ett brett spektrum av val i en fulltext kontext. Vi finner att våra mänskliga ämnen i hög grad är överens om val av uttryck, med tre identiska uttryck valda i 50 procent av fallen. Vi testade automatiska urvalsstrategier baserade på de vanligaste valheuristikerna, med olika kombinationer av information om syntaktisk MSR-typ och domäntyp. Vi finner att mer information i allmänhet ger bättre resultat, vilket ger en bästa total testnoggrannhet på 53,9% när både syntaktisk MSR-typ och domäntyp är kända.
I studierna relaterade till GREC-utmaningarna REF var algoritmerna tvungna att identifiera det korrekta hänvisningsuttrycket från en given uppsättning.
1,308,373
Generation of Repeated References to Discourse Entities
{'venue': 'ENLG', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,450
Att testa stora programvarupaket kan bli mycket tidsintensivt. För att ta itu med detta problem har forskare undersökt tekniker som Test Suite Minimering. Test Suite Minimering minskar antalet tester i en svit genom att ta bort tester som verkar överflödiga, med risk för en minskning av felsökning förmåga eftersom det kan vara svårt att identifiera vilka tester är verkligt överflödiga. Vi tar ett helt annat tillvägagångssätt för att lösa samma problem med långa testsviter genom att istället minska den tid som krävs för att utföra varje test, ett tillvägagångssätt som vi kallar Unit Test Virtualization. Med Unit Test Virtualization minskar vi omkostnaderna för att isolera varje enhetstest med en lättviktig virtualiseringsbehållare. Vi beskriver den empiriska analys som utgår från vårt förhållningssätt och ger en implementering av Unit Test Virtualization riktad mot Java applikationer. Vi utvärderade vårt genomförande, VmVm, med 20 verkliga Java-applikationer och fann att det minskar testsvitens genomförandetid med upp till 97% (i genomsnitt 62%) jämfört med traditionell enhetstest. Vi jämförde även VmVm med en välkänd testsvitsminimeringsteknik och fann att den reduktion som VmVm tillhandahåller är fyra gånger större, medan den fortfarande utför varje test utan förlust av felsökningsförmåga.
Verktyget VMVM REF använder testvirtualisering för att isolera enhetstester av en JUnit-svit genom att återställa programmets statiska tillstånd till dess standard före varje testkörning.
1,412,934
Unit test virtualization with VMVM
{'venue': 'ICSE 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,451
Vi undersöker en ny metod för att öka återkommande neurala nätverk med extra minne utan att öka antalet nätverksparametrar. Systemet har ett associativt minne baserat på komplexa vektorer och är nära relaterat till holografiska reducerade representationer och Long Short-Term Memory nätverk. Holografiska reducerade representationer har begränsad kapacitet: eftersom de lagrar mer information blir varje hämtning bullrigare på grund av störningar. Vårt system skapar däremot överflödiga kopior av lagrad information, vilket möjliggör hämtning med reducerat buller. Experiment visar snabbare inlärning på flera memorering uppgifter.
REF föreslog en metod för att öka återkommande neurala nätverk med associativt minne baserat på komplexa-värderade vektorer, som uppnådde snabbare lärande på flera memorering uppgifter.
8,239,112
Associative Long Short-Term Memory
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,452
Sentimentanalys i Twitter har blivit en viktig uppgift på grund av det enorma användargenererade innehåll som publiceras över sådana medier. En sådan analys skulle kunna vara användbar för många områden som marknadsföring, finans, politik och social. Vi föreslår att använda många funktioner för att förbättra en utbildad klassificerare av Twitter-meddelanden; dessa funktioner utökar funktionen vektorn för uni-gram modell av koncept som extraheras från DBpedia, verbgrupperna och liknande adjektiv extraheras från WordNet, Sentifeatures extraheras med hjälp av SentiWordNet och några användbara domänspecifika funktioner. Vi byggde också en ordbok för känslor ikoner, förkortning och slang ord i tweets som är användbart innan tweets med olika funktioner. Lägga till dessa funktioner har förbättrat f-mätnoggrannheten 2% med SVM och 4% med NaiveBayes.
Författare i REF använde de begrepp som extraherats från DBPedia och adjektiven från WordNet, de rapporterade att DBpedia koncepten är användbara med Naïve-Bayes klassificerare men mindre användbara med SVM.
6,751,421
Experiments with DBpedia, WordNet and SentiWordNet as resources for sentiment analysis in micro-blogging
{'venue': '*SEM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,453
Vi visar att befintliga uppsamplingsoperatörer kan förenas med hjälp av begreppet indexfunktion. Detta begrepp är inspirerat av en observation i avkodningsprocessen för djupbildsmatrisering där indexstyrd opoolning ofta kan återställa gränsdetaljer betydligt bättre än andra uppsamplingsoperatörer såsom bilinjär interpolering. Genom att titta på indexen som en funktion av funktionskartan introducerar vi begreppet "inlärning till index" och presenterar ett nytt indexstyrt encoder-dekoderramverk där index är självlärda adaptivt från data och används för att vägleda poolning och uppsampling operatörer, utan extra utbildning övervakning. Kärnan i detta ramverk är en flexibel nätverksmodul, kallad IndexNet, som dynamiskt genererar index som är konditionerade på funktionskartan. På grund av dess flexibilitet, kan IndexNet användas som en plug-in tillämpas på nästan alla off-the-shelf convolutional nätverk som har kopplat nedsampling och uppsampling stadier. Vi demonstrerar effektiviteten av IndexNet på uppgiften att naturlig bild matting där kvaliteten på inlärda index kan observeras visuellt från förutsagda alfa matts. Resultat på Composition-1k matting dataset visar att vår modell byggd på MobileNetv2 uppvisar minst 16,1% förbättring jämfört med den seminala VGG-16 baserade djupa matting baslinje, med mindre träningsdata och lägre modellkapacitet. Kod och modeller har gjorts tillgängliga på https://tinyurl.com/IndexNetV1. * Motsvarande författare. Figur 1: Alfamatta av olika modeller. Från vänster till höger, Deeplabv3+ [4], RafineNet [30], Deep Matting [49] och Ours. Dubbellinjär uppsampling lyckas inte återställa subtila detaljer, medan avslappning och vår lärda uppsampling operatör kan producera mycket klara matt med bra lokala kontraster.
Lu REF föreslog IndexNet för att lära index för att vägleda pooling och upsampling operatörer.
199,405,366
Indices Matter: Learning to Index for Deep Image Matting
{'venue': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'journal': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
80,454
Abstract-Considerable uppmärksamhet har fokuserats på egenskaperna hos grafer som härrör från Internetmätningar. Router-nivå topologier samlas in via track route-liknande metoder har lett några att dra slutsatsen att router grafen på Internet är väl modellerad som en power-law slumpmässig graf. I en sådan graf, graden fördelningen av noder följer en fördelning med en power-law svans. Vi hävdar att bevisen hittills för denna slutsats i bästa fall är otillräckliga. Vi visar att när grafer provtas med hjälp av spårvägsliknande metoder, kan den resulterande gradfördelningen skilja sig kraftigt från den underliggande grafen. Till exempel, med tanke på en sparse Erdös-Rényi slumpmässig graf, den subgraf som bildas av en samling kortaste vägar från en liten uppsättning slumpmässiga källor till en större uppsättning slumpmässiga destinationer kan uppvisa en examen fördelning anmärkningsvärt som en power-law. Vi undersöker orsakerna till hur denna effekt uppstår, och visar att i en sådan inställning, kanter provtas på ett mycket partiskt sätt. Denna insikt gör det möjligt för oss att formulera tester för att bestämma när provtagning partiskhet är närvarande. När vi tillämpar dessa tester på ett antal välkända datauppsättningar, finner vi starka bevis för provfördomar.
Särskilt Lakhina et al. REF visar att om en graf har en nodgradsfördelning som skiljer sig mycket från en kraftlag, kommer provtagning från en liten uppsättning utsiktspunkter att ge en bild av en graf med en nodgradsfördelning som följer en kraftlag.
6,464,273
Sampling biases in IP topology measurements
{'venue': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'journal': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'mag_field_of_study': ['Computer Science']}
80,455
Cloud Radio Access Network (C-RAN) har vuxit fram som en potentiell kandidat för nästa generations accessnätverksteknik för att ta itu med den ökande mobila trafiken, medan mobila molntjänster (MCC) erbjuder en framtida lösning för den resursbegränsade mobila användaren när det gäller att utföra beräkningsintensiva uppgifter. Med full nytta av ovan två molnbaserade tekniker, C-RAN med MCC presenteras i detta dokument för att förbättra både prestanda och energieffektivitet. I detta dokument studeras särskilt den gemensamma energiminimeringen och resurstilldelningen i C-RAN med MCC under de fastställda uppgifternas tidsfrister. Vi går först igenom energi- och tidsmodellen för beräkning och kommunikation. Sedan formulerar vi den gemensamma energiminimeringen till en icke-konvex optimering med begränsningarna för att utföra uppgiften, överföra kraft, beräkningskapacitet och fronthaul datahastigheter. Denna icke-konvexa optimering omformuleras sedan till ett likvärdigt konvext problem baserat på vägt minsta kvadratfel (WMMSE). Den iterativa algoritmen ges slutligen för att hantera den gemensamma resurstilldelningen i C-RAN med mobilmoln. Simuleringsresultat bekräftar att den föreslagna energiminimerings- och resursfördelningslösningen kan förbättra systemets prestanda och spara energi.
Wang m.fl. REF fokuserade på energibesparingsproblem i molnradionät, och formulerade en icke-konvex energiminimeringsoptimering problem.
12,985,553
Joint Energy Minimization and Resource Allocation in C-RAN with Mobile Cloud
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,456
Vi studerar problemet med databehandling på stora dataset som lagras på en opålitlig server. Vi följer metoden med amorterad kontrollerbar beräkning som infördes av Gennaro, Gentry och Parno i CRYPTO 2010. Vi presenterar det första praktiska verifierbara beräkningssystemet för höggradiga polynomfunktioner. Sådana funktioner kan till exempel användas för att göra förutsägelser baserade på polynom som är monterade på ett stort antal provpunkter i ett experiment. Förutom de många icke-kryptografiska applikationerna av att delegera höggradiga polynom, använder vi vårt verifierbara beräkningssystem för att få nya lösningar för kontrollerbar sökordssökning, och bevis på att det går att få tillbaka. Våra konstruktioner är baserade på DDH antagande och dess varianter, och uppnå adaptiv säkerhet, som lämnades som ett öppet problem av Gennaro et al (om än för allmänna funktioner). Vårt andra resultat är en primitiv som vi kallar en kontrollerbar databas (VDB). Här, en svag klient outsourcar en stor tabell till en opålitlig server, och gör hämtning och uppdatera frågor. För varje fråga ger servern ett svar och ett bevis på att svaret beräknades korrekt. Målet är att minimera de resurser som kunden behöver. Detta görs särskilt utmanande om antalet uppdateringsförfrågningar är obegränsat. Vi presenterar ett VDB-system baserat på hårdheten i undergruppsmedlemsproblemet i sammansatta tvåradiga grupper. Detta är den första sådana konstruktion som bygger på en "konstant storlek" antagande, och inte kräver dyr generering av primer per operation.
Under 2011 föreslog Ref ett problem som databehandling på stora datauppsättningar som lagras på opålitlig server.
9,885,646
Verifiable delegation of computation over large datasets
{'venue': 'In Proceedings of the 31st annual conference on Advances in cryptology, CRYPTO’11', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,457
Abstract-I detta dokument föreslås ett nytt tillvägagångssätt för optimering och hantering av resursfördelning i trådlösa småcelliga nätverk (SCN) med enhet-till-enhet (D2D) kommunikation. Det föreslagna tillvägagångssättet gör det möjligt att gemensamt utnyttja den trådlösa och sociala kontexten hos trådlösa användare för att optimera den totala resurstilldelningen och förbättra avlastningen av trafik i SCN. Detta sammanhangsmedvetna resursfördelningsproblem formuleras som ett matchande spel där användarutrustning (UES) och resursblock (RBs) rankar varandra, baserat på allmännyttiga funktioner som fångar både trådlösa och sociala mått. På grund av sociala relationer, detta spel visas tillhöra en klass av matchande spel med inbördes effekter. För att lösa detta spel, en ny, självorganiserande algoritm föreslås, med hjälp av vilka UEs och RBs kan interagera för att besluta om deras önskade tilldelning. Den föreslagna algoritmen har sedan visat sig konvergera till en tvåsidig stabil matchning mellan UEs och RBs. Egenskaperna hos det resulterande stabila resultatet studeras och bedöms därefter. Simuleringsresultat med hjälp av verkliga sociala data visar att kluster av socialt anslutna användare gör det möjligt att avlasta en betydligt större mängd trafik än den konventionella kontext-unware-metoden. Dessa resultat visar att utnyttjandet av sociala sammanhang har stor praktisk betydelse när det gäller att spara resurser på de trådlösa länkarna och på backhaul.
Så att problemet formuleras som ett matchande spel där D2D par och RBs ranka varandra baserat på de allmännyttiga funktioner som anser både fysiska och sociala mått i REF.
14,952,655
Context-Aware Small Cell Networks: How Social Metrics Improve Wireless Resource Allocation
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,458
Förmågan hos Generative Adversarial Networks (Gans) ramverk för att lära generativa modeller kartläggning från enkla latent distributioner till godtyckligt komplexa datadistributioner har visats empiriskt, med övertygande resultat som visar generatorer lär sig att "linjärisera semantik" i latent utrymme av sådana modeller. Intuitivt, kan sådana latenta utrymmen fungera som användbara funktioner representationer för hjälpproblem där semantik är relevanta. Men i sin nuvarande form har GAN inga möjligheter att lära sig den omvända kartläggningen - projicering data tillbaka in i latent utrymme. Vi föreslår Bidirective Generative Adversarial Networks (Bigans) som ett sätt att lära sig denna inversa kartläggning, och visa att den resulterande inlärda funktionen representation är användbar för extra övervakad diskriminering uppgifter, konkurrenskraftiga med moderna metoder för oövervakade och självövervakade funktionsinlärning.
Tvåvägs GAN (BiGAN) REF föreslås för att överbrygga gapet att konventionell GAN inte lär sig den inversa kartläggning som projicerar data tillbaka in i latent utrymme, vilket kan vara mycket användbart för oövervakad funktionsinlärning.
84,591
Adversarial Feature Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,459
Vi undersöker arkitekturer av discriminativt utbildade djupa Convolutional Networks (ConvNets) för åtgärdsigenkänning i video. Utmaningen är att fånga den kompletterande informationen om utseende från stillbildsramar och rörelse mellan ramar. Vi strävar också efter att i nätverksdesignen integrera aspekter av de bäst presterande handgjorda funktionerna. Vårt bidrag är trefaldigt. För det första föreslår vi en tvåströms ConvNet-arkitektur som innehåller rumsliga och tidsmässiga nätverk. För det andra visar vi att ett ConvNet utbildat på multi-frame tät optiskt flöde kan uppnå mycket bra prestanda trots begränsade träningsdata. Slutligen visar vi att multitask-inlärning, som tillämpas på två olika åtgärdsklassificeringsdatauppsättningar, kan användas för att öka mängden utbildningsdata och förbättra prestandan på båda. Vår arkitektur är utbildad och utvärderas på standard video åtgärder riktmärken för UCF-101 och HMDB-51, där det matchar den senaste tekniken. Det överstiger också med stor marginal tidigare försök att använda djupa nät för videoklassificering.
Till exempel Simonyan et al. I REF föreslogs ett två ledigt konvolutionsnätverk för erkännande av åtgärder i videofilmer.
11,797,475
Two-Stream Convolutional Networks for Action Recognition in Videos
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,460
Domänanpassning är ett viktigt problem i namngiven enhetsigenkänning (NER). NER-klassificeringarna förlorar vanligtvis noggrannheten i domänöverföringen på grund av den olika datadistributionen mellan källan och måldomänerna. Den främsta orsaken till prestandanedsättande är att varje enhetstyp ofta har massor av domänspecifika termrepresentationer inom de olika områdena. De befintliga tillvägagångssätten behöver vanligtvis en mängd märkta måldomändata för att anpassa den ursprungliga modellen. Det är dock en arbetsintensiv och tidskrävande uppgift att bygga kommenterade träningsdata för varje måldomän. Vi presenterar en domänanpassningsmetod med latent semantisk association (LaSA). Denna metod övervinner effektivt datadistributionsskillnaden utan att utnyttja några märkta måldomändata. LaSA-modellen är konstruerad för att fånga latent semantisk association mellan ord från den omärkta corpus. Den grupperar ord i en uppsättning begrepp enligt den relaterade kontexten sippets. I domänöverföringen projiceras de ursprungliga termrymderna för båda domänerna till ett konceptutrymme med LaSA-modellen först, då den ursprungliga NER-modellen är justerad utifrån de semantiska associationsfunktionerna. Experimentella resultat på engelska och kinesiska corpus visar att LaSA-baserad domänanpassning avsevärt förbättrar prestandan hos NER.
REF grupperade ord från den omärkta corpusen i en uppsättning begrepp enligt den relaterade kontexten sippets, och projicerade den ursprungliga termen mellanslag för båda domänerna till ett konceptutrymme.
14,684,165
Domain Adaptation with Latent Semantic Association for Named Entity Recognition
{'venue': 'HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,461
Abstract-Poisoning attack identifieras som ett allvarligt säkerhetshot mot maskininlärning algoritmer. I många tillämpningar, till exempel, djupt neurala nätverk (DNN) modeller samla offentliga data som indata för att utföra omskolning, där indata kan förgiftas. Även om förgiftning attack mot stöd vektor maskiner (SVM) har studerats i stor utsträckning tidigare, finns det fortfarande mycket begränsad kunskap om hur sådan attack kan genomföras på neurala nätverk (NN), särskilt DNNs. I detta arbete undersöker vi först möjligheten att tillämpa traditionell gradientbaserad metod (kallas som den direkta gradientmetoden) för att generera förgiftade data mot NNs genom att utnyttja gradienten hos målmodellen w.r.t. de normala uppgifterna. Vi föreslår sedan en generativ metod för att påskynda genereringshastigheten av de förgiftade data: en auto-encoder (generator) som används för att generera förgiftade data uppdateras av en belöning funktion av förlusten, och mål NN modell (discriminator) får förgiftade data för att beräkna förlusten w.r.t. de normala uppgifterna. Våra experimentresultat visar att den generativa metoden kan påskynda den förgiftade datagenereringshastigheten med upp till 239.38× jämfört med den direkta gradienten metoden, med något lägre modell noggrannhet nedbrytning. En motåtgärd är också utformad för att upptäcka sådana förgiftning angrepp metoder genom att kontrollera förlusten av målmodellen.
För att påskynda processen att generera förgiftningsfall utvecklar REF en generator som producerar gifter.
16,178,966
Generative Poisoning Attack Method Against Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,462
Sammanfattning Vi tillhandahåller bevis för att flera diskreta log-baserade signaturer som Schnorr-signaturer inte kan vara likvärdiga med det diskreta loggproblemet i standardmodellen. Detta motsäger till sin natur välkända bevis som står i försvagade bevis metoder, särskilt bevis med olika formuleringar av Forking Lemma i slumpmässiga oraklet modell. Våra omöjliga bevis gäller många diskret-log-baserade signaturer som ElGamal signaturer och deras tillägg, DSA, ECDSA och KCDSA samt standard generaliseringar av dessa, och även RSA-baserade signaturer som GQ. Vi betonar att vårt arbete kastar mer ljus över den påvisbara (i) säkerheten hos folksignaturer men inte uttryckligen leder till faktiska attacker mot dessa.
Paillier och Vergnaud REF analyserade säkerheten för Schnorr Signatures i standardmodellen.
17,071,862
Discrete-Log-Based Signatures May Not Be Equivalent to Discrete Log
{'venue': 'ASIACRYPT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,463
Vi presenterar en bildbaserad VIirtual Try-On Network (VITON) utan att använda 3D-information i någon form, som sömlöst överför en önskad klädesplaggsartikel till motsvarande region av en person som använder en grov-till-fin strategi. Konditionerad på en ny kläd-agnostisk men ändå beskrivande person representation, genererar vårt ramverk först en grov syntetiserad bild med målkläder objekt överlagd på samma person i samma pose. Vi förbättrar ytterligare det ursprungliga suddiga klädområdet med ett förfiningsnät. Nätverket utbildas för att lära sig hur mycket detaljer att använda från målkläder objektet, och var att ansöka till personen för att syntetisera en fotorealistisk bild där målobjektet deformeras naturligt med tydliga visuella mönster. Experiment på våra nyligen insamlade Zalando dataset visar sitt löfte i den bildbaserade virtuella försöksuppgift över toppmoderna generativa modeller. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Ett bildbaserat virtuellt try-on nätverk har föreslagits i REF där den generativa modellen överför ett önskat klädesplagg till motsvarande region av en person som använder en grov-tofine strategi.
4,532,827
VITON: An Image-Based Virtual Try-on Network
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
80,464
Vi föreslår GeoNet, ett gemensamt oövervakat inlärningsramverk för monokulärt djup, optiskt flöde och egorörelseuppskattning från videor. De tre komponenterna är kopplade till karaktären av 3D scen geometri, gemensamt lärt av vårt ramverk på ett end-to-end sätt. Särskilt, geometriska relationer extraheras över förutsägelser av enskilda moduler och sedan kombineras som en bild rekonstruktion förlust, resonemang om statiska och dynamiska scendelar separat. Dessutom föreslår vi en adaptiv förlust av geometrisk konsekvens för att öka robustheten mot extremister och icke-Lambertiska regioner, som löser ocklusioner och texturproblem på ett effektivt sätt. Experimentering på KITI kördata visar att vårt system uppnår toppmoderna resultat i alla de tre uppgifterna, presterar bättre än tidigare oövervakade metoder och jämförs med övervakade.
Förutom djup och egoism, Yin et al. REF lär sig också gemensamt optiskt flöde från början till slut på ett sätt som medför ytterligare geometriska begränsningar.
3,714,620
GeoNet: Unsupervised Learning of Dense Depth, Optical Flow and Camera Pose
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
80,465
Den perceptuella igenkänningen av objekt är konceptualiserad för att vara en process där bilden av indata är segmenterad i regioner med djup konkavitet i ett arrangemang av enkla geometriska komponenter, såsom block, cylindrar, kilar och kottar. Det grundläggande antagandet av den föreslagna teorin, erkännande-för-komponenter (RBC), är att en blygsam uppsättning generaliserade-kon komponenter, som kallas geoner (N ^ 36), kan härledas från kontraster av fem lätt detekterbara egenskaper av kanter i en tvådimensionell bild: krökning, collinearitet, symmetri, parallellism och cotermation. Upptäckten av dessa egenskaper är i allmänhet invariant över visningsläge och bildkvalitet och tillåter följaktligen robust objektuppfattning när bilden projiceras från en ny synvinkel eller bryts ner. RBC ger således en principiell redogörelse för det tidigare obeslutade förhållandet mellan de klassiska principerna för perceptuell organisation och mönsterigenkänning: Begränsningarna mot legalisering (Pragnanz) karakteriserar inte det kompletta objektet utan objektets komponenter. Representationskraften kan härledas från fria kombinationer av geoner. En princip för Componential Recovery kan redogöra för de viktigaste fenomenen av objektigenkänning: Om ett arrangemang av två eller tre geoner kan återvinnas från inmatningen, objekt kan snabbt kännas igen även när de är ocluded, roman, roteras på djupet, eller i stor utsträckning degraderas. Resultaten från experiment om uppfattningen av kort presenterade bilder av mänskliga observatörer ger empiriskt stöd för teorin. Varje enskilt objekt kan projicera en oändlighet av bildkonfigurationer till näthinnan. Riktandet av objektet till betraktaren kan variera kontinuerligt, var och en ger upphov till en annan tvådimensionell projektion. Föremålet kan ockluderas av andra objekt eller texturfält, som när de ses bakom bladverk. Objektet behöver inte presenteras som en helfärgad texturerad bild utan kan istället vara en förenklad linjeritning. Dessutom kan föremålet till och med sakna en del av sina delar eller vara ett nytt exempel på sin särskilda kategori. Men det är bara med sällsynta undantag som en bild inte snabbt och lätt klassificeras, antingen som ett fall av en bekant objektkategori eller som ett fall som inte kan klassificeras så (själv en form av klassificering). Betrakta föremålet som visas i figur 1. Vi erkänner det gärna som ett av de objekt som inte kan klassificeras i en välbekant kategori. Trots sin totala obekanthet finns det nära nog enhällighet i dess beskrivningar. Vi tolkar-eller segment-sitt delar i regioner av djup konkavitet och beskriver de delar med vanliga, enkla volymetriska termer, såsom "ett block", "en cylinder" "en tratt eller trunkerad kon." Vi kan titta på zig-zag horisontella fäste som en textur region eller zooma in och tolka det som en serie anslutna block. Samma sak gäller för massan längst ner till vänster: vi kan se den som ett texturområde eller zooma in och tolka den i dess olika stötar. Även om vi vet att det inte är ett bekant objekt, efter ett tag kan vi säga vad det liknar: "En New York City varmkorv vagn, med det stora blocket är den centrala matförvaring och matlagning område, den rundade delen under som ett hjul, den stora bågen till höger som ett handtag, tratten som en apelsinjuice pressar och de olika vertikala rör som ventiler eller paraply stöd." Det är ingen bra vagn, men vi kan se hur den kan vara relaterad till en. Det är som ett 10 bokstävers ord med fyra fel bokstäver. Vi utför gärna samma process för alla föremål, välbekanta eller obekanta, i vårt foveala synfält. Sättet för segmentering och analys i komponenter verkar inte bero på vår förtrogenhet med det specifika objekt som identifieras. Den naiva realism som framträder i beskrivningar av nonsensföremål kan återspegla hur ett representationssystem fungerar genom vilket föremål identifieras.
3D primitiva "Geoner" föreslogs av REF som en uppsättning primitiva, såsom cylindrar och kuboider, som används av människor i deras erkännande av objektformer.
8,054,340
Recognition-by-components: A theory of human image understanding
{'venue': 'Psychological Review', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Medicine']}
80,466
Nätstockningar uppstår när den erbjudna trafikbelastningen överstiger den tillgängliga kapaciteten när som helst i ett nät. I trådlösa sensornätverk leder trängsel till att den totala kanalkvaliteten försämras och förlustfrekvensen ökar, leder till buffertfall och ökade förseningar (som i trådbundna nät), och tenderar att vara grovt orättvis mot noder vars data måste passera ett större antal radiohopar. Trafikstockningskontroll i trådbundna nätverk görs vanligen med hjälp av mekanismer från end-to-end och nätverkslager som fungerar i samförstånd. Detta tillvägagångssätt löser dock inte problemet i trådlösa nätverk eftersom samtidiga radiosändningar på olika "länkar" interagerar med och påverkar varandra, och eftersom radiokanalkvaliteten visar stor variation över flera tidsskalor. Vi undersöker tre tekniker som spänner över olika lager av den traditionella protokoll stacken: humle-by-hop flödeskontroll, hastighetsbegränsning källtrafik när transittrafiken är närvarande, och en prioriterad medium passerkontroll (MAC) protokoll. Vi implementerar dessa tekniker och presenterar experimentella resultat från ett 55-node in-building trådlöst sensornätverk. Vi visar att kombinationen av dessa tekniker, Fusion, kan förbättra näteffektiviteten med en faktor på tre under realistiska arbetsbelastningar.
Trafikstyrning i trådlösa sensornätverk har vanligtvis två typer, end-to-end och hop-by-hop trängselkontroll REF.
11,124,009
Mitigating congestion in wireless sensor networks
{'venue': "SenSys '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,467
Abstract Service-orientering är det centrala paradigmet för att organisera affärsinteraktioner och moderna IT-arkitekturer. På företagsnivå håller tjänstesektorn på att bli den dominerande sektorn där lösningarna flexibelt består av nätverksbaserade tjänster. På IT-nivå förverkligar paradigmerna för Serviceorienterad Arkitektur och molndata tjänsteorientering för både programvaru- och infrastrukturtjänster. Tjänstesammansättning över olika lager är en stor fördel med detta paradigm. Tjänstenivåavtal är ett gemensamt tillvägagångssätt för att specificera de exakta villkoren för tillhandahållande av tjänster, och är därför en förutsättning för att stödja flexibel handel med tjänster. Typiska SLA anges dock endast på ett enda lager och ger inte insyn i mätvärden eller parametrar på de olika lägre skikten i service stacken. Därför tillåter de inte tjänsteleverantörer att hantera sina tjänster optimalt. I detta kapitel presenterar vi en referensarkitektur för en SLA-förvaltningsram på flera nivåer. Vi diskuterar grundläggande begrepp i ramverket och beskriver dess viktigaste arkitektoniska komponenter och interaktioner.
REF presenterade en flexibel ram för SLA-hantering på flera nivåer inom Clouds som utvecklats inom ramen för EU-projektet SLA@SOI 2.
54,739,002
A Reference Architecture for Multi-Level SLA Management
{'venue': 'Service Level Agreements for Cloud Computing', 'journal': 'Service Level Agreements for Cloud Computing', 'mag_field_of_study': ['Engineering']}
80,468
Vi utökar Cyclone, ett typsäkert polymorphic språk på C nivå av abstraktion, med trådar och lås. Data races kan bryta typ säkerhet i Cyclone. Ett utvidgat typsystem garanterar statisk frånvaro genom att se till att tråddelade data skyddas genom låsning och att trådlokal data inte undgår den tråd som skapar den. Förlängningarna samverkar smidigt med parametrisk polymorfism och regionbaserad minneshantering. Vi presenterar en formell abstrakt maskin som modellerar behovet av att förhindra raser, ett polymorfiskt typsystem för maskinen som stöder gänglokal data, och ett motsvarande typ-säkerhetsresultat.
Den har regionbaserad minneshantering, och på senare tid trådar och låser REF, via ett sofistikerat typsystem.
3,107,854
Type-safe multithreading in cyclone
{'venue': "TLDI '03", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,469
Abstrakt. Ansiktsbilder tagna i olika spektralband, t.ex. , i visuellt (VIS) och nära infraröd (NIR), sägs vara heterogena. Även om en persons ansikte ser annorlunda ut i heterogena bilder, bör det klassificeras som från samma person. I detta dokument presenterar vi en ny metod, kallad ansikte analogi, i analys-för-syntesramen, för heterogen ansiktskartläggning, dvs. att omvandla ansiktsbilder från en typ till en annan, och därmed utföra heterogen ansiktsmatchning. Experiment visar lovande resultat.
Författarna i REF föreslår en analys-för-syntesram, kallad ansikte analogi, som skulle kunna omvandla ansiktsbilder mellan NIR och VIS.
14,656,370
An Analysis-by-Synthesis Method for Heterogeneous Face Biometrics
{'venue': 'ICB', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,470
Sammanfattning I detta papper, vi rapporterar om vår "Iridis-Pi" kluster, som består av 64 Raspberry Pi Modell B noder varje utrustad med en 700 MHz ARM processor, 256 Mbit RAM och en 16 GiB SD-kort för lokal lagring. Klustret har ett antal fördelar som inte delas med konventionella datacenterbaserade kluster, inklusive dess låga totala strömförbrukning, enkel portabilitet på grund av sin ringa storlek och vikt, överkomlighet, och passiv, omgivande kylning. Vi föreslår att dessa attribut gör Iridis-Pi idealisk för pedagogiska tillämpningar, där det ger en låg kostnad utgångspunkt för att inspirera och göra det möjligt för studenter att förstå och tillämpa högpresterande databehandling och datahantering för att ta itu med komplexa tekniska och vetenskapliga utmaningar. Vi presenterar resultaten av benchmarking både beräkningskraft och nätprestanda för "Iridis-Pi". Vi hävdar också att sådana system bör övervägas i vissa ytterligare specialiserade tillämpningsområden där dessa unika attribut kan visa sig vara fördelaktiga. Vi tror att valet av en ARM-processor förebådar en trend mot en ökande användning av lågeffektiva, icke-PC-kompatibla arkitekturer i högpresterande kluster.
Iridis-Pi kluster byggdes med 64 noder Raspberry Pi modell B. Detta kluster var design för pedagogiska tillämpningar, där det gör det möjligt för studenter att förstå och tillämpa högpresterande databehandling och datahantering för komplex teknik, och vetenskapliga utmaningar REF.
6,155,876
Iridis-pi: a low-cost, compact demonstration cluster
{'venue': 'Cluster Computing', 'journal': 'Cluster Computing', 'mag_field_of_study': ['Computer Science']}
80,471
I ett försök att förstå betydelsen av de mellanliggande representationer fångas av djupa nätverk, har de senaste tidningarna försökt koppla specifika semantiska begrepp till individuella neurala nätverk filter svar, där intressanta korrelationer ofta hittas, till stor del genom att fokusera på extrem filter svar. I detta dokument visar vi att detta tillvägagångssätt kan gynna lätttolkade fall som inte nödvändigtvis är representativa för det genomsnittliga beteendet hos en representation. En mer realistisk men svårare att studera hypotes är att semantiska representationer distribueras, och därmed filter måste studeras i samband. För att undersöka denna idé samtidigt som den möjliggör systematisk visualisering och kvantifiering av flera filtersvar, introducerar vi Net2Vec-ramverket, där semantiska begrepp kartläggs till vektoriska inbäddningar baserade på motsvarande filtersvar. Genom att studera sådana inbäddningar, kan vi visa att 1., i de flesta fall, flera filter krävs för att koda för ett koncept, att 2., ofta filter är inte koncept specifika och hjälpa koda flera begrepp, och att 3., jämfört med enstaka filter aktiveringar, filter inbäddningar kan bättre karakterisera betydelsen av en representation och dess förhållande till andra begrepp.
Fong och vedaldi REF analyserade hur flera filter gemensamt representerade ett specifikt semantiskt koncept.
2,738,204
Net2Vec: Quantifying and Explaining How Concepts are Encoded by Filters in Deep Neural Networks
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,472
Den ömsesidiga informationen är en grundläggande statistisk kvantitet som har tillämpningar inom alla områden av maskininlärning, oavsett om detta är i utbildning av densitetsmodeller över flera dataformer, för att maximera effektiviteten av bullriga överföringskanaler, eller när lärande beteende politik för utforskning av artificiella agenter. De flesta lärande algoritmer som innebär optimering av ömsesidig information förlitar sig på Blahut-Arimoto algoritm - en uppräkningsalgoritm med exponentiell komplexitet som inte är lämplig för moderna maskininlärning applikationer. Detta dokument ger ett nytt tillvägagångssätt för skalbar optimering av den ömsesidiga informationen genom sammanslagning av tekniker från olika inferenser och djupinlärning. Vi utvecklar vår strategi genom att fokusera på problemet med egenmotiverat lärande, där den ömsesidiga informationen utgör definitionen av en välkänd intern drivkraft som kallas egenmakt. Med hjälp av en variationell lägre gräns på den ömsesidiga informationen, kombinerat med konvolutionella nätverk för hantering av visuella ingångsströmmar, utvecklar vi en stokastisk optimeringsalgoritm som möjliggör skalbar informationsmaximering och egenmaktsbaserat resonemang direkt från pixlar till åtgärder.
I REF infördes kopplingen mellan ömsesidig informationsuppskattning och egenmakt för egen motivation.
12,860,852
Variational Information Maximisation for Intrinsically Motivated Reinforcement Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,473
Vi undersöker i vilken utsträckning sociala band mellan människor kan härledas från samtidig förekomst i tid och rum: Med tanke på att två personer har varit på ungefär samma geografiska plats ungefär samtidigt, vid flera tillfällen, hur troligt är det att de känner varandra? Dessutom, hur beror denna sannolikhet på den rumsliga och tidsmässiga närheten av samtidiga händelser? Sådana problem uppstår i data med ursprung i både online- och offlinedomäner samt inställningar som fångar gränssnitt mellan online- och offlinebeteende. Här utvecklar vi en ram för kvantifiering av svaren på sådana frågor, och vi tillämpar denna ram på offentligt tillgängliga data från en webbplats för sociala medier, där vi konstaterar att även ett mycket litet antal samtidiga händelser kan resultera i en hög empirisk sannolikhet för ett socialt samband. Vi presenterar sedan probabilistiska modeller som visar hur så stora sannolikheter kan uppstå från en naturlig modell av närhet och sam-förekomst i närvaro av sociala band. Förutom att tillhandahålla en metod för att fastställa några av de första kvantifierbara uppskattningarna av dessa åtgärder, har våra resultat potentiella konsekvenser för privatlivet, särskilt för hur sociala strukturer kan härledas från offentliga online-register som fångar individers fysiska platser över tiden. data science på grund av integritet, probabilistiska modeller, sociala nätverk E redan idag, gör vi slutsatser om den sociala världen från ofullständiga observationer av händelser runt omkring oss. En särskild kategori av sådana slutsatser bygger på samtidiga uppskattningar i rymden och tidsbaserade uppskattningar av ett socialt band mellan två personer på det faktum att de befann sig på samma geografiska plats ungefär samtidigt. Förutom dess intuitiva tillgänglighet har sådana resonemang använts i psykologiska studier av stadslivet (1) och juridiska analyser av farorna med "skuld efter association" (2, 3). Dessa frågor uppstår också naturligt i online-domäner, inklusive de som återspeglar spatio-temporala spår av sina användares aktiviteter i den fysiska världen. Trots den breda relevansen hos de underliggande frågorna har det dock i grund och botten inte funnits någon exakt grund för att kvantifiera betydelsen av dessa effekter. Här studerar vi denna fråga i en online-miljö och finner att geografiska sammanfall i själva verket kan ha betydande makt att bilda slutsatser om sociala band: Kunskapen om att två personer var proximata på bara några olika platser vid ungefär samma tidpunkter kan tyda på en hög villkorlig sannolikhet att de är direkt kopplade i det underliggande sociala nätverket, i de data vi anser. Våra resultat använder offentligt tillgänglig rumslig och tidsbunden information från en stor webbplats för sociala medier för att härleda uppskattningar av länkar i webbplatsens sociala nätverk online. Vi utvecklar också en probabilistisk modell för att redogöra för de höga sannolikheter som observeras. Förutom att tillhandahålla en kvantitativ grund för dessa slutsatser får våra resultat konsekvenser för det oavsiktliga läckaget av privat information genom deltagande på sådana platser. Vår analys använder data där individer ägnar sig åt aktiviteter på kända platser och tider. Det finns många potentiella källor till sådana uppgifter, inklusive transaktionsregister från mobiltelefoner, offentliga transiteringssystem och kreditkortsleverantörer. Vi använder en källa där liknande aktiviteter registreras offentligt och online: en storskalig datauppsättning från den populära fotodelningssajten Flickr. De flesta foton som laddas upp till Flickr inkluderar den tid då bilden togs, som rapporterats av en klocka i den digitala kameran, och många bilder är också geo-taggade med en latitud-longitud koordinat som visar var på jorden fotografiet togs. Dessa geotaggar anges antingen av fotografen genom att klicka på en karta på Flickr webbplats, eller (i ökande utsträckning) produceras av en global positioneringssystem (GPS) mottagare i kameran eller mobiltelefon. Flickr innehåller också ett offentligt socialt nätverk där användarna specificerar sociala band till andra användare. Spatio-Temporal Co-occurences and Social Ties Vi definierar en spatiotemporal co-occurence mellan två Flickr användare som en instans där de båda tog bilder på ungefär samma plats och ungefär samtidigt. I synnerhet delar vi upp jordens yta i rutnätsliknande celler, vars sidolängder spänner över grader av latitud och longitud. Vi säger att två personer A och B co-occurred i en given s × s cell C, på temporal avstånd t, om både A och B tog bilder geo-taggade med en plats i cell C inom t dagar av varandra. Sedan, för ett givet par människor, räknar vi antalet distinkta celler i vilka de hade en samtidig förekomst på temporal avstånd t. Till exempel, i Bild. 1, A och B har tre samtidiga förekomster på ett temporalt intervall av 2, och fyra samtidiga förekomster på ett temporalt intervall av 7. Vår centrala fråga är följande: Hur stor är sannolikheten för att två personer har en social slips, med tanke på att de har samtidiga förekomster i k distinkta celler vid ett temporalt intervall av t? Detta är en fråga som är relevant i alla sammanhang där samförekomster kan tyda på sociala band, och vi betonar att vår metod för att utforska det är en allmän; eftersom Flickr i synnerhet ger spatio-temporal information och även en uttrycklig lista över sociala band bland sina användare, är det en naturlig domän där man kan beräkna konkreta numeriska svar på frågan. Svaren beror på tre parametrar: antalet samtidiga händelser k (med angivande av mängden bevis för en social slips) tillsammans med cellstorleken s och tidsintervallet t (med angivande av bevisets precision). Vi beräknar sannolikheten som en funktion av dessa parametrar genom att först bygga det sociala nätverket av Flickr med hjälp av alla vänskapslänkar som deklarerats fram till april 2008 och sedan identifiera spatio-temporala samtidiga händelser som inträffade efter april 2008. På så sätt, och i överensstämmelse med vår ursprungliga motivation, identifierar vi bara sociala band som existerade innan bevisen ansamlades via samtidiga händelser (detta förklaras mer i detalj i diskussionen). Med hjälp av en datauppsättning på 38 miljoner geo-taggade bilder från Flickr (se Material och metoder för mer detaljer) hittar vi (Fig. 2) att sannolikheten för en social slips ökar kraftigt när antalet samtidiga händelser k ökar och tidsintervallet t minskar. Vad som kanske är mest slående är inte riktningen för detta beroende, utan snarare de stora värdena för sannolikheterna själva i förhållande till sannolikheten för att ha ett socialt samband. Två
Crandall m.fl. undersökt förhållandet mellan antalet unika platser som besöks av två personer och sannolikheten för att de är vänner i en fotodelningstjänst REF.
14,199,048
Inferring social ties from geographic coincidences
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Computer Science', 'Medicine']}
80,474
Skript representerar kunskap om stereotypa händelsesekvenser som kan hjälpa textförståelse. De första statistiska metoderna har utvecklats för att lära sig probabilistiska skript från rå text corpora; men de använder sig av en mycket utarmad representation av händelser, bestående av ett verb och ett beroende argument. Vi presenterar ett manus lärande tillvägagångssätt som använder händelser med flera argument. Till skillnad från tidigare arbete modellerar vi interaktionen mellan flera enheter i ett skript. Experiment på en stor corpus använder uppgiften att sluta hållna-ut händelser (den "berättande kloze utvärdering") visar att modellering av multi-argument händelser förbättrar prediktiv noggrannhet.
För att övervinna nackdelen med denna händelse representation, Pichotta och Mooney REF presenterade en strategi som använde händelser med flera argument.
2,597,568
Statistical Script Learning with Multi-Argument Events
{'venue': 'EACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,475
3D form är en avgörande men kraftigt underutnyttjad kö i dagens datorseende system, främst på grund av bristen på en bra generisk form representation. Med den senaste tillgängligheten av billiga 2.5D djupgivare (t.ex. Microsoft Kinect), blir det allt viktigare att ha en kraftfull 3D-form representation i loopen. Förutom kategoriigenkänning, återhämta hela 3D-former från vybaserade 2.5D djupkartor är också en kritisk del av visuell förståelse. I detta syfte föreslår vi att representera en geometrisk 3D-form som en sannolikhetsfördelning av binära variabler på ett 3D voxel rutnät, med hjälp av ett Convolutional Deep Belief Network. Vår modell, 3D ShapeNets, lär sig fördelningen av komplexa 3D-former över olika objektkategorier och godtyckliga poser från råa CAD-data, och upptäcker hierarkisk sammansättningsdel representation automatiskt. Den stöder naturligtvis gemensam objektigenkänning och form färdigställande från 2.5D djupkartor, och det möjliggör aktiv objektigenkänning genom vyplanering. För att träna vår 3D djupt lärande modell, konstruerar vi ModelNet - en storskalig 3D CAD modell dataset. Omfattande experiment visar att vår 3D djupa representation möjliggör betydande prestandaförbättringar jämfört med den senaste tekniken i en mängd olika uppgifter. 978-1-4673-6964-0/15/$31.00 ©2015 IEEE
För att bara nämna några få i deep learning era föreslog REF 3D ShapeNets för att uppnå objektigenkänning och form slutförande.
206,592,833
3D ShapeNets: A deep representation for volumetric shapes
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,476
Vi utökar den rättvisa maskininlärning litteratur genom att överväga problemet med proportionell centroid kluster i ett metriska sammanhang. För klustring av n-punkter med k-centra definierar vi rättvisa som proportionalitet så att alla n/k-punkter har rätt att bilda sitt eget kluster om det finns ett annat centrum som ligger närmare i avstånd för alla n/k-punkter. Vi söker klusterlösningar till vilka det inte finns några sådana berättigade klagomål från några undergrupper av agenter, utan att anta någon priori begreppet skyddade undergrupper. Vi presenterar och analyserar algoritmer för att effektivt beräkna, optimera och granska proportionella lösningar. Vi avslutar med en empirisk undersökning av avvägningen mellan proportionella lösningar och k-medelsmålet.
Chen och Al. REF studerade det fair clustering problem där n/k-punkter har rätt att bilda sitt eget kluster om det finns ett annat centrum närmare i avstånd för dem alla.
148,571,800
Proportionally Fair Clustering
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,477
Abstract-Network-kodning har visat sig vara ett effektivt sätt att förbättra den trådlösa systemprestandan. Många säkerhetsfrågor hindrar dock dess breda spridning i praktiken. Förutom de välstuderade föroreningsattackerna finns det ett annat allvarligt hot, nämligen maskhålsattackerna, som undergräver prestandavinsten av nätkodning. Eftersom de underliggande egenskaperna hos nätkodningssystem skiljer sig avsevärt från traditionella trådlösa nätverk är effekterna av maskhålsattacker och motåtgärder i allmänhet okända. I detta dokument kvantifierar vi maskhålens förödande skadliga inverkan på nätkodningssystemets prestanda genom experiment. Vi föreslår först en centraliserad algoritm för att upptäcka maskhål och visa dess korrekthet rigoröst. För det distribuerade trådlösa nätverket föreslår vi DAWN, en distribuerad detektionsalgoritm mot maskhål i trådlösa nätkodningssystem, genom att undersöka förändringen av flödesriktningarna för de innovativa paketen som orsakas av maskhål. Vi bevisar rigoröst att DAWN garanterar en bra lägre gräns för framgångsrik upptäcktshastighet. Vi utför en analys av DAWN:s motstånd mot maskopiattacker. Vi finner att robustheten beror på nodtätheten i nätverket och visar sig vara ett nödvändigt villkor för att uppnå samverkansresistens. DAWN är inte beroende av någon platsinformation, globala synkroniseringsantaganden eller speciell hårdvara/medelvara. Det är endast baserat på den lokala information som kan erhållas från vanliga nätverkskodning protokoll, och därmed omkostnaderna för våra algoritmer är tolerabel. Omfattande experimentella resultat har verifierat effektiviteten och effektiviteten hos DAWN.
Ji och al. REF föreslog centraliserade och decentraliserade metoder för att upptäcka maskhål genom att undersöka förändringen av flödesriktningarna för paketen som orsakas av maskhål med hjälp av lokal information som kan erhållas från regelbundna nätkodningsprotokoll med minskade omkostnader.
15,801,933
Wormhole Attack Detection Algorithms in Wireless Network Coding Systems
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
80,478
Abstract-Augmented Reality (AR) teknik för digital sammansättning av animation med verkliga scener är att ge nya digitala underhållningsupplevelser till tittarna. Augmented Reality är en form av människa-maskin interaktion. Det viktigaste inslaget i Augmented Reality-teknologin är att automatiskt presentera hjälpinformation i £elden för en individ utan mänsklig inblandning. Effekten liknar att komponera dator-animerade bilder med verkliga scener. För att uppnå den nya Augmented Reality-upplevelsen är två huvudproblem: Hur håller man koll på den enskilda betraktarens visningsparametrar? Hur gör man en virtuell bild i £elden för att se korrekt och sömlöst? För att ta itu med ovanstående utformar och implementerar vi en möjliggörande ram, Augmented Reality Computing Arena for Digital Entertainment (ARCADE), för att stödja skapandet av Augmented Reality-underhållningsprogram. Dessutom utvecklar vi också två nya videoobjekt spårning algoritmer, 3D ytmarkörer spårning och mänsklig huvud-och ansiktsspårning. I detta dokument beskrivs ARCADEs systemarkitektur och dess komponenter i detalj och illustreras med ett tillämpningsexempel.
I deras AR Computing Arena for Digital Entertainment (ARCADE) AR miljösystem, Lyu et al. REF visade hur tekniken kan användas för utveckling av underhållningstillämpningar.
12,527,552
ARCADE: Augmented Reality Computing Arena for Digital Entertainment
{'venue': '2005 IEEE Aerospace Conference', 'journal': '2005 IEEE Aerospace Conference', 'mag_field_of_study': ['Computer Science']}
80,479
Ett ords evaluativa karaktär kallas dess semantiska orientering. Positiv semantisk orientering indikerar beröm (t.ex. "ärlighet", "intrepid") och negativ semantisk orientering indikerar kritik (t.ex. "störande", "överflödande"). Semantisk orientering varierar i både riktning (positiv eller negativ) och grad (mild till stark). Ett automatiserat system för mätning av semantisk orientering skulle ha tillämpning i textklassificering, textfiltrering, spårning av åsikter i onlinediskussioner, analys av enkätsvar och automatiserade chattsystem (chatbots). Denna artikel introducerar en metod för att härleda ett ords semantiska orientering från dess statistiska association med en uppsättning positiva och negativa paradigmord. Två fall av detta tillvägagångssätt utvärderas, baserat på två olika statistiska mått av ordassociation: punktvis ömsesidig information (PMI) och latent semantisk analys (LSA). Metoden testas experimentellt med 3 596 ord (inklusive adjektiv, adverb, substantiv och verb) som manuellt har märkts positiva (1 614 ord) och negativa (1 982 ord). Metoden uppnår en noggrannhet på 82,8% på den fullständiga testuppsättningen, men noggrannheten stiger över 95% när algoritmen tillåts avstå från att klassificera milda ord.
Turney och Littman REF introducerar metoden för att härleda ett ords semantiska orientering baserat på det statistiska sambandet mellan ett ord och den fasta uppsättningen positiva och negativa ord.
2,024
Measuring praise and criticism: Inference of semantic orientation from association
{'venue': 'TOIS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,480
I detta dokument presenterar vi en multimodal modell för recurrent Neural Network (m-RNN) för att skapa nya bildtexter. Den modellerar direkt sannolikhetsfördelningen för att generera ett ord givet tidigare ord och en bild. Bildtexter skapas enligt denna distribution. Modellen består av två undernätverk: ett djupt återkommande neuralt nätverk för meningar och ett djupt konvolutionsnätverk för bilder. Dessa två undernätverk samverkar med varandra i ett multimodalt skikt för att bilda hela m-RNN-modellen. Effektiviteten hos vår modell är validerad på fyra referensdatauppsättningar (IAPR TC-12, Flickr 8K, Flickr 30K och MS COCO). Vår modell överträffar de senaste metoderna. Dessutom kan m-RNN-modellen tillämpas på hämtningsuppgifter för hämtning av bilder eller meningar och uppnå betydande prestandaförbättringar jämfört med de senaste metoderna som direkt optimerar rankningsobjektets funktion för hämtning. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Mao et al............................................................... REF, till exempel, föreslog en multimodal RNN (m-RNN) för att uppskatta sannolikhetsfördelningen för nästa ord som ges tidigare ord och den djupa CNN-funktionen i en bild vid varje steg.
3,509,328
Deep Captioning with Multimodal Recurrent Neural Networks (m-RNN)
{'venue': 'ICLR 2015', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,481
I denna uppsats beskriver vi en metod för automatisk meningsjustering för byggextrakt ur abstracts i automatisk sammanfattande forskning. Vår metod är baserad på två steg. Först introducerar vi "beroende trädväg" (DTP). Därefter beräknar vi likheten mellan DTP:er baserat på ESK (Extended String Subsequence Kernel), som tar hänsyn till sekventiella mönster. Genom att använda dessa förfaranden kan vi härleda en-till-många eller många-till-en-korrespondenser mellan meningar. Experiment med olika likhetsåtgärder visar att DTP konsekvent förbättrar justeringsnoggrannheten och att ESK ger bästa prestanda.
REF representerade meningarna med hjälp av DTP (Dependency Tree Path) för att införliva syntaktisk information.
562,268
Dependency-Based Sentence Alignment For Multiple Document Summarization
{'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,482
I detta dokument behandlas optimering av bindningen mellan användare och basstation (BS) i ett trådlöst nedlänks heterogent cellulärt nätverk enligt det proportionella rättvisekriteriet. Vi överväger först fallet där varje BS har en enda antenn och sänder vid fast effekt och föreslår en distribuerad prisuppdateringsstrategi för ett prisbaserat användarorganisationssystem, där användarna tilldelas BS baserat på värdet av en nyttofunktion minus ett pris. Den föreslagna prisuppdateringsalgoritmen är baserad på en koordinat nedstigningsmetod för att lösa dubbla nätverksverktyget maximering problem och det har en rigorös prestandagaranti. Den största fördelen med den föreslagna algoritmen jämfört med en befintlig subgradientmetod för prisuppdatering är att den föreslagna algoritmen är oberoende av parameterval och kan genomföras asynkront. Vidare behandlar detta dokument den gemensamma användarföreningen och BS effektstyrningsproblem och föreslår en iterativ dubbel koordinat nedstigning och den effektoptimering algoritm som avsevärt överträffar befintliga strategier. Slutligen behandlas i detta dokument problemet med gemensam användarorganisation och BS-stråleformning för det fall då BS är utrustade med flera antenner och rumsligt multiplex flera användare. Vi inkluderar dubbel koordinat nedstigning med den viktade minsta medel-kvadratfel (WMMSE) algoritm och visar att det uppnår nästan samma prestanda som en beräkning mer komplexa riktmärkesalgoritm (som tillämpar WMMSE algoritm på hela nätverket för BS association) samtidigt undvika överdriven BS överlämnande.
I REF, Shen et al. har studerat ett prisbaserat system för sammanslutning av användare och celler för heterogena cellulära nät med nedlänk.
7,104,839
Distributed Pricing-Based User Association for Downlink Heterogeneous Cellular Networks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,483
I detta dokument föreslås ett effektivt och ändamålsenligt system för att tillämpa skjutfönster som är populärt i datorseendet på 3D-data. I synnerhet utnyttjas problemets glesa natur genom ett röstningssystem för att möjliggöra en sökning genom alla platser för putativt objekt i alla riktningar. Vi bevisar att detta röstningssystem är matematiskt likvärdigt med en konvolution på ett glest funktionsrutnät och därmed möjliggör bearbetning, i full 3D, av alla punktmoln oberoende av det antal utsiktspunkter som krävs för att konstruera det. Som sådan är den mångsidig nog att fungera på data från populära 3D-laser scanners såsom en Velodyne samt på 3D-data som erhållits från allt populärare push-broom konfigurationer. Vår strategi är "ojämförligt parallelliserbar" och kan bearbeta ett punktmoln som innehåller över 100K-punkter vid åtta orienteringar på mindre än 0,5. För objektklasserna bil, fotgängare och bicyklist uppnår den resulterande detektorn bäst i klassen detektion och timing prestanda i förhållande till tidigare konst på KITTI-datauppsättningen samt jämfört med en annan befintlig 3D-objektdetekteringsmetod.
I REF, Wang et al. Bevisa att detektion med hjälp av ett röstningssystem motsvarar detektion av skjutfönster på ett glest rutnät för linjära modeller.
15,568,286
Voting for Voting in Online Point Cloud Object Detection
{'venue': 'Robotics: Science and Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,484
Konvolutionella neurala nätverk (CNN) har i stor utsträckning tillämpats för bildigenkänningsproblem som ger toppmoderna resultat på igenkänning, detektion, segmentering och hämtning. I detta arbete föreslår och utvärderar vi flera djupa neurala nätverksarkitekturer för att kombinera bildinformation över en video över längre tidsperioder än tidigare försök. Vi föreslår två metoder som kan hantera videor med full längd. Den första metoden utforskar olika konvolutionella temporal funktion pooling arkitekturer, undersöka de olika designval som måste göras när man anpassar en CNN för denna uppgift. Den andra föreslagna metoden modellerar uttryckligen videon som en ordnad sekvens av ramar. För detta ändamål använder vi ett återkommande neuralt nätverk som använder Long Short-Term Memory (LSTM) celler som är anslutna till utgången av den underliggande CNN. Våra bästa nätverk uppvisar betydande prestandaförbättringar jämfört med tidigare publicerade resultat på Sports 1 miljon dataset (73,1% vs 60,9 %) och UCF-101 dataset med (88,6% vs 88,0%) och utan ytterligare optisk flödesinformation (82,6% vs 73,0%). 978-1-4673-6964-0/15/$31.00 ©2015 IEEE
Ng et al. REF minskade dimensionen av varje ram/clip med hjälp av CNN- och aggregerad raminformation med hjälp av nätverk för långtidsminne (LSTM).
4,245,530
Beyond short snippets: Deep networks for video classification
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,485
Befintlig person omidentifiering (re-id) metoder antingen anta tillgängligheten av välanpassade person avgränsande box bilder som modellinmatning eller förlita sig på begränsade mekanismer för uppmärksamhet urval för att kalibrera feljusterade bilder. De är därför suboptimala för åter-id matchning i godtyckligt anpassade person bilder potentiellt med stora mänskliga pose variationer och okonstruerade auto-detektion fel. I detta arbete visar vi fördelarna med att gemensamt lära sig val av uppmärksamhet och funktionsrepresentation i ett konvolutionellt neuralt nätverk (CNN) genom att maximera den kompletterande informationen om olika nivåer av visuell uppmärksamhet som är föremål för re-id discriminativa inlärningsbegränsningar. Specifikt formulerar vi en roman Harmonious Uppmärksamhet CNN (HA-CNN) modell för gemensamt lärande av mjuk pixel uppmärksamhet och hård regional uppmärksamhet tillsammans med samtidig optimering av funktioner representationer, tillägnad att optimera person re-id i okontrollerade (missriktade) bilder. Omfattande jämförande utvärderingar bekräftar överlägsenheten av denna nya HA-CNN-modell för personer som åter-id över ett brett utbud av state-of-art metoder på tre storskaliga riktmärken inklusive CUHK03, Market-1501, och DukeMTMC-ReID.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF föreslår en modell som har mjuk pixel uppmärksamhet och hård regional uppmärksamhet tillsammans med samtidig optimering av funktioner representationer.
3,458,516
Harmonious Attention Network for Person Re-identification
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
80,486
Vi föreslår en förbättring för det välkända protokollet om giriga gränser för statslös routing (GPSR) för fordonsspecifika ad hoc-nätverk (VANET), som utnyttjar information om länkarnas tillförlitlighet när one-hop-fordon väljs ut för vidarebefordran av ett datapaket. I det föreslagna ändrade routingsystemet kommer ett taggat fordon att välja sitt speditionsfordon med ett enda hopp baserat på tillförlitligheten hos den motsvarande kommunikationslänken. Vi definierar länksäkerhet som sannolikheten att en direkt länk mellan ett par grannfordon kommer att förbli vid liv under ett begränsat tidsintervall. Vi presenterar en modell för datalänksäkerhet och använder denna modell för konstruktion av tillförlitlighetsbaserad GPSR. Det föreslagna protokollet säkerställer att länkar med en tillförlitlighetsfaktor som är större än enbart ett visst tröskelvärde väljs när man konstruerar en rutt från källa till destination. Det ändrade routingsystemet uppvisar betydande förbättringar jämfört med det konventionella GPSR-protokollet när det gäller paketleveransförhållande och genomströmning. Vi tillhandahåller simuleringsresultat för att motivera påståendet.
I detta dokument dras slutsatsen att LTE är lämpligare för många tillämpningar och använder REF för att ändra den giriga omkretsen statslösa routing protokoll (GPRR) genom att utnyttja information om länken tillförlitlighet för att välja en-hop spedition fordon.
62,151,865
Link Reliability Based Greedy Perimeter Stateless Routing for Vehicular Ad Hoc Networks
{'venue': None, 'journal': 'International Journal of Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
80,487
Nyligen, neurala nätverk modeller för naturligt språk bearbetning uppgifter har blivit alltmer fokuserad på för deras förmåga att minska bördan av manuell funktionsteknik. I detta dokument föreslår vi en ny neural nätverksmodell för kinesisk ordsegmentering som kallas Max-Margin Tensor Neural Network (MMTNN). Genom att utnyttja tagginbäddningar och tensorbaserad omvandling har MMTNN förmågan att modellera komplicerade interaktioner mellan taggar och kontexttecken. Dessutom föreslås en ny tensor factorization metod för att påskynda modellen och undvika övermontering. Experiment på referensdatasetet visar att vår modell uppnår bättre prestanda än tidigare neurala nätverksmodeller och att vår modell kan uppnå en konkurrenskraftig prestanda med minimal funktionsteknik. Trots att kinesiska ord segmentering är ett specifikt fall, kan MMTNN lätt generaliseras och tillämpas på andra sekvens märkning uppgifter.
Pei m.fl. REF bygger en tensor neural nätverk modellera samspelet mellan den lokala kontexten och den föregående taggen.
2,303,379
Max-Margin Tensor Neural Network for Chinese Word Segmentation
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,488
Stora framsteg har gjorts när det gäller att använda algoritmer för djupinlärning för att lösa övervakade inlärningsuppgifter, men problemet med oövervakat lärande – att utnyttja omärkta exempel för att lära sig om strukturen i en domän – kvarstår som en svår olöst utmaning. Här utforskar vi förutsägelser om framtida ramar i en videosekvens som en oövervakad inlärningsregel för att lära sig om den visuella världens struktur. Vi beskriver en prediktiv neural nätverk ("PredNet") arkitektur som är inspirerad av begreppet "prediktiv kodning" från neurovetenskap litteratur. Dessa nätverk lär sig att förutsäga framtida ramar i en videosekvens, med varje lager i nätverket gör lokala förutsägelser och endast vidarebefordra avvikelser från dessa förutsägelser till efterföljande nätverkslager. Vi visar att dessa nätverk på ett robust sätt kan lära sig att förutsäga förflyttningen av syntetiska (renderade) objekt, och att nätverken då lär sig interna representationer som är användbara för avkodning av latenta objektparametrar (t.ex. pose) som stöder objektigenkänning med färre utbildningsvyer. Vi visar också att dessa nätverk kan skala till komplexa naturliga bildströmmar (bilmonterade kameravideor), fånga viktiga aspekter av både egocentriska rörelser och rörelse av objekt i den visuella scenen, och generalisera över videodataset. Dessa resultat tyder på att förutsägelsen representerar en kraftfull ram för oövervakat lärande, vilket möjliggör implicit inlärning av objekt och scenstruktur.
Lotter m.fl. REF föreslog PredNet-arkitekturen för oövervakad inlärning av videor baserat på prediktiv kodning, och demonstrerade på utmanande naturliga videor inspelade från bilmonterade kameror.
71,638
Deep Predictive Coding Networks for Video Prediction and Unsupervised Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Biology']}
80,489
Det är känt att de inkonsekventa fördelningarna och representationerna av olika former, såsom bild och text, orsakar heterogenitetsklyftan, vilket gör det mycket svårt att korrelera heterogena data och mäta deras likheter. Nyligen har generativa kontradiktoriska nätverk (GAN) föreslagits och har visat sin starka förmåga att modellera datadistribution och lära sig discriminativ representation. Det har också visat sig att det kontradiktoriska lärandet kan utnyttjas fullt ut för att lära sig diskriminerande gemensamma representationer för att överbrygga heterogenitetsklyftan. Inspirerade av detta strävar vi efter att effektivt korrelera storskaliga heterogena data av olika former med GAN:s makt att modellera cross-modal gemensam distribution. I denna artikel föreslår vi cross-modal Generative Adversarial Networks (CM-GONs) med följande bidrag. För det första föreslås en cross-modal GAN-arkitektur för att modellera gemensam distribution över data från olika metoder. Sambandet mellan intermodalitet och intermodalitet kan undersökas samtidigt i generativa och diskriminerande modeller. Båda konkurrerar med varandra för att främja gränsöverskridande lärande om korrelationer. För det andra föreslås de tvärmodala autokodarna med viktdelningsbegränsningar att bilda den generativa modellen. De utnyttjar inte bara det tvärmodala sambandet för att lära sig de gemensamma representationerna, utan bevarar också information om återuppbyggnaden för att fånga upp den semantiska konsekvensen inom varje modalitet. För det tredje föreslås en mekanism för tvärmodal utbildning, som använder sig av två typer av diskriminerande modeller för att samtidigt genomföra diskriminering inom intermodalitet och intermodalitet. De kan ömsesidigt bidra till att göra de gemensamma representationerna mer diskriminerande genom den kontradiktoriska utbildningsprocessen. Sammanfattningsvis kan vår föreslagna CM-GAN-strategi använda GAN för att utföra cross-modal gemensam representationsinlärning genom vilken heterogena data effektivt kan korreleras. Omfattande experiment genomförs för att kontrollera CM-GN:s prestanda vid cross-modal hämtning jämfört med 13 state-of-the-art metoder på 4 cross-modal dataset. Multimediadata med olika modaliteter - inklusive bilder, video, text, ljud och mer - blandas nu samman och representerar omfattande kunskap. Forskningen av kognitiv vetenskap visar att i den mänskliga hjärnan, kognition av världen utanför är genom fusion av flera sensoriska organ [26]. Det finns dock en heterogenitetsklyfta [55], vilket gör det ganska svårt för artificiell intelligens (AI) att simulera denna mänskliga kognitiva process, eftersom multimediadata med olika former består av en enorm mängd men har inkonsekvent distribution och representation. Naturligtvis finns det ett tvärmodalt samband mellan heterogena uppgifter om olika metoder för att beskriva specifika typer av statistiska beroenden [35]. Till exempel, för bilden och textbeskrivningar samexisterar på en webbsida, de kan vara i sig korrelerade och dela en viss nivå av semantisk konsistens. Därför är det nödvändigt att automatiskt utnyttja och förstå denna latenta korrelation över data från olika metoder och ytterligare konstruera mätvärden på dem för att mäta hur de är semantiskt relevanta. För att ta itu med denna fråga är en intuitiv idé att modellera den gemensamma fördelningen av data från olika metoder för att lära sig den gemensamma representationen, som kan bilda ett gemensamt utrymme där heterogena data kartläggs. Därför kan likheterna mellan dem direkt beräknas genom att använda gemensamma avståndsmått. Figur 1 innehåller illustrationer av ovanstående ramar. På så sätt kan heterogenitetsklyftan mellan data från olika metoder minskas så att heterogena data lättare kan korreleras för att realisera olika praktiska tillämpningar, såsom cross-modal hämtning [33], där data från olika metoder kan hämtas flexibelt samtidigt genom en fråga om alla modaliteter. Många metoder [2, 24, 59] har föreslagits utifrån denna idé. Vissa lär sig den gemensamma representationen genom att modellera den tvärmodala korrelationen så att likheterna mellan olika metoder kan mätas direkt. Dessa befintliga metoder kan delas in i två huvudkategorier enligt deras olika modeller enligt följande. Den första är i en traditionell ram, som försöker lära sig att kartlägga matriser för data av olika former genom att optimera de statistiska värdena för att projicera dem i ett gemensamt utrymme. Canonical korrelation analyse (CCA) [39] är ett av de representativa verken, som har många förlängningar såsom de som beskrivs i [8, 12, 54]. Den andra typen av metoder [6, 25, 31, 32] använder den starka inlärningsförmågan hos ett djupt neuralt nätverk (DNN) för att bygga ett flerskiktsnät. De flesta av dem minimerar korrelationsinlärningsfel mellan olika metoder för gemensam representationsinlärning. På senare tid har generativa kontradiktoriska nätverk [9] föreslagits för att uppskatta en generativ modell genom en kontradiktorisk utbildningsprocess. Den grundläggande modellen av GANs innehåller två komponenter: en generativ modell G och en diskriminerande modell D. Den generativa modellen syftar till att fånga datadistribution, medan den diskriminerande modellen försöker diskriminera om indataprovet kommer från verkliga data eller genereras från G. En kontradiktorisk utbildningsstrategi antas för att träna dessa två modeller samtidigt, vilket gör att de konkurrerar med varandra för ömsesidig marknadsföring för att lära sig bättre representation av indata. Inspirerad av GAN:s senaste framsteg försöker forskarna tillämpa GAN i datorvisionsområden, såsom bildsyntes [36], videoförutsägelse [7] och objektdetektering [23]. Definitionen av en generativ modell kan generaliseras. Det genererar inte bara de ursprungliga instanserna, såsom bildsyntes [36], men också genererar representationen för varje vertex i en graf struktur, som syftar till att lära sig inbäddning för nätverksanalys och förutsägelse [49]. Dessutom kan det generera representationer av dokument som är relevanta för ge förfrågan, som utnyttjas av den diskriminerande modellen för att uppnå en bättre uppskattning av dokument ranking [50]. Medan alla av dem syftar till att approxima den underliggande distributionen av ursprungliga indata. Idén om kontradiktoriskt lärande kan därför utnyttjas fullt ut genom att man diskriminerar data från olika former och skapar gemensamma representationer för bild och text, som syftar till att modellera den tvärmodala korrelationen genom att approximera den gemensamma fördelningen av data från olika medlemsstater.
Peng m.fl. REF syftar till att använda GAN för att lära sig den gemensamma representationen och öka det tvärmodala korrelationslärandet, vilket är ett helt annat mål för vår metod att lära sig hashfunktioner utan beroendet av parade träningsprover mellan olika metoder.
8,355,505
CM-GANs: Cross-modal Generative Adversarial Networks for Common Representation Learning
{'venue': 'TOMM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,490
Med hundratals miljoner deltagare har sociala medietjänster blivit vanliga. Till skillnad från en traditionell social nätverkstjänst är ett mikrobloggande nätverk som Twitter ett hybridnätverk som kombinerar aspekter av både sociala nätverk och informationsnät. Förstå strukturen av sådana hybridnätverk och förutsäga nya länkar är viktigt för många uppgifter såsom kompis rekommendation, gemenskap upptäckt, och modellering nätverk tillväxt. Vi noterar att problemet med kopplingsförutsägelse i ett hybridnät skiljer sig från tidigare studerade nätverk. Till skillnad från informationsnätverken och de traditionella sociala nätverken online är strukturerna i ett hybridnätverk mer komplicerade och informativa. Vi jämför de mest populära och senaste metoderna och principerna för länkförutsägelser och rekommendationer. Slutligen föreslår vi en ny struktur-baserad personlig länk förutsägelse modell och jämföra dess prediktiva prestanda mot många grundläggande och populära länk förutsägelser metoder på verkliga data från Twitter microbllogging nätverk. Våra experiment på både statiska och dynamiska datauppsättningar visar att våra metoder märkbart överträffar toppmoderna.
Yin m.fl. REF analyserade länkstrukturer i Twitter och föreslog en ny strukturbaserad personlig länkförutsägelsemodell.
12,227,229
Structural link analysis and prediction in microblogs
{'venue': "CIKM '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,491
Abstract-I detta papper föreslår vi en ny modell för aktiva konturer för att upptäcka objekt i en given bild, baserat på tekniker för kurvutveckling, Mumford-Shah funktion för segmentering och nivåuppsättningar. Vår modell kan upptäcka objekt vars gränser inte nödvändigtvis definieras av lutning. Vi minimerar en energi som kan ses som ett särskilt fall av det minimala partition problemet. I den nivåuppsättning formulering, problemet blir en "medel-kurva flöde"-liknande att utveckla den aktiva konturen, som kommer att stanna på önskad gräns. Men stopptermen beror inte på bildens lutning, som i de klassiska aktiva konturmodellerna, utan är istället relaterad till en viss segmentering av bilden. Vi kommer att ge en numerisk algoritm med ändliga skillnader. Slutligen kommer vi att presentera olika experimentella resultat och i synnerhet några exempel för vilka de klassiska ormmetoderna baserade på lutningen inte är tillämpliga. Dessutom kan den ursprungliga kurvan vara var som helst i bilden, och interiöra konturer detekteras automatiskt.
Chan och Vese REF föreslår en aktiv konturmodell baserad på Mumford-Shah-segmentering och nivåuppsättningen (ACML), som effektivt kan segmentera bilden med enhetlig texturbakgrund.
7,602,622
Active Contours without Edges
{'venue': 'IEEE transactions on image processing : a publication of the IEEE Signal Processing Society', 'journal': 'IEEE transactions on image processing : a publication of the IEEE Signal Processing Society', 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics']}
80,492
Abstrakt. Vi presenterar forskning inom syntetiskt socialt beteende för interaktiva virtuella karaktärer. Vi beskriver en modell från naturen, den grå vargen (Canis lupus), och det sociala beteende som visas av flockar av vargar, att använda som mål för en interaktiv installation med titeln AlphaWolf, som visades på SIGGRAPH 2001. Vi erbjuder en beräkningsmodell som fångar en delmängd av det sociala beteendet hos vilda vargar, med modeller för lärande, känslor och utveckling. Det finns en rad verkliga tillämpningar av syntetiskt socialt beteende, från kortsiktiga möjligheter såsom autonoma karaktärer för datorspel, till långsiktiga tillämpningar såsom datorgränssnitt som kan interagera mer lämpligt med människor genom att utnyttja mänskliga sociala förmågor. Vår forskning erbjuder inledande steg mot beräkningssystem med socialt beteende, i hopp om att göra interaktioner med dem mer funktionella och mer naturligt givande.
En nyare tillämpning av modellen är AlphaWolf REF, fånga en delmängd av det sociala beteendet hos vilda vargar.
11,412,897
AlphaWolf: Social Learning, Emotion and Development in Autonomous Virtual Agents
{'venue': 'WRAC', 'journal': None, 'mag_field_of_study': ['Psychology', 'Computer Science']}
80,493
Datacenter har nyligen vunnit stor popularitet som en kostnadseffektiv plattform för att vara värd för storskaliga serviceapplikationer. Medan stora datacenter åtnjuter stordriftsfördelar genom att amortera initiala kapitalinvesteringar över ett stort antal maskiner, de ådrar sig också enorma energikostnader när det gäller eldistribution och kylning. Ett effektivt tillvägagångssätt för att spara energi i datacenter är att dynamiskt justera datacenterkapaciteten genom att stänga av oanvända maskiner. Detta problem med dynamisk kapacitetsförsörjning är dock känt för att vara utmanande, eftersom det kräver en noggrann förståelse av egenskaperna hos resursefterfrågan samt hänsyn till olika kostnadsfaktorer, inklusive förseningar i schemaläggningen av uppgifter, maskinkonfigureringskostnader och fluktuerande elpriser. I detta dokument tillhandahåller vi en kontroll-teoretisk lösning på problemet med dynamisk kapacitetsavsättning som minimerar den totala energikostnaden samtidigt som prestandamålet uppnås när det gäller förseningar i schemaläggningen. Specifikt, vi modellerar detta problem som en begränsad diskret-tid optimal kontroll problem, och använda Modell Predictive Control (MPC) för att hitta den optimala styrpolicyn. Genom omfattande analys och simulering med hjälp av verkliga arbetsbelastning spår från Googles compute clusters, visar vi att vårt föreslagna ramverk kan uppnå en betydande minskning av energikostnaderna, samtidigt som en acceptabel genomsnittlig tidsfördröjning för enskilda uppgifter bibehålls.
Zhang et.al REF använde element från teorin om modellprediktiv kontroll (MPC) för att hitta den optimala styrpolicyn för dynamisk kapacitetsförsörjning.
12,165,402
Dynamic energy-aware capacity provisioning for cloud computing environments
{'venue': "ICAC '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,494
Vi presenterar NewsQA, en utmanande maskinförståelse datauppsättning på över 100.000 mänskliga-genererade frågesvar par. Crowdworkers ger frågor och svar baserade på över 10.000 nyhetsartiklar från CNN, med svar som består av text från motsvarande artiklar. Vi samlar in denna datauppsättning genom en process i fyra steg som syftar till att få fram undersökande frågor som kräver resonemang. En grundlig analys bekräftar att NewsQA kräver förmågor utöver enkel ordmatchning och igenkännande av textbegrepp. Vi mäter människans prestanda på datasetet och jämför det med flera starka neurala modeller. Prestandagapet mellan människor och maskiner (0.198 i F1) indikerar att betydande framsteg kan göras på NewsQA genom framtida forskning. Datasetet är fritt tillgängligt på https://datasets.maluuba.com/NewsQA.
NewsQA REF innehåller nyhetsmeddelanden från CNN med crowdsourced frågor och svar.
1,167,588
NewsQA: A Machine Comprehension Dataset
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,495
Sammanfattning av denna webbsida: Skogs- och landsbygdsbränder är en av de främsta orsakerna till miljöförstöringen i Medelhavsländerna. Befintliga branddetekteringssystem fokuserar endast på detektion, men inte på kontroll av branden. Men nästan alla av dem är bara simuleringar, och mycket få implementationer kan hittas. Dessutom saknar systemen i litteraturen skalbarhet. I denna uppsats visar vi alla steg som följs för att utföra design, forskning och utveckling av ett trådlöst multisensornätverk som blandar sensorer med IP-kameror i ett trådlöst nätverk för att upptäcka och verifiera brand i landsbygds- och skogsområden i Spanien. Vi har studerat hur många kameror, sensorer och åtkomstpunkter som behövs för att täcka ett landsbygds- eller skogsområde och systemets skalbarhet. Vi har utvecklat en multisensor och när den upptäcker en brand skickar den ett sensorlarm via det trådlösa nätverket till en central server. Den centrala servern väljer de närmaste trådlösa kamerorna till multisensorn, baserat på en programvara, som roteras till sensorn som väckte larmet, och skickar dem ett meddelande för att ta emot realtidsbilder från zonen. Kameran låter brandmännen bekräfta förekomsten av en brand och undvika falsklarm. I detta papper visar vi testprestandan som ges av en provbänk som består av fyra trådlösa IP-kameror i flera situationer och den energi som förbrukas när de sänder. Dessutom studerar vi den energi som förbrukas av varje enhet när systemet sätts upp. Det trådlösa sensornätverket skulle kunna anslutas till Internet via en gateway och bilderna av kamerorna kunde ses från alla delar av världen.
I REF beskrivs utformningen och utvecklingen av en WSN med sensorer och IP-kameror.
13,104,461
A Wireless Sensor Network Deployment for Rural and Forest Fire Detection and Verification
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Engineering', 'Computer Science']}
80,496
On-line nyhetsagenter ger kommentarer faciliteter för läsare att uttrycka sina åsikter om nyheter. Antalet användare som lämnat synpunkter på en nyhetsartikel kan tyda på dess betydelse eller inverkan. Vi rapporterar om undersökande arbete som förutsäger kommentaren volymen av nyhetsartiklar före publicering med hjälp av fem funktionsuppsättningar. Vi tar upp prognosuppgiften som en tvåstegs klassificering uppgift: en binär klassificering identifierar artiklar med potential att ta emot kommentarer, och en andra binär klassificering får utdata från det första steget för att märka artiklar "låg" eller "hög" kommentar volym. Resultaten visar solid prestanda för den tidigare uppgiften, medan prestandan försämras för den senare.
Tsagkias m.fl. REF tog upp problemet med att förutsäga kommentarsvolymen för nyheter online som två på varandra följande klassificeringsuppgifter.
6,496,031
Predicting the volume of comments on online news stories
{'venue': 'CIKM', 'journal': None, 'mag_field_of_study': ['Sociology', 'Computer Science']}
80,497
Att lösa problemet med personens omidentifiering innebär att matcha observationer av individer över delade kameravyer. Problemet blir särskilt svårt i en upptagen offentlig scen eftersom antalet möjliga matcher är mycket högt. Detta förvärras ytterligare av betydande utseende förändringar på grund av varierande ljusförhållanden, tittarvinklar och kropp poserar över kameravyer. För att ta itu med detta problem fokuserar befintliga metoder på att extrahera eller lära sig diskriminativa funktioner följt av mallmatchning med hjälp av ett avståndsmått. Nytt med detta arbete är att vi omformulerar problemet med personens omidentifiering som ett rankningsproblem och lär oss en subrymd där den potentiella sanna matchningen ges högsta rankning snarare än någon direkt avståndsåtgärd. Genom att göra det konverterar vi personens återidentifieringsproblem från ett absolut poängproblem till ett relativt rankingproblem. Vi utvecklar vidare en ny Ensemble RankSVM för att övervinna skalbarhetsbegränsningsproblemen med befintliga SVM-baserade rankningsmetoder. Denna nya modell minskar avsevärt minnesanvändningen därför är mycket mer skalbar, samtidigt som hög prestanda upprätthålls. Vi presenterar omfattande experiment för att visa resultatvinsten av den föreslagna rankningsmetoden över befintliga modeller för matchning och klassificering av mallar.
Det gjordes inga ansträngningar för att behandla person omidentifiering som ett rankningsproblem förrän helt nyligen REF.
11,008,236
Person reidentification by support vector ranking
{'venue': 'In British Machine Vision Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,498
Vi anser att problemet med att maximera en icke-negativ (eventuellt icke-monoton) submodulär uppsättning funktion med eller utan begränsningar. Feige och al. [9] visade en 2/5-approximation för det okonstruerade problemet och visade också att ingen approximation bättre än 1/2 är möjlig i värde-orakelmodellen. Tillnärmningen av konstantfaktorn har också varit känd för submodulär maximering som är föremål för en begränsning av matrisens oberoende (en faktor på 0,309 [33] ) och för submodulär maximering som är föremål för en begränsning av matrisbasen, förutsatt att packningsnumret för fraktionerad bas är begränsat från 1 (en 1/4- approximation med antagande av att mot ≥ 2 [33]). I detta dokument föreslår vi en ny algoritm för submodulär maximering som bygger på idén om simulerad glödgning. Vi bevisar att denna algoritm uppnår förbättrad approximation för två problem: en 0,41- approximation för okonstruerad submodulär maximering, och en 0,325 approximation för submodulär maximering som är föremål för en matroid självständighetsbegränsning. På hårdheten sida, visar vi att i värdet oracle modell är det omöjligt att uppnå en 0.478-calimation för submodulär maximering som är föremål för en matroid oberoende begränsning, eller en 0.394-calimation som är föremål för en matroid bas begränsning i matroider med två separata baser. Även för det speciella fallet med kardinalitetsbegränsningar, bevisar vi att det är omöjligt att uppnå en 0,491-uppskattning. (Tidigare var det tänkbart att det finns en halv approximation för dessa problem.) Det är fortfarande en öppen fråga om en 1/2-uppskattning är möjlig för oöverskådlig submodulär maximering.
På hårdhet sidan, är det känt att ingen polynom tid algoritm kan ha en approximation förhållande bättre än 0.491 REF.
8,411,113
Submodular maximization by simulated annealing
{'venue': "SODA '11", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,499
Parafrasgenerering är ett viktigt problem i NLP, särskilt i fråga svar, informationssökning, informationsutdrag, konversationssystem, för att nämna några. I detta dokument tar vi upp problemet med att generera parafraser automatiskt. Vår föreslagna metod är baserad på en kombination av djupa generativa modeller (VAE) med sekvens-till-sekvens modeller (LSTM) för att generera parafraser, givet en inmatning mening. Traditionella VAEs i kombination med återkommande neurala nätverk kan generera fri text, men de är inte lämpliga för parafrasgenerering för en viss mening. Vi tar itu med detta problem genom att konditionering både, kodare och avkodare sidor av VAE, på den ursprungliga meningen, så att det kan generera den givna meningens parafraser. Till skillnad från de flesta befintliga modeller är vår modell enkel, modulär och kan generera flera parafraser, för en viss mening. Kvantitativ utvärdering av den föreslagna metoden med hjälp av referensparafrasdata visar dess effektivitet och dess prestandaförbättringar jämfört med de senaste metoderna med en betydande marginal, medan kvalitativ mänsklig utvärdering visar att de genererade parafraserna är väl utformade, grammatiskt korrekta och relevanta för den ingående meningen. Dessutom utvärderar vi vår metod på en nyutgiven frågeparafras dataset, och etablerar en ny baslinje för framtida forskning.
I REF föreslås en kombination av variantal autoencoder (VAE) och sekvens-till-sekvens-modell för att generera parafras.
12,737,290
A Deep Generative Framework for Paraphrase Generation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,500