src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Abstrakt. Skyline-frågor hjälper användare att fatta intelligenta beslut om komplexa data, där olika och ofta motstridiga kriterier beaktas. Nuvarande beräkningsmetoder för skyline är begränsade till centraliserade frågeprocessorer, vilket begränsar skalbarheten och tvingar fram en enda felpunkt. I detta dokument, vi tar itu med problemet med att parallellisera skyline frågeutförande över ett stort antal maskiner genom att utnyttja innehållsbaserad data partitionering. Vi presenterar en ny distribuerad skyline frågehanteringsalgoritm (DSL) som upptäcker skylinepunkter gradvis. Vi föreslår två mekanismer, rekursivt område partitionering och dynamisk regionkodning, för att genomdriva en partiell ordning på frågeutbredning för att pipeline frågeutförande. Vår analys visar att DSL är optimalt när det gäller det totala antalet lokala frågeanrop i alla maskiner. Dessutom visar simuleringar och mätningar av ett utplacerat system att vårt systems belastning balanserar kommunikations- och bearbetningskostnader för klustermaskiner, vilket ger ökad skalbarhet och betydande prestandaförbättringar jämfört med alternativa distributionsmekanismer. | I REF, Wu et al. ta itu med problemet med parallellisering av skylinefrågor över en delad arkitektur som inte använder utrymmespartitionering. | 1,216,101 | Parallelizing skyline queries for scalable distribution | {'venue': 'In EDBT’06', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,409 |
Detta dokument beskriver två tekniker som förbättrar genomströmningen i ett ad hoc-nätverk i närvaro av noder som går med på att vidarebefordra paket men misslyckas med att göra det. För att lindra detta problem, föreslår vi kategorisering noder baserat på deras dynamiskt uppmätta beteende. Vi använder en watchdog som identifierar fel uppförande noder och en patl~rater som hjälper routing protokoll undvika dessa noder. Genom simulering utvärderar vi vakthund och patolog med hjälp av paketgenomströmning, procentandel av overhead (routing) överföringar, och noggrannheten av felhavande nod upptäckt. När de används tillsammans i ett nätverk med måttlig rörlighet, de två teknikerna ökar genomströmningen med 17% i närvaro av 40% fel uppförande noder, samtidigt som andelen overhead-överföringar från standard routing protokollet är 9% till 17%. Under extrem rörlighet, vakthund och patrater kan öka nätverksgenomströmningen med 27%, samtidigt öka overhead överföringarna från standard routing protokollet är 12% till 24%. | I REF föreslog författarna att använda en vakthund enhet för att identifiera fel uppförande noder och en pathrater mekanism för att styra paketet endast genom betrodda noder. | 314,926 | Mitigating routing misbehavior in mobile ad hoc networks | {'venue': "MobiCom '00", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,410 |
Många tillämpningar av övervakad inlärning kräver god generalisering från begränsade märkta data. I Bayesian inställningen, kan vi försöka uppnå detta mål genom att använda en informativ tidigare över parametrarna, en som kodar användbar domän kunskap. Fokusering på logistisk regression, presenterar vi en algoritm för att automatiskt bygga en multivariat Gaussian tidigare med en fullständig covariance matris för en given övervakad inlärning uppgift. Detta föregående slappnar av en vanlig men alltför förenklad självständighet antagande, och tillåter parametrar att vara beroende. Algoritmen använder andra "liknande" inlärningsproblem för att uppskatta kovariansen av par av enskilda parametrar. Vi använder sedan ett semidefinit program för att kombinera dessa uppskattningar och lära sig en bra innan för den nuvarande inlärningsuppgiften. Vi tillämpar våra metoder för binär text klassificering, och visar en 20 till 40% test fel minskning jämfört med en vanlig används tidigare. | Raina m.fl. föreslog en överföring lärande algoritm som konstruerar en informativ Baysian innan för en viss text klassificering uppgift REF. | 3,056,583 | Constructing informative priors using transfer learning | {'venue': "ICML '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,411 |
I detta dokument föreslås en ny djup arkitektur för att ta itu med flermärkt bildigenkänning, en grundläggande och praktisk uppgift mot allmän visuell förståelse. Nuvarande lösningar för denna uppgift är vanligtvis beroende av ett extra steg i utvinning av hypotesregioner (dvs. regionförslag), vilket resulterar i överflödig beräkning och suboptimal prestanda. I detta arbete uppnår vi den tolkningsbara och kontextualiserade flermärkta bildklassificeringen genom att utveckla en återkommande memorand-attention modul. Denna modul består av två alternativt utförda komponenter: i) ett rumsligt transformatorskikt för att lokalisera uppmärksamhetsregioner från de konvolutionella funktionskartorna på ett regionförslagsfritt sätt och ii) ett undernätverk för LSTM (Long-Short Term Memory) för att sekventiellt förutsäga semantiska märkningspoäng på de belägna regionerna samtidigt som man fångar de globala beroendena i dessa regioner. LSTM matar också ut parametrarna för beräkning av den rumsliga transformatorn. På storskaliga riktmärken för flermärkt bildklassificering (t.ex. MS-COCO och PAS-CAL VOC 07) visar vår strategi överlägsna prestationer jämfört med andra befintliga toppmoderna både i noggrannhet och effektivitet. | Uppmärksamma regioner upptäcks återkommande genom att införliva ett LSTM-delnätverk för flermärkt bildklassificering i REF. | 19,742,621 | Multi-label Image Recognition by Recurrently Discovering Attentional Regions | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 81,412 |
Vi föreslår ett nytt tillvägagångssätt till exempel bildsökning på nivå. Den producerar en global och kompakt representation med fasta längder för varje bild genom att samla många regionvisa deskriptorer. I motsats till tidigare arbeten med förtränade djupa nätverk som en svart låda för att producera funktioner utnyttjar vår metod en djup arkitektur tränad för den specifika uppgiften att hämtning av bilder. Vårt bidrag är tvåfaldigt: (i) vi inför en rankning ram för att lära sig konvolution och projektionsvikter som används för att bygga regionens funktioner; och (ii) vi använder ett regionförslag nätverk för att lära sig vilka regioner som bör slås samman för att bilda den slutliga globala deskriptorn. Vi visar att användningen av rena träningsdata är nyckeln till framgång för vår strategi. I detta syfte utnyttjar vi en storskalig men bullrig datauppsättning och utvecklar en automatisk rengöringsmetod. Den föreslagna arkitekturen ger en global bildrepresentation i ett enda framåtpass. Vårt tillvägagångssätt överträffar betydligt tidigare tillvägagångssätt baserat på globala deskriptorer på standarddatauppsättningar. Den överträffar till och med de flesta tidigare verk som bygger på kostsam lokal deskriptorindexering och rumslig verifiering. Vi tänker släppa vår förtränade modell. | I Ref föreslås ett nätverk för regionala förslag för att ta reda på vilka regioner som bör slås samman för att bilda den slutliga globala deskriptorn. | 6,532,540 | Deep Image Retrieval: Learning global representations for image search | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,413 |
Märkningsuppgifter på pixelnivå, såsom semantisk segmentering, spelar en central roll för bildförståelsen. På senare tid har man försökt utnyttja förmågan hos djupinlärningsteknik för bildigenkänning för att ta itu med märkningsuppgifter på pixelnivå. En central fråga i denna metod är den begränsade kapaciteten hos djupinlärningsteknik för att avgränsa visuella objekt. För att lösa detta problem, introducerar vi en ny form av konvolutionella neurala nätverk som kombinerar styrkor av Convolutional Neural Networks (CNNs) och villkorliga Random Fields (CRFs)-baserade probabilistiska grafiska modellering. I detta syfte formulerar vi villkorliga slumpmässiga fält som återkommande neurala nätverk. Detta nätverk, som kallas CRF-RNN, kopplas sedan in som en del av ett CNN för att få ett djupt nätverk som har önskvärda egenskaper hos både CNN och CRF. Viktigt är att vårt system helt integrerar CRF-modellering med CNN:er, vilket gör det möjligt att träna hela det djupa nätverket end-to-end med den vanliga back-propagation algoritmen, undvika offline efterbehandlingsmetoder för objektdelinering. Vi tillämpar den föreslagna metoden på problemet med semantisk bildsegmentering och får toppresultat på den utmanande Pascal VOC 2012-segmenteringsriktmärket. | Shuai Zheng m.fl. REF introducerar en ny form av konvolutionella neurala nätverk som kombinerar styrkorna av CNN och CRF-baserad probabilistisk grafisk modellering. | 1,318,262 | Conditional Random Fields as Recurrent Neural Networks | {'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 81,414 |
Sammanfattning av denna webbsida: Dataspedition för trådlösa sensornätverk under vatten har väckt stor uppmärksamhet under det senaste årtiondet. På grund av de hårda undervattensmiljöer för kommunikation, en stor utmaning för Underwater Wireless Sensor Networks (UWSNs) är aktualitet. Dessutom är undervattenssensorn noder energibegränsad, så nätverkets livslängd är ett annat hinder. Dessutom orsakar den passiva rörligheten av undervattenssensorer dynamisk topologi förändring av undervattensnätverk. Det är viktigt att beakta aktualitet och energiförbrukning av data vidarebefordra i UWSNs, tillsammans med passiv rörlighet av sensorn noder. I detta dokument formulerar vi först problemet med överföring av data genom att gemensamt överväga aktualitet och energiförbrukning under en passiv rörlighetsmodell för trådlösa sensornätverk under vatten. Vi föreslår sedan en förstärkt inlärningsbaserad metod för problemet. Vi utvärderar slutligen den föreslagna metodens prestanda genom simuleringar. Simuleringsresultat visar att den föreslagna metoden är giltig. Vår metod överträffar referensprotokollen i både aktualitet och energieffektivitet. Mer specifikt, vår metod vinner 83,35% mer värde på information och sparar upp till 75,21% energi jämfört med en klassisk livstidsutökad routing protokoll (QELAR). | Chang och Al. REF tog itu med problemet med överföring av data i UWSN (Under Water Wireless Sensor Networks) med hjälp av en RL-baserad metod som bidrar till utmaningen med aktualitet och energibegränsningar. | 58,575,148 | Reinforcement Learning-Based Data Forwarding in Underwater Wireless Sensor Networks with Passive Mobility | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 81,415 |
Asynkrona metoder används ofta i djupinlärning, men har begränsad teoretisk motivering när de tillämpas på icke-konvexa problem. Vi visar att kör stokastisk lutning nedstigning (SGD) på ett asynkront sätt kan ses som att lägga till en momentumliknande term till SGD iterationen. Vårt resultat förutsätter inte konvexitet i den objektiva funktionen, så det är tillämpligt på djupinlärningssystem. Vi observerar att en standard kömodell av asynkroni resulterar i en form av momentum som vanligen används av djupt lärande utövare. Detta skapar en koppling mellan köteori och asynkroni i djupinlärningssystem, vilket kan vara användbart för systembyggare. För konvolutionella neurala nätverk, validerar vi experimentellt att graden av asynkroni direkt korrelerar med momentum, vilket bekräftar vårt huvudsakliga resultat. En viktig konsekvens är att det är viktigt att justera momentumparametern när man överväger olika nivåer av asynkroni. Dessutom föreslår vår teori sätt att motverka asynkronins negativa effekter. Vi ser att en enkel mekanism som att använda negativa algoritmiska momentum kan vara fördelaktigt under hög asynkroni. Eftersom asynkrona metoder har bättre hårdvarueffektivitet kan detta resultat belysas när asynkront utförande är mer effektivt för djupinlärningssystem. | Asynkrona metoder används ofta i djupinlärning, och REF visar att köra SGD asynkront liknar att lägga till en momentum-liknande term till SGD utan antaganden om konvexitet av den objektiva funktionen. | 6,668,563 | Asynchrony begets momentum, with an application to deep learning | {'venue': '2016 54th Annual Allerton Conference on Communication, Control, and Computing (Allerton)', 'journal': '2016 54th Annual Allerton Conference on Communication, Control, and Computing (Allerton)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,416 |
Abstract-Depth uppskattning från enstaka monokulära bilder är en viktig komponent i scen förståelse. De flesta befintliga algoritmer formulerar djupuppskattning som ett regressionsproblem på grund av den kontinuerliga egenskapen djup. Indatans djupvärde kan dock knappast regresseras exakt till mark-sanningens värde. I detta dokument föreslår vi att man formulerar djupuppskattning som en pixelvis klassificeringsuppgift. Specifikt, vi först diskretisera de kontinuerliga mark-sanning djup i flera behållare och märka behållarna enligt deras djupintervall. Sedan löser vi problemet med djupuppskattning som klassning genom att träna ett fullständigt konvolutionellt djupt resterande nätverk. Jämfört med att uppskatta det exakta djupet av en enda punkt, är det lättare att uppskatta dess djupområde. Ännu viktigare, genom att utföra djupklassificering istället för regression, kan vi lätt få förtroende för en djup förutsägelse i form av sannolikhetsfördelning. Med detta förtroende kan vi tillämpa en informationsförlust för att utnyttja de förutsägelser som är nära mark-sanning under utbildningen, samt fullt anslutna villkorade slumpmässiga fält för efterbehandling för att ytterligare förbättra prestanda. Vi testar vår föreslagna metod på både inomhus och utomhus referens RGB-Depth dataset och uppnå toppmodern prestanda. | Cao m.fl. REF diskretiserade mark-sanningsdjupet i flera behållare (klasser) för utbildning av ett FCN-residual nätverk som förutsäger dessa klasser pixel-wise; som följs av en CRF efter bearbetning genomdriva lokala djup samstämmighet. | 14,811,066 | Estimating Depth From Monocular Images as Classification Using Deep Fully Convolutional Residual Networks | {'venue': 'IEEE Transactions on Circuits and Systems for Video Technology', 'journal': 'IEEE Transactions on Circuits and Systems for Video Technology', 'mag_field_of_study': ['Computer Science']} | 81,417 |
Abstract-Recently, många verk har inspirerats av framgången med djupt lärande i datorseende för växtsjukdomar klassificering. Olyckligtvis saknar dessa grundläggande klassifikationer öppenhet som kan begränsa deras antagande i praktiken. I detta dokument föreslår vi en ny visualiseringsmetod för klassificering av växtsjukdomar baserad på en Convolutional Neural Network (CNN) arkitektur som består av två djupa klassificeringar. Den första heter Lärare och den andra Student. Denna arkitektur utnyttjar multitask-lärandet för att utbilda Läraren och Studenten gemensamt. Därefter används den kommunicerade representationen mellan Läraren och Studenten som en proxy för att visualisera de viktigaste bildområdena för klassificering. Denna nya arkitektur producerar skarpare visualisering än de befintliga metoderna i växtsjukdomar sammanhang. Den föreslagna visualiseringsmetoden jämförs kvantitativt med de senaste metoderna med hjälp av Area Over perturbation kurva (AOP C). De erhållna resultaten visar att den föreslagna visualiseringsmetoden överträffar de befintliga metoderna med AOP C = 0,907. Alla experiment utförs på PlantVillage dataset som innehåller 54306 växtbilder. | Brahimi m.fl. REF föreslog en ny visualiseringsmetod för klassificering av växtsjukdomar baserad på ett konvolutionellt neuralt nätverk (CNN) arkitektur bestående av två djupa klassificeringar. | 173,188,061 | Deep interpretable architecture for plant diseases classification | {'venue': '2019 Signal Processing: Algorithms, Architectures, Arrangements, and Applications (SPA)', 'journal': '2019 Signal Processing: Algorithms, Architectures, Arrangements, and Applications (SPA)', 'mag_field_of_study': ['Computer Science']} | 81,418 |
I detta dokument undersöker vi de sociala rekommendationsalgoritmerna på heterogena sociala nätverk och föreslår Hete-CF, en social samarbetsfiltreringsalgoritm med hjälp av heterogena relationer. Hete-CF skiljer sig från de spännande metoderna och kan effektivt utnyttja flera typer av relationer i ett heterogent socialt nätverk. Ännu viktigare är att Hete-CF är ett allmänt tillvägagångssätt och kan användas i godtyckliga sociala nätverk, inklusive evenemangsbaserade sociala nätverk, lokaliseringsbaserade sociala nätverk och andra typer av heterogena informationsnätverk som är kopplade till social information. De experimentella resultaten på en verklig datauppsättning DBLP (ett typiskt heterogent informationsnätverk) visar hur effektiv vår algoritm är. | Luo m.fl. I Ref föreslogs en samarbetsbaserad filtreringsbaserad social rekommendationsmetod, kallad HeteCF, med hjälp av heterogena relationer. | 6,910,648 | Hete-CF: Social-Based Collaborative Filtering Recommendation Using Heterogeneous Relations | {'venue': '2014 IEEE International Conference on Data Mining', 'journal': '2014 IEEE International Conference on Data Mining', 'mag_field_of_study': ['Computer Science']} | 81,419 |
Överväga en datainnehavare, såsom ett sjukhus eller en bank, som har en privatägd insamling av personspecifika, fältstrukturerade uppgifter. Antag att datainnehavaren vill dela en version av data med forskare. Hur kan en datainnehavare ge ut en version av sina privata data med vetenskapliga garantier för att de individer som är föremål för uppgifterna inte kan identifieras på nytt medan uppgifterna fortfarande är praktiskt användbara? Den lösning som ges i detta dokument innehåller en formell skyddsmodell som kallas k-anonymitet och en uppsättning åtföljande strategier för införande. En release ger k-anonymitetsskydd om informationen för varje person som ingår i releasen inte kan särskiljas från minst k-1 personer vars information också visas i releasen. I detta dokument undersöks också återidentifieringsattacker som kan förverkligas vid utsläpp som följer kanonymitet om inte åtföljande politik respekteras. K-anonymitetsskyddsmodellen är viktig eftersom den utgör grunden för att de verkliga system som kallas Datafly, μ-Argus och k-Similar ger garantier för skydd av privatlivet. | Sweeney föreslog först K-anonymity modellen REF och åtminstone k-1 poster var oskiljaktiga från varje post. | 361,794 | k-Anonymity: A Model for Protecting Privacy | {'venue': 'International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,420 |
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med | Den bästa läran är Region Proposition Network från Snabbare R-CNN objekt detektion ram REF. | 10,328,909 | Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 81,421 |
Federationer bland uppsättningar av molnleverantörer (CPs), där en uppsättning av CPs går med på att ömsesidigt använda sina egna resurser för att driva virtuella maskiner för andra CPs, anses vara en lovande lösning på problemet med att minska energikostnaden. I detta dokument tar vi upp problemet med federationsbildning för en uppsättning av CPs, vars lösning är nödvändig för att utnyttja potentialen i moln federationer för att minska energiräkningen. Vi utformar en algoritm, baserad på kooperativ spelteori, som lätt kan genomföras på ett distribuerat sätt, och som gör det möjligt för en uppsättning av CPs att samarbeta etablera sina federationer på ett sådant sätt att deras individuella vinst ökas med hänsyn till det fall i vilket de arbetar isolerat.Vi visar att de, genom att använda vår algoritm och de föreslagna CPs "nyttofunktion, kan självorganisera sig i Nash-stabila federationer och, genom itererade avrättningar, anpassa sig till miljöförändringar. Numeriska resultat presenteras för att visa den föreslagna algoritmens effektivitet. | En lösning som skapar federationer bland en uppsättning molnleverantörer föreslås i REF. | 6,582,982 | A Game-Theoretic Approach to Coalition Formation in Green Cloud Federations | {'venue': '2014 14th IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing', 'journal': '2014 14th IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing', 'mag_field_of_study': ['Computer Science']} | 81,422 |
De senaste åren har man kunnat se lovande resultat av ansiktsupptäckt med hjälp av djup inlärning. Trots anmärkningsvärda framsteg, ansikte upptäckt i det vilda är fortfarande en öppen forskning utmaning, särskilt när det gäller att upptäcka ansikten på mycket olika skalor och egenskaper. I detta dokument föreslår vi en ny enkel men effektiv ram för "Feature Agglomeration Networks" (FANet) för att bygga en ny enstegs ansiktsdetektor, som inte bara uppnår toppmodern prestanda utan också fungerar effektivt. Som inspirerad av Feature Pyramid Networks (FPN) [11], är den viktigaste idén med vårt ramverk att utnyttja inneboende multi-skala funktioner i ett enda konvolutionellt neuralt nätverk genom att aggregera högre nivå semantiska funktionskartor av olika skalor som kontextuella ledtrådar för att öka lägre nivå funktionskartor via en hierarkisk tätbebyggelse sätt till marginell extra beräkningskostnad. Vi föreslår vidare en Hierarkisk förlust för att effektivt träna FANet-modellen. Vi utvärderar den föreslagna FANet-detektorn på flera offentliga riktmärken för ansiktsdetektering, inklusive PASCAL-ansikte, FDDB- och WIDER FACE-datauppsättningar och uppnådda toppmoderna resultat. Vår detektor kan köras i realtid för VGA-upplösningsbilder på GPU. | FANet REF agglomererar multi-scale funktioner för att öka lägre nivå funktionskartor i en konkatetering stil. | 33,471,933 | Feature Agglomeration Networks for Single Stage Face Detection | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,423 |
Den probabilistiska I/O Automatonmodellen av [31] används som grund för en formell presentation och bevis på Aspnes och Herlihys randomiserade konsensusalgoritm. Algoritmen garanterar terminering inom förväntad polynomtid. Aspnes-Herlihy algoritmen är en ganska komplex algoritm. Processer rör sig genom en följd av asynkrona rundor, försöker komma överens vid varje omgång. Vid varje omgång, avtalet försök innebär en distribuerad slumpmässig promenad. Algoritmen är svår att analysera på grund av dess användning av icke-triviala resultat av sannolikhetsteori (specifikt, slumpmässig gångteori som är baserad på oändligt många mynt flips snarare än på finitly många mynt flips), på grund av dess komplexa inställning, inklusive asynkrony och både icke-deterministiska och probabilistiska val, och på grund av samspelet mellan flera olika underprotokoll. Vi formaliserar Aspnes-Herlihy algoritmen med probabilistisk I/O automata. Genom att göra det bryter vi formellt ner det i tre underprotokoll: en för att genomföra överenskommelsen försök, en för att genomföra slumpmässiga promenader, och en för att genomföra en delad räknare som behövs av slumpmässiga promenader. Egenskaper hos alla tre delprotokoll bevisas separat, och kombineras med allmänna resultat om automatisk sammansättning. Det visar sig att det mesta av arbetet handlar om att bevisa icke-probabilistiska egenskaper (invarianter, simuleringskartläggningar, icke-probabilistiska förloppsegenskaper osv.). Det probabilistiska resonemanget är isolerat för några få små delar av beviset. Uppgiften att utföra detta bevis har lett oss att utveckla flera allmänna bevistekniker för probabilistiska I/O automata. Dessa inkluderar sätt att kombinera förväntningar på olika komplexa åtgärder, att komponera förväntade komplexa egenskaper, att konvertera probabilistiska påståenden till deterministiska påståenden, att använda abstraktion kartläggningar för att bevisa probabilistiska egenskaper, och att tillämpa slumpmässiga gångteori i en distribuerad beräkningsmiljö. Vi använder alla dessa tekniker för att analysera algoritmens förväntade komplexitet. | Vi är bara medvetna om en formell modell och verifiering av Randomized Consensus med probabilistic I/O-automata REF. | 207,771,980 | Verification of the randomized consensus algorithm of Aspnes and Herlihy: a case study | {'venue': 'Distributed Computing', 'journal': 'Distributed Computing', 'mag_field_of_study': ['Computer Science', 'Engineering']} | 81,424 |
Vi introducerar en ny minnesarkitektur för navigering i tidigare osedda miljöer, inspirerad av landmärkesbaserad navigering hos djur. Det föreslagna semiparametriska topologiska minnet (SPTM) består av en (icke-parametrisk) graf med noder som motsvarar platser i miljön och ett (parametrisk) djupt nätverk som kan hämta noder från grafen baserat på observationer. Grafen lagrar ingen metrisk information, endast anslutning av platser som motsvarar noderna. Vi använder SPTM som planeringsmodul i ett navigationssystem. Med bara 5 minuters filmning av en tidigare osedd labyrint kan en SPTM-baserad navigeringsagent bygga en topologisk karta över miljön och använda den för att med tillförsikt navigera mot mål. Den genomsnittliga framgångsgraden för SPTM-agenten i målstyrd navigering över testmiljöer är högre än det bästa utgångsvärdet med en faktor på tre. | Savinov m.fl. REF introducerar ett topologiskt landmärkesbaserat minne för navigering. | 3,687,922 | Semi-parametric Topological Memory for Navigation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,425 |
I detta dokument föreslås en snabb regionbaserad Convolutional Network-metod (Fast R-CNN) för objektdetektering. Snabb R-CNN bygger på tidigare arbete för att effektivt klassificera objektförslag med hjälp av djupa konvolutionsnätverk. Jämfört med tidigare arbete använder Fast R-CNN flera innovationer för att förbättra tränings- och testhastigheten och samtidigt öka detektionsnoggrannheten. Snabb R-CNN tränar det mycket djupa VGG16 nätverket 9× snabbare än R-CNN, är 213× snabbare vid test-tid, och uppnår en högre mAP på PASCAL VOC 2012. Jämfört med SPPnet, snabb R-CNN tåg VGG16 3× snabbare, testar 10× snabbare, och är mer exakt. Snabb R-CNN genomförs i Python och C++ (med Caffe) och finns tillgänglig under MIT-licensen med öppen källkod på https: //github.com/rbgirshick/fast-rcnn. | Snabb R-CNN REF, en populär ram för objektdetektering, lider också av "katastrofisk glömska". | 206,770,307 | Fast R-CNN | {'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 81,426 |
Realtidstillämpning av djupinlärningsalgoritmer hindras ofta av hög beräknings komplexitet och frekventa minnesåtkomster. Nätbeskärning är en lovande teknik för att lösa detta problem. Beskärning resulterar dock vanligtvis i oregelbundna nätverksanslutningar som inte bara kräver extra representationsinsatser utan också inte passar bra vid parallell beräkning. Vi introducerar strukturerad sparhet på olika skalor för konvolutionella neurala nätverk: har kart-wise, kärn-wise, och intra-kernel steg sparity. Denna strukturerade sparsamhet är mycket fördelaktig för direkta beräkningsresurser på inbyggda datorer, i parallella datormiljöer och i hårdvarubaserade system. För att avgöra betydelsen av nätverksanslutningar och nätvägar använder den föreslagna metoden en partikelfiltreringsmetod. Vikten av varje partikel tilldelas genom att man bedömer felklassificeringshastigheten med ett motsvarande konnektivitetsmönster. Det beskurna nätet omskolas för att kompensera för förlusterna på grund av beskärning. Samtidigt som vi implementerar convolutions som matrisprodukter, visar vi särskilt att intra-kärnan steg spartyngd med en enkel begränsning kan avsevärt minska storleken på kärnan och funktionen kart tensorer. Det föreslagna arbetet visar att när granulariteterna beskärs i kombination kan vi beskära CIFAR-10-nätverket med mer än 70 % med mindre än 1 % noggrannhetsförlust. mål kan uppnås genom att tillämpa beskärningstekniken på högpresterande stora nätverk, där beskärning minskar beräkningskostnaden. Dessutom kan dessa lätta nätverk implementeras med hjälp av endast on-chip minne för energibesparingar eftersom frekventa DRAM-åtkomst förbrukar mycket energi. Beskärning framkallar sparsamhet i ett nätverk och kan kategoriseras som strukturerad och ostrukturerad. Ostrukturerad beskärning följer inte någon specifik geometri eller begränsning. I de flesta fall behöver denna teknik extra information för att representera glesa platser. Det leder till oregelbunden sparhet, vilket är svårt att utnyttja för effektiv beräkning. Å andra sidan placerar strukturerad gleshet icke-nollparametrar på väldefinierade platser. Denna typ av begränsning gör det möjligt för moderna processorer och grafik bearbetningsenheter (GPU) att enkelt utnyttja beräkningsbesparingar. Nätverksbeskärning har undersökts av flera forskare [Han et al. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. , 2015b Castellano et al. 1997; Collins och Kohli 2014; Stepniewski och Keane 1997; Reed 1993]. Han et als verk. [2015a Han et al.]............................................................................................................. [, 2015b har visat att en mycket större del av vikter kan sättas till noll med minsta eller ingen förlust i prestanda. De tränar ett nätverk med ytterligare L1/L2-förlustfunktion på vikterna och beskär det gradvis. Om vikten på en anslutning är mindre än en tröskel, kopplas anslutningen ned. Författarna i Han et al. [2015b] utöka detta arbete ytterligare genom att kvantifiera det slutligen beskurna nätverket [Han et al. - Vad är det? - 2015a. Båda verken måste dock uttryckligen lokalisera icke-nollvikter med gles representation. Konventionellt använder sparsam representation formatet Komprimerad Sparse Row/Compressed Sparse Column (CSR/CSC) som representerar m icke-nolltal med 2m + n + 1 tal, där n representerar antalet rader eller kolumner. Han et al:s arbete. [2015a] visar att hälften av AlexNets minnesutrymme krävs för att lagra indexen för icke-nollparametrarna. Detta dubblar också minnesåtkomst eftersom varje vikt hämta nu blir ett (index, vikt) par. Vårt föreslagna arbete kräver inte en sådan extra representation. I detta arbete utforskar vi funktionskartan och den intrakärniga sparsamheten som ett sätt att strukturera beskärningen. I funktionen karta beskärning, alla inkommande och utgående vikter till / från en funktion karta beskärs. Den intra-kärna sparty beskär vikter i en kärna. Beskärningen på kärnnivå är ett specialfall av intrakärna med 100 % beskärning. Dessa beskärning granulariteter kan tillämpas i olika kombinationer och olika beställningar. Det föreslagna arbetet innehåller följande bidrag: | Intra-kernel stegbeskärning är ett fall som undersökts i arbetet av Anwar et al. Hoppa över det. | 7,333,079 | Structured Pruning of Deep Convolutional Neural Networks | {'venue': 'JETC', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,427 |
Millimetervåg (mmWave) trådlösa nätverk förlitar sig på smala balkar för att stödja flera gigabit datahastigheter. Anpassningen av sändare och mottagare är dock en tidsödande operation, som introducerar en anpassningsgenomströmningsavräkning. En bredare bombredd minskar uppriktningen över huvudet, men leder också till minskade direktivitetsvinster. Dessutom schemalägger befintliga mmWave standarder en enda sändning i varje tidsintervall, även om riktningskommunikation underlättar flera samtidiga sändningar. I detta dokument föreslås ett gemensamt övervägande av problemen med valet av bombredd och schemaläggning för att maximera effektiv nätverksgenomströmning. Det resulterande optimeringsproblemet kräver exakt kunskap om nättopologi, som kanske inte är tillgänglig i praktiken. Därför utvecklas två standardkompatibla approximationsalgoritmer som bygger på underskattning och överskattning av interferens. Den första syftar till att maximera återanvändningen av tillgängligt spektrum, medan den andra är en mer konservativ strategi som schemalägger tillsammans endast länkar som orsakar ingen störning. Omfattande prestandaanalys ger användbara insikter om riktningsnivån och antalet samtidiga transmissioner som bör eftersträvas. Intressant nog är extremt smala bjälkar i allmänhet inte optimala. | Frågan om strålformning beaktas i REF, som föreslår en gemensam optimering av valet av strålbredd och schemaläggning för att maximera den effektiva nätverksgenomströmningen. | 9,187,275 | Beam-searching and transmission scheduling in millimeter wave communications | {'venue': '2015 IEEE International Conference on Communications (ICC)', 'journal': '2015 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,428 |
I detta arbete undersöker vi effekten av det konvolutionella nätverksdjupet på dess noggrannhet i den storskaliga bildigenkänningsinställningen. Vårt huvudsakliga bidrag är en grundlig utvärdering av nätverk av ökande djup, vilket visar att en betydande förbättring av tidigare-konst konfigurationer kan uppnås genom att flytta djupet till 16-19 viktlager. Dessa resultat var grunden för vår ImageNet Challenge 2014 underkastelse, där vårt team säkrade den första och den andra platsen i lokaliserings- respektive klassificeringsspår. Vi visar också att våra representationer generaliserar väl till andra datauppsättningar, där de uppnår de senaste resultaten. Viktigt är att vi har gjort våra två bäst presterande ConvNet-modeller allmänt tillgängliga för att underlätta ytterligare forskning om användningen av djupa visuella representationer i datorseendet. | Simonyan m.fl. REF föreslår VGGNet med 16 viktlager för att undersöka hur CNNs djup påverkar deras noggrannhet i den storskaliga bildigenkänningsinställningen. | 14,124,313 | Very Deep Convolutional Networks for Large-Scale Image Recognition | {'venue': 'CVPR 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,429 |
Binär kod återanvändning är processen för att automatiskt identifiera gränssnittet och extrahera instruktioner och data beroenden av en kod fragment från ett körbart program, så att det är fristående och kan återanvändas av extern kod. Binär kod återanvändning är användbart för ett antal säkerhetsprogram, inklusive återanvändning av de egenutvecklade kryptografiska eller uppackande funktioner från ett malware prov och för att skriva om en nätverksdialogruta. I detta dokument genomför vi den första systematiska studien av automatiserad binär kod återanvändning och dess säkerhetsapplikationer. Den största utmaningen i binär kod återanvändning är att förstå kodfragmentets gränssnitt. Vi föreslår en ny teknik för att identifiera prototypen av en odokumenterad kodfragment direkt från programmets binära, utan tillgång till källkod eller symbolinformation. Vidare måste vi också extrahera koden själv från binären så att den är fristående och lätt kan återanvändas i ett annat program. Vi designar och implementerar ett verktyg som använder en kombination av dynamisk och statisk analys för att automatiskt identifiera prototypen och extrahera instruktionerna för en monteringsfunktion till en form som kan återanvändas av annan C-kod. Den extraherade funktionen kan köras oberoende av resten av programmets funktionalitet och delas med andra användare. Vi tillämpar vår strategi för scenarier som inkluderar extrahera kryptering och dekryptering rutiner från malware prover, och visar att dessa rutiner kan återanvändas av en nätverksproxy för att dekryptera krypterad trafik på nätverket. Detta gör det möjligt för nätverksproxyn att skriva om malwares krypterade trafik genom att kombinera extraherade krypterings- och dekrypteringsfunktioner med sessionsnycklarna och protokoll grammatiken. Vi visar också att vi kan återanvända ett kodfragment från en uppackningsfunktion för uppackningsrutinen för ett annat prov av samma familj, även om kodfragmentet inte är en komplett funktion. | Baserat på instruktionsprofilering extraherar BCR REF ytterligare gränssnittet för identifierade krypterings-/dekrypteringsfunktioner från binära körbara program. | 13,177,007 | Binary Code Extraction and Interface Identification for Security Applications | {'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,430 |
Motivering: Förbättra användbarheten av bioinformatiska resurser gör det möjligt för forskare att hitta, interagera med, dela, jämföra och manipulera viktig information mer effektivt och effektivt. Det gör det möjligt för forskare att få bättre insikter i biologiska processer med potential, i slutändan, att ge nya vetenskapliga resultat. Användbarhet barriärer kan utgöra betydande hinder för en tillfredsställande användarupplevelse och tvinga forskare att använda onödig tid och ansträngning för att slutföra sina uppgifter. Antalet tillgängliga biologiska databaser på nätet ökar och det finns en växande gemenskap av olika användare. I detta sammanhang finns det ett ökande behov av att säkerställa högsta möjliga användbarhet. Resultat: Med hjälp av moderna metoder för utvärdering av användbarhet har vi identifierat och karakteriserat ett urval av användbarhetsfrågor som kan vara relevanta för webbbioinformatiska resurser i allmänhet. Dessa gäller särskilt utformningen av de navigations- och sökmekanismer som användaren har tillgång till. De användbarhetsproblem vi har upptäckt i våra omfattande fallstudier undergräver användarnas förmåga att hitta den information de behöver i sin dagliga forskningsverksamhet. Utöver karakteriseringen av dessa frågor föreslås särskilda rekommendationer för förbättringar som utnyttjar beprövade metoder från webb- och användbarhetsteknik. De metoder och förhållningssätt som vi exemplifierar kan lätt antas av utvecklarna av bioinformatiska resurser. | Användbarhet är viktigt eftersom det gör det möjligt för användarna att hitta, interagera med, dela, jämföra och manipulera viktig information mer effektivt och effektivt REF. | 19,841,230 | Better bioinformatics through usability analysis | {'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 81,431 |
Naturlig språkinferens (NLI) är en grundläggande viktig uppgift i behandling av naturligt språk som har många tillämpningar. Den nyligen släppta Stanford Natural Language Inference (SNLI) corpus har gjort det möjligt att utveckla och utvärdera lärande-centrerade metoder såsom djupa neurala nätverk för naturligt språk inference (NLI). I det här dokumentet föreslår vi en särskild långsiktig minnesarkitektur (LSTM) för NLI. Vår modell bygger på en nyligen föreslagen neural uppmärksamhetsmodell för NLI men är baserad på en helt annan idé. Istället för att härleda mening inbäddade för premissen och hypotesen som ska användas för klassificering, använder vår lösning en match-LSTM för att utföra ord för ord matchning av hypotesen med premissen. Denna LSTM kan lägga större vikt vid viktiga ord-nivå matchande resultat. I synnerhet observerar vi att denna LSTM kommer ihåg viktiga missmatchningar som är avgörande för att förutsäga motsägelsen eller den neutrala relationsetiketten. På SNLI corpus uppnår vår modell en noggrannhet på 86,1 %, vilket överträffar den senaste tekniken. | Wang och Jiang REF använde en LSTM för att utföra ord för ord matchning av hypotesen med premissen. | 11,004,224 | Learning Natural Language Inference with LSTM | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,432 |
I tidskritiska trådlösa sensornätverk (WSN) applikationer krävs ofta en hög grad av tillförlitlighet. En dynamisk hoppa realtid feltolerant routing protokoll (DMRF) föreslås i detta dokument. Varje nod använder den återstående sändningstiden för datapaketen och läget för den vidarebefordrande kandidatnoden som är inställd på att dynamiskt välja nästa humle. När nodfel, överbelastning av nätet eller tom region inträffar, kommer överföringsläget att växla till hoppöverföringsläge, vilket kan minska tidsfördröjningen, vilket garanterar att datapaketen skickas till destinationsnoden inom den angivna tidsfristen. Genom att använda feedback mekanism, varje nod dynamiskt justerar hoppning sannolikheter för att öka förhållandet mellan framgångsrik överföring. Simuleringsresultat visar att DMRF inte bara effektivt kan minska effekterna av felnoder, trängsel och tomhet region, men också ge högre förhållande av framgångsrik överföring, mindre överföringsfördröjning och minskat antal kontrollpaket. | I REF föreslogs en dynamisk hoppning i realtid feltolerant routing protokoll (DMRF) för att hantera potentiella fel i nätet såsom fel, trängsel och tomhet regionen. | 6,413,147 | Dynamical Jumping Real-Time Fault-Tolerant Routing Protocol for Wireless Sensor Networks | {'venue': 'Sensors, 10(3):2416-2437, 2010', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Engineering', 'Medicine']} | 81,433 |
Vi presenterar en ny metod för att bevisa säkerhet i krypteringssystem med hjälp av vad vi kallar Dual System Encryption. Våra tekniker resulterar i helt säkra Identity-Based Encryption (IBE) och Hierarchical Identity-Based Encryption (HIBE) system under de enkla och etablerade beslutsfattande Bilinear Diffie-Hellman och beslutliga Linjära antaganden. Vårt IBE-system har chiffertexter, privata nycklar och offentliga parametrar som var och en består av ett konstant antal gruppelement. Dessa resultat är det första HIBE-systemet och det första IBE-systemet med korta parametrar under enkla antaganden. I ett Dual System Krypteringssystem kan både chiffertexter och privata nycklar ta sig an en av två oskiljaktiga former. En privat nyckel eller chiffertext kommer att vara normal om de genereras respektive från systemets nyckelgenerering eller krypteringsalgoritm. Dessa nycklar och chiffertexter kommer att bete sig som man förväntar sig i ett IBE-system. Dessutom definierar vi semifunktionella nycklar och chiffertexter. En semifunktionell privat nyckel kommer att kunna dekryptera alla normalt genererade chiffertexter, men dekrypteringen kommer att misslyckas om man försöker dekryptera en semifunktionell chiffertext med en semifunktionell privat nyckel. Analogt, semi-funktionella chiffertexts kommer att vara dekrypterbara endast med normala privata nycklar. Dual System Encryption öppnar upp ett nytt sätt att bevisa säkerhet för IBE och relaterade krypteringssystem. Vi definierar en sekvens av spel där vi först ändrar utmaningen chiffertext och sedan de privata tangenterna en efter en för att vara semifunktionella. Vi hamnar slutligen i ett spel där utmaningen chiffertext och alla privata nycklar är semifunktionella då bevis på säkerhet är enkelt. | Nyligen tillämpade den dubbla systemkrypteringskonceptet som föreslagits av REF för att presentera en konstruktion med kort chiffertext. | 4,983,202 | Dual system encryption: Realizing fully secure IBE and HIBE under simple assumptions | {'venue': 'In CRYPTO', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,434 |
Eftersom de djupa näten i allt högre grad används i tillämpningar som lämpar sig för mobila enheter blir ett grundläggande dilemma uppenbart: tendensen i det djupa lärandet är att växa modeller för att absorbera allt större datamängder, men mobila enheter är utformade med mycket lite minne och kan inte lagra så stora modeller. Vi presenterar en ny nätverksarkitektur, HashedNets, som utnyttjar inneboende redundans i neurala nätverk för att uppnå drastiska minskningar i modellstorlekar. HashedNets använder en hashfunktion med låg kostnad för att slumpmässigt gruppera anslutningsvikter i hashskopor, och alla anslutningar inom samma hashskopa delar ett enda parametervärde. Dessa parametrar är anpassade för att anpassa sig till HashedNets viktdelningsarkitektur med standard backprop under träningen. Vår hashing procedur inför inga ytterligare minne overhead, och vi visar på flera riktmärkesdata som HashedNets krymper lagringskraven för neurala nätverk avsevärt samtidigt mestadels bevara generalisering prestanda. | Baserat på samma idé, HashedNets utnyttja en hash funktion för att slumpmässigt gruppera anslutningsvikter, så att alla anslutningar inom samma hash hink dela en enda vikt värde REF. | 543,597 | Compressing Neural Networks with the Hashing Trick | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,435 |
X-Stream är ett system för att bearbeta både in-minne och utgångna grafer på en enda delad minnesmaskin. Medan du behåller scatter-gather programmering modell med tillstånd lagras i hörnen, X-Stream är ny i (i) med hjälp av en kant-centrisk snarare än en vertex-centrisk genomförande av denna modell, och (ii) strömma helt oordnad kantlistor snarare än att utföra slumpmässig åtkomst. Denna design motiveras av att den sekventiella bandbredden för alla lagringsmedier (huvudminne, SSD och magnetisk disk) är betydligt större än bandbredden för slumpmässig åtkomst. Vi visar att ett stort antal grafalgoritmer kan uttryckas med hjälp av den kantcentriska spridningsmodellen. Det resulterande genomförandet skalas väl i fråga om antal kärnor, i fråga om antal I/O-enheter, och mellan olika lagringsmedier. X-Stream konkurrerar gynnsamt med befintliga system för grafbearbetning. Förutom sekventiell åtkomst, identifierar vi som en av de viktigaste bidragsgivarna för bättre prestanda det faktum att X-Stream inte behöver sortera kantlistor under förbehandling. | X-Stream REF föreslår ett edgecentriskt grafbehandlingssystem på en enda delad minnesmaskin. | 1,151,068 | X-Stream: edge-centric graph processing using streaming partitions | {'venue': "SOSP '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,436 |
Vi presenterar RIPOSTE, en distribuerad algoritm för att sprida information (idéer, nyheter, åsikter, eller trender) i ett socialt nätverk. RIPOSTE ser till att informationen sprids brett om och endast om en stor del av användarna tycker att den är intressant, och detta görs på ett "privacy-medvetet" sätt, nämligen utan att avslöja åsikter från någon enskild användare. När ett informationsobjekt tas emot av en användare, RIPOSTE beslutar att antingen vidarebefordra objektet till alla användarens grannar, eller att inte vidarebefordra det till någon. Beslutet är randomiserat och baseras på användarens (privata) åsikt om punkten, samt på en övre gräns för antalet användares grannar som ännu inte har fått varan. Kort sagt, om användaren gillar posten, RIPOSTE vidarebefordrar den med sannolikhet något större än 1/s, och om inte, objektet vidarebefordras med sannolikhet något mindre än 1/s. Med hjälp av en jämförelse till förgrening processer, visar vi för en allmän familj av slumpmässiga riktade grafer med godtyckliga ut-grad sekvenser, att om informationsobjektet tilltalar en tillräckligt stor (konstant) bråkdel av användare, då objektet sprids till en konstant bråkdel av nätverket; medan om färre användare gillar det, spridningsprocessen dör ut snabbt. Dessutom tillhandahåller vi omfattande experimentell utvärdering av RIPOSTE på topologier tagna från sociala nätverk online, inklusive Twitter och Facebook. | Giakkoupis m.fl. REF visade att informationen sprids till en konstant del av nätverket om den tilltalar en konstant del av användarna, och dör ut om få användare gillar det. | 6,112,878 | Privacy-Conscious Information Diffusion in Social Networks | {'venue': 'DISC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,437 |
Processing-in-memory (PIM) chips som integrerar processorlogik i minnesenheter erbjuder en ny möjlighet att överbrygga den växande klyftan mellan processor- och minneshastigheter, särskilt för applikationer med höga krav på minnesbandbredd. Systemet Data-IntensiVe Architecture (DIVA) kombinerar PIM-minnen med en eller flera externa värdprocessorer och en PIM-till-PIM-anslutning. DIVA ökar minnesbandbredden genom två mekanismer: (1) utföra utvalda beräkningar i minnet, minska mängden data som överförs över processorminnet gränssnittet, och (2) tillhandahålla kommunikationsmekanismer som kallas paket för att flytta både data och beräkning genom minnet, ytterligare förbi processorn-minnesbussen. DIVA stöder unikt acceleration av viktiga oregelbundna tillämpningar, inklusive sparse-matris och pekarbaserade beräkningar. I detta dokument fokuserar vi på flera aspekter av DIVA som är utformade för att effektivt stödja sådana beräkningar på mycket höga prestandanivåer: 1) minnesmodellen och paketdefinitionerna; 2) PIM-till-PIM-länken; och 3) krav för gränssnittet processor-till-minne. Vi demonstrerar potentialen av PIM-baserade arkitekturer för att påskynda prestandan av tre oregelbundna beräkningar, gles konjugatgradient, en naturlig join databas operation och en objektorienterad databas fråga. | Systemet Date IntensiVe Architecture (DIVA) kombinerar PIM-minnen med en eller flera externa värdprocessorer och en PIM-till-PIM-anslutning. | 9,105,624 | Mapping irregular applications to DIVA, a PIM-based data-intensive architecture | {'venue': "SC '99", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,438 |
Vi anser att problemet med förfrågan inneslutning för XML-frågor med häckning. Eftersom två frågor, Q och Q, Q sägs finnas i Q om Q producerar en delmängd av svaren av Q för någon databas instans. Fråga inneslutning är viktigt för frågeoptimering, verifiering av integritet begränsningar, informationsintegration och verifiering av kunskapsbaser. Fråga inneslutning har studerats i relationssammanhang och för XPath frågor, men inte för XML frågor med häckning. Vi börjar med att överväga konjunktiva XML-frågor (c-XQueries), och visa att inneslutning är i PTIME om vi begränsar fanout (antal syskon delblock) att vara 1. Vi visar att för godtycklig fanout, inneslutning är coNP-hård redan för frågor med bodjup 2, även om frågan inte innehåller variabler i returklausulerna. Vi visar sedan att för frågor med fast bodjup, inneslutning är coNP-fullständig. Vi överväger flera tillägg till c-XQueries, inklusive frågor med union, negation och frågor där XPath uttryck kan innehålla nedstigande kanter (förutom jokertecken och förgrening). I vart och ett av dessa fall visar vi att även med fanout 1, fråge inneslutning är coNP-komplett, och fråge inneslutning för frågor med fast bodjup är fortfarande coNP-komplett. Slutligen visar vi att för frågor med likheter på taggvariabler, inneslutning är NP-komplett för frågor med fanout 1 och Π p 2 -komplett för frågor med godtycklig fanout men fast bodjup; för frågor med aritmetiska jämförelser på taggvariabler, inneslutning är Π p 2 -komplett för båda fallen. | Dong m.fl. REF studerar ytterligare de inbäddade XML-frågor och visar för frågor med fast bodjup, inneslutning problemet är coNP-fullständig. | 5,140,575 | Containment of Nested XML Queries | {'venue': 'VLDB', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,439 |
Vi formaliserar problemet med strukturerad förutsägelse som en förstärkning lärande uppgift. Vi definierar först en strukturerad prediktion Markov Decision Process (SP-MDP), en omedelbarion av Markov Decision Processes for Structurald Prediction och visar att lära sig en optimal policy för denna SP-MDP är detsamma som att minimera den empiriska förlusten. Denna koppling mellan den övervakade inlärningsformuleringen av strukturerade förutsägelser och förstärkande lärande (RL) gör att vi kan använda ungefärliga RL-metoder för att lära sig politiken. Den föreslagna modellen gör svaga antaganden både om det strukturerade prediktionsproblemets karaktär och om tillsynsprocessen. Det gör inga antaganden om nedbrytningen av förlustfunktioner, om datakodning, eller om tillgängligheten av optimala policyer för utbildning. Det gör det möjligt för oss att hantera ett stort antal strukturerade förutsägelser problem. Dessutom skalar den väl och kan användas för att lösa både komplexa och storskaliga verkliga problem. Vi beskriver två experimentserier. Den första ger en analys av RL på klassiska sekvensprognoser och jämför vår strategi med toppmoderna SP-algoritmer. Den andra introducerar ett träd omvandlingsproblem där de flesta tidigare modeller misslyckas. Detta är ett komplext fall av det allmänt märkta problemet med trädkartläggning. Vi visar att RL-prospektering är effektiv och leder till lyckade resultat på denna utmanande uppgift. Detta är en tydlig bekräftelse på att RL skulle kunna användas för stora och komplexa strukturerade prognosproblem. | Vårt sätt att lära genom att maximera variationsdjupet är likvärdigt med det förstärkande inlärningsförfarande som används i RAM och är relaterat till arbetet av REF som visade hur förstärkande lärande kan användas för att ta itu med allmänna strukturerade förutsägelseproblem. | 10,694,192 | Structured prediction with reinforcement learning | {'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']} | 81,440 |
Sammanfattning av denna webbsida: Trådlösa Sensornätverk (WSN) är viktiga och nödvändiga plattformar för framtiden eftersom konceptet "Internet of Things" har dykt upp på senare tid. De används för övervakning, spårning eller kontroll av många tillämpningar inom industri, hälsovård, habitat och militär. Kvaliteten på data som samlas in av sensornoder påverkas dock av anomalier som inträffar på grund av olika skäl, såsom nodfel, läsfel, ovanliga händelser och skadliga attacker. Därför är anomali detektion en nödvändig process för att säkerställa kvaliteten på sensordata innan det används för att fatta beslut. I denna översyn presenterar vi utmaningarna med anomalidetektering i WSN och anger kraven för att utforma effektiva och effektiva anomalidetekteringsmodeller. Vi granskar sedan de senaste framstegen av data anomali detektion forskning i WSNs och klassificera nuvarande detektionsmetoder i fem huvudklasser baserat på de detektionsmetoder som används för att utforma dessa metoder. Olika typer av toppmoderna modeller för varje klass omfattas och deras begränsningar lyfts fram för att ge idéer för potentiella framtida verk. Dessutom jämförs och utvärderas de reviderade tillvägagångssätten utifrån hur väl de uppfyller de angivna kraven. Slutligen nämns de allmänna begränsningarna i de nuvarande strategierna och ytterligare forskningsmöjligheter föreslås och diskuteras. | För ytterligare information om granskning av data anomalidetektering i trådlösa sensornätverk, se Rassam et al. i REF................................................................................................ | 5,860,048 | Advancements of Data Anomaly Detection Research in Wireless Sensor Networks: A Survey and Open Issues | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 81,441 |
Denna forskning föreslår en ny indikatorbaserad hybrid evolutionär metod som kombinerar ungefärliga och exakta algoritmer. Vi tillämpar det på en ny bi-kriteria formulering av den resande tjuv problem, som är känd för Evolutionary Computation community som ett riktmärke multi-komponentoptimering problem som kopplar samman två klassiska N P-hårda problem: den resande säljare problemet och 0-1 knapsack problem. Vårt tillvägagångssätt använder den exakta dynamiska programmeringsalgoritmen för den underliggande packningen medan du reser problem som en subrutin inom en bi-objektiv evolutional algoritm. Denna design drar nytta av de data som extraheras från Pareto fronter som genereras av det dynamiska programmet för att uppnå bättre lösningar. Dessutom utvecklar vi ett antal nya indikatorer och urvalsmekanismer för att stärka synergin mellan de två algoritmiska komponenterna i vår strategi. Resultaten av beräkningsförsöken visar att metoden kan överträffa de senaste resultaten för det enda objektiva fallet med problemet. | Författarna till REF använde dock en kombination av evolutionsberäkning och dynamisk programmering för det biobjektiva TTP. | 3,655,653 | Evolutionary computation plus dynamic programming for the bi-objective travelling thief problem | {'venue': "GECCO '18", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,442 |
Abstract-Med tillkomsten av Cloud computing massivt skalbara och kostnadseffektiva IT-resurser kan nås och användas sömlöst. Olika API:er görs tillgängliga för att manipulera infrastrukturen i molnet och dess datamodeller och för att använda installationsverktygen. Cloud computing främjar en ny strategi för mjukvaruutveckling. I synnerhet måste utvecklingsteamet överbrygga klyftan mellan kundernas krav och de tillgängliga faciliteterna på molnet. Denna komplexitet kan oundvikligen leda till högre kostnader och potentiellt otillfredsställande resultat. I detta dokument föreslås en metod för att överbrygga klyftan mellan kundvyn och mjukvaruutvecklingen i molnet. Den bygger på införandet av domänspecifika språk (DSL) i processen för molnbaserad applikationsutveckling och distribution. Domänspecifika språk underlättar utvecklingen av tillämpningar genom att underlätta utformningen av högnivåmodeller och specifikationer som kunden kan förstå och till och med producera. Den automatiserade metod som beskrivs i papperet implementerar och distribuerar programvara för molnet. En preliminär utvärdering visar att det föreslagna tillvägagångssättet förbättrar processen att utveckla och distribuera applikationer på molnet. | I REF föreslår författarna en strategi baserad på domänspecifika språk (DSL) inom utvecklingsprocessen. | 71,929 | A DSL-Based Approach to Software Development and Deployment on Cloud | {'venue': '2010 24th IEEE International Conference on Advanced Information Networking and Applications', 'journal': '2010 24th IEEE International Conference on Advanced Information Networking and Applications', 'mag_field_of_study': ['Computer Science']} | 81,443 |
Motivering: Trots framsteg i hög genomströmningsmetoder för att upptäcka protein-proteininteraktioner är interaktionsnätverken hos även välstuderade modellorganismer i bästa fall skepticy, vilket belyser det fortsatta behovet av beräkningsmetoder för att hjälpa direkta experimentister i sökandet efter nya interaktioner. Resultat: Vi presenterar en kärnmetod för att förutsäga proteinproteininteraktioner med hjälp av en kombination av datakällor, inklusive proteinsekvenser, Gene Ontology annotations, lokala egenskaper hos nätverket, och homologa interaktioner hos andra arter. Medan proteinkärnor som föreslås i litteraturen ger en likhet mellan enskilda proteiner, förutsägelse av interaktioner kräver en kärna mellan par av proteiner. Vi föreslår en parvis kärna som omvandlar en kärna mellan enskilda proteiner till en kärna mellan par av proteiner, och vi illustrerar kärnans effektivitet tillsammans med en stödvektorklassare. Dessutom får vi förbättrad prestanda genom att kombinera flera sekvensbaserade kärnor baserade på k-mer frekvens, motiv och domäninnehåll och genom att ytterligare utöka den parvisa sekvenskärnan med funktioner som är baserade på andra datakällor. Vi använder vår metod för att förutsäga fysiska interaktioner i jäst med hjälp av data från BIND-databasen. Med en falsk positiv frekvens av 1% klassifieraren hämtar nära 80% av en uppsättning betrodda interaktioner. Vi visar därmed vår metods förmåga att göra exakta förutsägelser trots den betydande del av falska positiva som är kända för att existera i interaktionsdatabaser. Tillgänglighet: Klassificeringsförsöken utfördes med hjälp av PyML som finns på http://pyml.sourceforge.net. | En liknande metod har använts för att förutsäga proteinprotein interaktioner REF. | 7,923,324 | Kernel methods for predicting protein-protein interactions | {'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 81,444 |
Abstract-Real-world uppgifter i datorseende rör ofta vid öppen igenkänning: flerklassig igenkänning med ofullständig kunskap om världen och många okända ingångar. Den senaste tidens arbete med detta problem har föreslagit en modell med en term för risk för öppna ytor för att ta hänsyn till utrymmet bortom det rimliga stödet från kända klasser. Detta dokument utvidgar den allmänna idén om öppen rymdrisk som begränsar klassificeringen till att omfatta icke-linjära klassificeringar i en flerklassig miljö. Vi introducerar en ny öppen uppsättning igenkänningsmodell som kallas kompakt abating sannolikhet (CAP), där sannolikheten för klass medlemskap minskar i värde (abater) som punkter går från kända data mot öppet utrymme. Vi visar att CAP-modeller förbättrar öppen igenkänning för flera algoritmer. Genom att använda CAP-formuleringen fortsätter vi med att beskriva den nya Weibull-kalibrerade SVM-algoritmen (W-SVM) som kombinerar de användbara egenskaperna hos statistisk extremvärdesteori för värderingskalibrering med enklassiga och binära vektormaskiner. Våra experiment visar att W-SVM är betydligt bättre för öppen objektdetektering och OCR-problem jämfört med state-of-the-art för samma uppgifter. | REF introducerade Compact Abating Probability (CAP)-modellen, som förklarar hur tröskeln för den probabilistiska utmatningen av RBF Enklassig SVM hanterar risken för öppna ytor. | 9,584,833 | Probability Models for Open Set Recognition | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 81,445 |
Abstrakt. Lokala bildfunktioner eller räntepunkter ger kompakta och abstrakta representationer av mönster i en bild. I detta dokument utvidgar vi begreppet rumsliga intressepunkter till den spatio-temporala domänen och visar hur de resulterande funktionerna ofta återspeglar intressanta händelser som kan användas för en kompakt representation av videodata samt för tolkning av spatio-temporala händelser. För att upptäcka spatio-temporala händelser bygger vi på idén om Harris och Förstners intressepunkter och upptäcker lokala strukturer i rumstid där bildvärdena har betydande lokala variationer i både rum och tid. Vi uppskattar den spatio-temporala omfattningen av de upptäckta händelserna genom att maximera en normaliserad spatio-temporal Laplacian operatör över rumsliga och temporala skalor. För att representera de upptäckta händelserna beräknar vi sedan lokala, spatio-temporala, skalinvarianta N-jets och klassificerar varje händelse med avseende på dess jetdeskriptor. För problemet med mänsklig rörelseanalys illustrerar vi hur en videorepresentation i termer av lokala rum-tid funktioner gör det möjligt att upptäcka vandrande människor i scener med ocklusioner och dynamiska belamrade bakgrunder. | År 2003, Laptev m.fl. REF lyfte upp idén om att använda Harris hörndetektor för att upptäcka intressepunkterna i 3D-rymden och beskriva de relaterade rörelserna med punkterna. | 3,148,797 | On Space-Time Interest Points | {'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']} | 81,446 |
Fin-Grained Visual Classification (FGVC) dataset innehåller små provstorlekar, tillsammans med betydande intra-klassvariation och interclass likhet. Medan tidigare arbete har behandlat intra-klass variation med hjälp av lokalisering och segmentering tekniker, kan inter-klass likhet också påverka funktionsinlärning och minska klassificering prestanda. I detta arbete, vi tar itu med detta problem med hjälp av en ny optimering förfarande för end-to-end neurala nätverk utbildning på FGVC uppgifter. Vårt förfarande, som kallas Parwise Confusion (PC), minskar överbemanning genom att avsiktligt införa förvirring i aktiveringarna. Med PC legalisering, får vi toppmodern prestanda på sex av de mest använda FGVC datauppsättningar och visar förbättrad lokalisering förmåga. PC är lätt att implementera, behöver inte överdriven hyperparameter inställning under utbildningen, och inte lägga till betydande overhead under testtiden. | REF ) konstruerar ett Siamese neuralt nätverk, utbildad med en förlustfunktion inklusive parvis förvirring (PC). | 4,242,479 | Pairwise Confusion for Fine-Grained Visual Classification | {'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,447 |
Serviceorienterad arkitektur (SOA) är en relativt ny metod för utveckling av programvarusystem. Den delar upp systemets funktionalitet till oberoende, löst kopplade, driftskompatibla tjänster. I detta dokument föreslår vi en ny heterogen specifikationsmetod för SOA-system där en heterogen strukturerad specifikation består av ett antal specifikationer av enskilda tjänster skrivna i en "lokal" logik och där specifikationen av deras interaktioner beskrivs separat i en "global" logik. Ett huvuddrag i vår globala logik är möjligheten att beskriva den dynamiska förändringen av tjänstekommunikation över tid. Vår strategi bygger på institutionernas teori: vi visar att både logiken bildar institutioner och att dessa institutioner är sammankopplade med en institutions sammorfism. Vi illustrerar vår strategi genom ett enkelt scenario med ett system för hantering av e-universitet och visar kraften i den heterogena specifikationsmetoden genom en kompositionsförfining av scenariot. | Upphovsmän (i REF ) syftar till att definiera en heterogen specifikationsmetod för tjänsteorienterad arkitektur (SOA). | 13,124,105 | A heterogeneous approach to service-oriented systems specification | {'venue': "SAC '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,448 |
Abstract-För att maximera offloading vinst av cache-aktiverad enhet-till-enhet (D2D) kommunikation, innehåll placering och leverans bör vara gemensamt utformade. I detta brev optimerar vi gemensamt cachelagrings- och schemaläggningspolicyer för att maximera sannolikheten för avlastning, definierad som sannolikheten för att en användare kan få önskad fil i lokal cache eller via D2D-länk med en datahastighet som är större än en given tröskel. Vi får den optimala schemaläggningsfaktorn för en slumpmässig schemaläggningspolicy som kan styra störningar på ett distribuerat sätt, och en låg komplexitetslösning för att beräkna cachedistribution. Vi visar att avlastningsvinsten kan förbättras på ett anmärkningsvärt sätt genom den gemensamma optimeringen. | Författarna till REF utformar en probabilistisk caching-policy och en slumpmässig schemaläggningspolicy för att maximera sannolikheten för avlastning i cacheaktiverade D2D-nätverk. | 1,136,058 | Optimal Caching and Scheduling for Cache-Enabled D2D Communications | {'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,449 |
Abstrakt. Jämfört med sina förfäder i början av 1970-talet, nuvarande datorspel är av otrolig komplexitet och visar magnifika grafiska prestanda. Men i programmering intelligenta motståndare, spelet industrin fortfarande tillämpar tekniker som utvecklats för ungefär 30 år sedan. I den här artikeln undersöker vi om motståndare programmering kan behandlas som ett problem med beteendeinlärning. I detta syfte antar vi att beteendet hos spelkaraktärer är en funktion som kartlägger det aktuella spelets tillstånd på en reaktion. Vi kommer att visa att neurala nätverk arkitekturer är väl lämpade för att lära sig sådana funktioner och genom ett populärt kommersiellt spel visar vi att agent beteenden kan läras från observation. | Att lära sig beteendet hos ett videospel tecken kan kastas som att uppskatta en funktion f som kartor från en spelares tillstånd utrymme till motsvarande åtgärd utrymme REF. | 5,102,337 | Learning Humanlike Opponent Behavior for Interactive Computer Games | {'venue': 'In Pattern Recognition', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,450 |
I detta dokument analyseras användningen av ett obemannade luftfartyg (UAV) som en flygbasstation som används för att tillhandahålla trådlös flygkommunikation till ett visst geografiskt område. I synnerhet beaktas samexistensen mellan UAV, som överför data i nedlänken, och en underlagd enhet-till-enhet (D2D). För denna modell erhålls en dragbar analytisk ram för täcknings- och hastighetsanalys. Två scenarier beaktas: en statisk UAV och en mobil UAV. I det första scenariot erhålls den genomsnittliga täckningssannolikheten och systemsumman för användarna i området som en funktion av UAV:s höjd och antalet D2D-användare. I det andra scenariot, med hjälp av disk täcker problemet, det minsta antalet stopppunkter som UAV behöver besöka för att helt täcka området beräknas. Dessutom, med tanke på flera vidaresändningar för UAV- och D2D-användarna, är den totala avbrottsannolikheten för D2D-användarna härledd. Simulerings- och analysresultat visar att det, beroende på densiteten hos D2D-användare, finns optimala värden för UAV-höjden för vilka systemets summeringsgrad och täckningssannolikhet är maximerad. Dessutom visar våra resultat också att genom att göra det möjligt för UAV att intelligent flytta över målområdet, den totala sändningskraft som krävs av UAV samtidigt täcka hela området, minimeras. Slutligen diskuteras avvägningen mellan täckningen och förseningen när det gäller antalet stopppunkter för att ge en fullständig täckning för det berörda området. | I REF har samexistensen mellan ett enda DBS och ett underlagt nätverk mellan enheter (D2D) analyserats med avseende på täckningssannolikhet och täckningsgrad. | 13,673,880 | Unmanned Aerial Vehicle with Underlaid Device-to-Device Communications: Performance and Tradeoffs | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,451 |
Web 2.0-tekniken har gjort det möjligt för fler och fler människor att fritt uttrycka sina åsikter på webben, vilket gör webben till en extremt värdefull källa för gruvanvändare åsikter om alla typer av ämnen. I detta dokument studerar vi hur man automatiskt integrerar åsikter som uttrycks i en välskriven expertgranskning med massor av åsikter som sprids i olika källor som bloggplatser och forum. Vi definierar formellt detta nya integrationsproblem och föreslår att man använder halvövervakade ämnesmodeller för att lösa problemet på ett principfast sätt. Experiment om att integrera åsikter om två helt olika ämnen (en produkt och en politisk figur) visar att den föreslagna metoden är effektiv för båda ämnena och kan generera användbara samordnade sammanfattningar av yttranden. Den föreslagna metoden är ganska allmän. Det kan användas för att integrera en välskriven granskning med åsikter i en godtycklig textsamling om något ämne för att potentiellt stödja många intressanta applikationer inom flera domäner. | I REF, Lu et al. föreslog en semiövervakad ämnesmodell för att lösa problemet med åsiktsintegrering på grundval av ämnet för en produkts attribut. | 6,635,766 | Opinion integration through semi-supervised topic modeling | {'venue': 'In Proceedings of the 17th International Conference on World Wide Web', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,452 |
Konvolutionella neurala nätverk är extremt effektiva arkitekturer i bild- och ljudigenkänningsuppgifter, tack vare deras förmåga att utnyttja den lokala translationella invariansen av signalklasser över deras domän. I detta dokument överväger vi möjliga generaliseringar av CNN till signaler som definieras på mer allmänna områden utan verkan av en översättningsgrupp. I synnerhet föreslår vi två konstruktioner, en baserad på en hierarkisk klunga av domänen, och en annan baserad på spektrumet av grafen Laplacian. Vi visar genom experiment att för lågdimensionella grafer är det möjligt att lära sig konvolutionella skikt med ett antal parametrar oberoende av ingångsstorleken, vilket resulterar i effektiva djupa arkitekturer. | Spektral CNN REF första försök att generalisera CNNs till grafer baserat på spektrumet av grafen Laplacian och definierar den konvolutionella kärnan i spektraldomänen. | 17,682,909 | Spectral Networks and Locally Connected Networks on Graphs | {'venue': 'ICLR 2014', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,453 |
Abstract-Traditional mönsterigenkänning innebär i allmänhet två uppgifter: oövervakad klusterbildning och övervakad klassificering. När man har tillgång till klassinformation är det ett viktigt problem som förtjänar att studeras, både när man samlar lärande och klassificerar lärande i en enda ram. Hittills behandlar de flesta algoritmer allmänt kluster lärande och klassificering lärande på ett sekventiellt eller två-steg sätt, dvs. först utföra kluster lärande för att utforska strukturer i data, och sedan utföra klassificering lärande på toppen av den erhållna strukturella informationen. Sådana sekventiella algoritmer kan dock inte alltid garantera den samtidiga optimaliteten för både kluster- och klassinlärning. I själva verket, kluster lärande i dessa algoritmer bara underlättar den efterföljande klassificeringen lärande och inte drar nytta av den senare. För att komma till rätta med detta problem presenteras en ram för samtidig inlärning av kluster och klassificering (SCC) i detta dokument. SCC syftar till att uppnå tre mål: 1) att uppnå en robust klassificering och klusterbildning samtidigt, 2) att utforma en effektiv och transparent klassificeringsmekanism, 3) att avslöja det underliggande sambandet mellan kluster och klasser. Med Bayesian-teorin och klungans bakåtriktade sannolikheter för klasser definierar vi därför en enda objektiv funktion som klusterprocessen är direkt inbäddad i. Genom att optimera denna objektiva funktion uppnås effektiva och robusta kluster- och klassificeringsresultat samtidigt. Experimentella resultat på både syntetiska och verkliga dataset visar att SCC uppnår lovande klassificerings- och klusterresultat samtidigt. | Nyligen, Cai et al. I REF föreslogs en simultan lärkluster och klassificeringsalgoritm vid namn SCC. | 15,150,515 | A simultaneous learning framework for clustering and classification | {'venue': 'Pattern Recognit.', 'journal': 'Pattern Recognit.', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,454 |
Multivariata tidsseriedata i praktiska tillämpningar, såsom hälso- och sjukvård, geovetenskap och biologi, kännetecknas av en mängd saknade värden. I tidsseriers förutsägelse och andra relaterade uppgifter har det noterats att saknade värden och deras saknade mönster ofta korreleras med måletiketterna, t.ex. informationsfel. Det finns mycket begränsat arbete på att utnyttja de saknade mönster för effektiv imputering och förbättra förutsägelse prestanda. I detta dokument utvecklar vi nya modeller för djupt lärande, nämligen GRU-D, som ett av de tidiga försöken. GRU-D baseras på Gated Recurrent Unit (GRU), ett toppmodernt återkommande neuralt nätverk. Det tar två representationer av saknade mönster, d.v.s., maskering och tidsintervall, och effektivt införliva dem i en djup modell arkitektur så att det inte bara fångar de långsiktiga temporal beroenden i tidsserier, men också använder de saknade mönster för att uppnå bättre förutsägelse resultat. Experiment av tidsserieklassificeringsuppgifter på verkliga kliniska dataset (MIMIC-III, PhysiNet) och syntetiska dataset visar att våra modeller uppnår toppmoderna prestanda och ger användbara insikter för bättre förståelse och utnyttjande av saknade värden i tidsserieanalys. Multivariata tidsseriedata är allmänt förekommande i många praktiska tillämpningar som sträcker sig från hälso- och sjukvård, geovetenskap, astronomi, biologi och andra. De bär ofta med sig felande observationer på grund av olika orsaker, såsom medicinska händelser, kostnadsbesparingar, anomalier, olägenheter och så vidare. Det har noterats att dessa saknade värden är oftast informativ saknashet 1, dvs. de saknade värden och mönster ger rik information om måletiketter i övervakade lärande uppgifter (t.ex. tidsserie klassificering). För att illustrera denna idé visar vi några exempel från MIMIC-III 2, en verklig värld sjukvård dataset, i Bild. 1................................................................ Vi ritar Pearson korrelationskoefficienten mellan variabla saknade frekvenser, vilket indikerar hur ofta variabeln saknas i tidsserierna, och etiketterna på våra intressen, som är dödlighet och ICD-9 diagnos kategorier. Vi observerar att värdet av saknad hastighet korreleras med etiketterna, och den saknade frekvensen av variabler med låg saknad hastighet är oftast hög (antingen positiv eller negativ) korrelerad med etiketterna. Med andra ord, den saknade frekvensen av variabler för varje patient är användbar, och denna information är mer användbar för de variabler som observeras oftare i datauppsättningen. Dessa fynd visar nyttan av saknade mönster för att lösa en förutsägelse uppgift. Under de senaste årtiondena har olika metoder utvecklats för att ta itu med saknade värden i tidsserie 3. En enkel lösning är att utelämna de saknade uppgifterna och att utföra analyser endast på de observerade uppgifterna, men det ger inte bra prestanda när den saknade frekvensen är hög och otillräckliga prover hålls. En annan lösning är att fylla i de saknade värdena med substituerade värden, som kallas dataimputation. Utjämning, interpolation 4, och spline 5 metoder är enkla och effektiva, vilket allmänt tillämpas i praktiken. Dessa metoder fångar dock inte upp variabla korrelationer och får inte fånga upp komplexa mönster för att utföra imputering. En mängd imputeringsmetoder har utvecklats för att bättre uppskatta saknade data. Dessa inkluderar spektralanalys 6, kärnmetoder 7, EM algoritm 8, matris komplettering 9 och matris faktorisering 10. Multipel imputation 11,12 kan tillämpas ytterligare med dessa imputation metoder för att minska osäkerheten, genom att upprepa imputation förfarande flera gånger och medelvärde resultaten. Att kombinera imputeringsmetoder med förutsägelsemodeller resulterar ofta i en tvåstegsprocess där imputering och förutsägelsemodeller separeras. Genom att göra detta, de saknade mönster inte effektivt utforskas i förutsägelsemodellen, vilket leder till suboptimala analyser resultat 13. Dessutom har de flesta imputeringsmetoder också andra krav som kanske inte är uppfyllda i verkliga tillämpningar, till exempel arbetar många av dem med data Publicerad: xx xx xxxx OPEN www.nature.com/science reports/ 2 ScIenTIFIc RAPPORTER (2018) 8:6085 | - Che et al. - Vad är det? REF föreslog att man skulle fånga det långsiktiga tidsberoendet av observationer i tidsserierna samt använda de saknade mönstren för att förbättra prognosresultaten genom att integrera maskering och tidsintervall i en djupgående modellarkitektur. | 4,900,015 | Recurrent Neural Networks for Multivariate Time Series with Missing Values | {'venue': 'Scientific Reports', 'journal': 'Scientific Reports', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']} | 81,455 |
Sammanfattning av denna webbsida: Topologikontroll i sensornätverk har studerats starkt på senare tid. Olika geometriska topologier föreslogs vara de underliggande nättopologierna för att uppnå kommunikationsnätens gleshet eller för att garantera paketleveransen av specifika routingmetoder. De flesta av de föreslagna topologistyralgoritmerna tillämpades dock endast på tvådimensionella (2D) nätverk där alla sensornoder är fördelade i ett 2D-plan. I praktiken är sensornätverken ofta utplacerade i 3D-utrymme, t.ex. sensornoder i skog. Denna uppsats syftar till att undersöka effektiva topologi kontrollprotokoll för 3D-sensornätverk. I våra nya protokoll, utökar vi flera 2D geometriska topologier till 3D-fall, och föreslår några nya 3D Yao-baserade topologier för sensornätverk. Vi bevisar också flera egenskaper (t.ex. begränsad grad och konstant effekt stretch faktor) för dem i 3D utrymme. Simuleringsresultaten bekräftar våra teoretiska bevis för dessa föreslagna 3D-topologier. | En energieffektiv topologikontrollalgoritm FiYG föreslogs i REF. | 14,838,532 | Energy-efficient topology control for three-dimensional sensor networks | {'venue': 'IJSNet', 'journal': 'IJSNet', 'mag_field_of_study': ['Computer Science']} | 81,456 |
Abstract-various spektrumhanteringssystem har föreslagits under de senaste åren för att förbättra spektrumutnyttjandet i kognitiva radionät. Få av dem har dock övervägt förekomsten av kognitiva angripare som kan anpassa sin angripande strategi till den tidsvarierande spektrummiljön och sekundäranvändarnas strategi. I detta dokument undersöker vi säkerhetsmekanismen när sekundära användare står inför störattacken, och föreslår en stokastisk spelram för anti-jamming försvar. I varje skede av spelet, sekundära användare observera spektrumets tillgänglighet, kanalens kvalitet, och angriparnas strategi från statusen av blockerade kanaler. Enligt denna iakttagelse kommer de att bestämma hur många kanaler de ska reservera för överföring av kontroll- och datameddelanden och hur de ska växla mellan de olika kanalerna. Med hjälp av minimax-Q-lärandet kan sekundära användare gradvis lära sig den optimala politiken, vilket maximerar den förväntade summan av rabatterade ersättningar som definieras som spektrumeffektivt genomflöde. Den föreslagna stationära politiken i anti-jamming spelet visas för att uppnå mycket bättre prestanda än den politik som erhållits från myopic lärande, som bara maximerar varje stegs vinst, och en slumpmässig försvarsstrategi, eftersom det framgångsrikt tillgodoser miljödynamiken och det strategiska beteendet hos de kognitiva angriparna. | I samband med kognitiva radionät modellerade REF ett angrepp-och-försvarsproblem som ett stokastiskt spel där sekundära användare reserverade flera band för att överföra data eller kontrollera meddelanden. | 13,513,101 | An anti-jamming stochastic game for cognitive radio networks | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']} | 81,457 |
Bloggar har nyligen blivit en av de mest gynnade tjänsterna på webben. Många användare har en blogg och skriver inlägg för att uttrycka sin åsikt, erfarenhet och kunskap om en produkt, ett evenemang och varje ämne av allmänt eller specifikt intresse. Fler användare besöker bloggar för att läsa dessa inlägg och kommentera dem. Denna "deltagande journalistik" av bloggar har en sådan inverkan på massorna att Keller och Berry hävdade att genom bloggning "en amerikan i tior talar om för de andra nio hur man röstar, var man ska äta och vad man ska köpa" [9]. En viktig fråga är därför hur man kan identifiera sådana inflytelserika bloggare. Detta problem är mycket nytt och den relevanta litteraturen saknar sofistikerade lösningar, men viktigast av allt har dessa lösningar inte tagit hänsyn till timliga aspekter för att identifiera inflytelserika bloggare, även om tiden är den mest kritiska aspekten av bloggosfären. I den här artikeln undersöks frågan om att identifiera inflytelserika bloggare genom att föreslå två lättberäknade bloggare rankningsmetoder, som införlivar timliga aspekter av bloggaktiviteten. Varje metod är baserad på ett specifikt mått för att poängsätta bloggarens inlägg. Den första metriska, som kallas MEIBI, tar hänsyn till antalet blogginläggets länkar och dess kommentarer, tillsammans med publiceringsdatumet för inlägget. Den andra metriska, MEIBIX, används för att göra ett blogginlägg enligt antalet och åldern på blogginläggets inlänkar och dess kommentarer. Dessa metoder utvärderas mot den toppmoderna inflytelserika bloggare identifieringsmetod som använder data som samlats in från en verklig community blogg webbplats. De erhållna resultaten visar att de nya metoderna bättre kan identifiera betydande temporalmönster i bloggbeteendet. | Två andra mått för att identifiera inflytelserika bloggare föreslogs i REF. | 499,460 | Identifying Influential Bloggers: Time Does Matter | {'venue': '2009 IEEE/WIC/ACM International Joint Conference on Web Intelligence and Intelligent Agent Technology', 'journal': '2009 IEEE/WIC/ACM International Joint Conference on Web Intelligence and Intelligent Agent Technology', 'mag_field_of_study': ['Computer Science']} | 81,458 |
En metod för att extrahera lexiska översättningar från icke-aligned corpora föreslås för att klara av otillgängligheten av stora jämbördiga corpus. Antagandet att "översättningar av två samtidiga ord på ett källspråk också förekommer i målspråket" antas och representeras i den stokastiska matrisformuleringen. Översättningsmatrisen ger den samtidiga informationen översatt från källan till målet. Denna översatta samtidiga information bör likna den ursprungliga i målet när tvetydigheten i den translationella relationen är löst. En algoritm för att få den bästa översättningsmatrisen införs. Vissa experiment utfördes för att utvärdera effektiviteten av tvetydigheten upplösning och förfining av ordboken. | I REF föreslogs också en metod för att välja översättningar som enbart bygger på samtidig statistik på målspråket. | 7,077,187 | Extraction Of Lexical Translations From Non-Aligned Corpora | {'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,459 |
ommunities av praxis-grupper av individer som är intresserade av ett visst jobb, förfarande, eller arbete domän-informellt utbyta insikter om arbetsrelaterade uppgifter, ofta genom snabba chattar med vattenkylaren. De fungerar som företagsminnen, överför bästa praxis, tillhandahåller mekanismer för lokalt lärande och fungerar som drivkraft för innovation. 1, 2 I allt högre grad utnyttjar organisationer praktiska grupper för att utföra viktiga kunskapshanteringsfunktioner. 3 Men ett viktigt första steg är att identifiera gemenskapen, som ofta inte betecknar sig själv som sådan, och dess medlemmar, som inte vet att de hör hemma! Så, detta steg innebär att avgöra vilka människor i en gemenskap av praxis har gemensamma intressen i särskilda metoder eller funktioner och producera uppsättningar eller kluster av närstående individer. Gemenskapsidentifiering kräver traditionellt stora resurser och omfattar ofta omfattande intervjuer. I den här artikeln beskriver vi Ontocopi (OntologyBased Community of Practice Identifier), ett verktyg för att identifiera samhällen. Ontocopi låter dig sluta dig till de informella relationer som definierar ett samhälle av praktik från närvaron av mer formella relationer. Till exempel om A och B inte har något formellt förhållande men de båda har författat dokument med C (formellt förhållande), kan de dela intressen (informellt förhållande). Eftersom Ontocopi arbetar på detta sätt, kan vi inte hävda utan kvalifikationer att det identifierar samhällen av praxis. Betydande informella förbindelser kan ha liten eller ingen koppling till de formella. Här hänvisar vi till de nätverk som Ontocopi har avslöjat som COP och till informella sociala nätverk som praktiska gemenskaper. Vi arbetar under antagandet att COPs ibland är anständiga fullmakter för samhällen av praxis. Vi utvecklade Ontocopi inom projektet Advanced Knowledge Technologies (AKT) 4 för ontologibaserad nätverksanalys (ONA), där man hittar en rad exempel kopplade till en utvald instans i en kunskapsbas. (Se tillhörande sidofält.) Med ontologi menar vi att kombinera en taxonomisk struktur av klasser och relationer med den kunskapsbas som är ett resultat av att direktionera klasserna med domänobjekt. Om du antar att en sådan ontologi representerar en domäns objekt och relationer, kan du analysera sambanden mellan objekten. Ontocopi använder ontologiska relationer för att upptäcka samband mellan objekt som ontologin bara implicit representerar. Till exempel kan verktyget upptäcka att två personer har liknande interaktionsmönster, arbetar med liknande personer, går på samma konferenser och prenumererar på samma tidskrifter. Med hjälp av en ontologi för att analysera sådana nätverk ger dig semantik för klasser och relationer. Så, under analys, kan du välja riktade relationer för samhället av praxis och öka sin vikt i algoritmen och tilldela låga eller noll vikter till oviktiga relationer. Att välja ontologi är dock ett viktigt steg eftersom dess innehåll avgör ONA:s effektivitet. Till exempel, de tidningar som folk publicerar är sannolikt viktiga för att bestämma sina intressen, men om deras publikationer | Alani et al REF använder ontologier för att upptäcka praktiska gemenskaper (COP) som endast underförstått uttrycks. | 11,613,356 | Identifying Communities of Practice through Ontology Network Analysis | {'venue': 'IEEE Intelligent Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,460 |
Abstract-Driver-assistanssystem som övervakar förarens avsikter, varnar förare för körfältsavgångar eller hjälper till med fordonsvägledning övervägs alla aktivt. Det är därför viktigt att ta en kritisk titt på viktiga aspekter av dessa system, varav en är körfältsspårning. Det är för dessa förarstödsmål som motiverar utvecklingen av det nya "videobaserade körfältsuppskattnings- och spårningssystemet" (VioLET). Systemet är konstruerat med styrbara filter för robust och exakt detektering av körfältsmarkering. Styrbara filter ger en effektiv metod för att upptäcka cirkelreflektormärkningar, fast linjemarkeringar och segmenterade linjemarkeringar under varierande belysnings- och vägförhållanden. De bidrar till att ge robusthet till komplex skuggning, ljusförändringar från överfarter och tunnlar och variationer i vägytan. De är effektiva för utdrag av körfältsmarkeringar eftersom vi genom att beräkna endast tre separata konvolutioner kan ta fram en mängd olika körfältsmarkeringar. Curvature detektion görs mer robust genom att införliva både visuella signaler (lane märkningar och körfält struktur) och fordon-tillstånd information. Experimentets utformning och utvärdering av VioLET-systemet visas med hjälp av flera kvantitativa mätvärden under en mängd olika testförhållanden på en stor provbana med hjälp av ett unikt instrumenterat fordon. En motivering till valet av mätvärden baserat på en tidigare studie med tillämpningar av mänskliga faktorer samt omfattande mark-sanningstest från olika tider på dagen, vägförhållanden, väder och körscenarier presenteras också. För att utforma VioLET-systemet gjordes först en aktuell och omfattande analys av den aktuella tekniken inom lane-detektionsforskning. I samband med detta presenteras en jämförelse av en mängd olika metoder, som visar på likheter och skillnader mellan metoder samt när och var olika metoder är mest användbara. | De flesta körfältsuppskattningssystem har utvecklats för körfältshållning och körfältsavgångsvarning (LDW) i motorvägsmiljöer REF. | 14,045,896 | Video-based lane estimation and tracking for driver assistance: survey, system, and evaluation | {'venue': 'IEEE Transactions on Intelligent Transportation Systems', 'journal': 'IEEE Transactions on Intelligent Transportation Systems', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 81,461 |
Differentiell integritet är ett ramverk för att kvantifiera i vilken utsträckning individuell integritet i en statistisk databas bevaras samtidigt som användbar aggregerad information om databasen släpps. I detta arbete studerar vi den grundläggande kompromissen mellan integritet och nytta i differentiell integritet. Vi härleder den optimala -differentiellt privata mekanismen för en enda realvärderad frågefunktion under en mycket allmän nyttomaximering (eller kostnadsminimering) ram. Klassen av bullersannolikhetsfördelningar i den optimala mekanismen har stegformade sannolikhetstäthetsfunktioner, som kan ses som en geometrisk blandning av enhetliga sannolikhetsfördelningar. I samband med 1 och 2 allmännyttiga funktioner visar vi att den vanliga Laplacia-mekanismen, som har använts i stor utsträckning i litteraturen, är asymptotiskt optimal i den höga integriteten, medan den i den låga integriteten fungerar exponentiellt bättre än Laplacia-mekanismen. Vi drar slutsatsen att fördelarna med trappmekanismen är mer uttalade i det måttligt låga integritetssystemet. | Enligt vissa antaganden om nytta metrisk, REF visar att den optimala perturbation sannolikhetsfördelning har en symmetrisk trappa-formad sannolikhet densitet funktion. | 13,315,362 | The optimal mechanism in differential privacy | {'venue': '2014 IEEE International Symposium on Information Theory', 'journal': '2014 IEEE International Symposium on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,462 |
Mobiltelefon textmeddelanden användare uttrycker sig kortfattat och colloquially med hjälp av en mängd olika kreativa former. Vi analyserar ett urval av kreativa, icke-standard text meddelande ordformer för att bestämma frekventa ordbildningsprocesser i textspråk. Utifrån dessa observationer konstruerar vi en oövervakad bullriga kanalmodell för normalisering av textmeddelanden. På en testuppsättning på 303 textmeddelandeformulär som skiljer sig från deras standardformulär uppnår vår modell 59 % noggrannhet, vilket är på samma nivå som de bästa övervakade resultaten som rapporterats om denna datauppsättning. | REF utvidgade denna modell genom att införa en oövervakad bullrig kanalmodell. | 8,177,318 | An Unsupervised Model for Text Message Normalization | {'venue': 'Proceedings of the Workshop on Computational Approaches to Linguistic Creativity', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,463 |
Abstrakt. En klass klassificering har viktiga tillämpningar såsom avvikande och nyhet upptäckt. Det hanteras ofta med hjälp av metoder för täthetsberäkning eller genom att anpassa en standardklassificeringsalgoritm till problemet med att skära ut en beslutsgräns som beskriver lokaliseringen av måldata. I detta papper undersöker vi en enkel metod för en klass klassificering som kombinerar tillämpningen av en densitet estimator, som används för att bilda en referensfördelning, med induktion av en standardmodell för klass sannolikhetsuppskattning. I denna metod används referensdistributionen för att generera artificiella data som används för att bilda en andra, artificiell klass. I samband med målklassen är denna artificiella klass grunden för ett vanligt inlärningsproblem i två klasser. Vi förklarar hur täthetsfunktionen hos referensfördelningen kan kombineras med de skattningar av klasssannolikheten som erhålls på detta sätt för att bilda en justerad uppskattning av täthetsfunktionen hos målklassen. Med hjälp av UCI-dataset och data från ett typistigenkänningsproblem visar vi att den kombinerade modellen, som består av både en täthetsskattare och en klasssannolikhetsskattare, kan förbättras genom att använda endera komponenttekniken ensam när den används för en klass klassificering. Vi jämför även metoden med en klass klassificering med hjälp av stödvektormaskiner. | Hampstalk m.fl. I REF kombinerades sannolikhetsuppskattningen för densitet och klass för att förbättra klassificeringsprestandan. | 2,915,472 | One-Class Classification by Combining Density and Class Probability Estimation | {'venue': 'ECML/PKDD', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,464 |
Bakgrund: För att motivera individer att följa en regelbunden fysisk aktivitetsregim måste riktlinjerna kompletteras med övertygande budskap som sprids brett. Även om omfattande forskning har undersökt effektiva strategier för att sprida meddelanden om fysisk aktivitet, har det inte gjorts några systematiska ansträngningar för att undersöka optimalt budskapsinnehåll. I detta dokument granskas studier som utvärderar effektiviteten hos tre metoder för att bygga meddelanden om fysisk aktivitet, inklusive att skräddarsy meddelanden för att passa individuella egenskaper hos mottagare av meddelanden (meddelande skräddarsy), att utforma meddelanden i form av vinster kontra förluster (meddelande inramning) och att rikta meddelanden för att påverka förändringar i själveffekt (dvs. en teoretisk bestämningsfaktor för beteendeförändringar). Vi sökte igenom databaserna MEDLINE, Psycinfo, Embase och CINAHL fram till juli 2008. Relevanta referenslistor söktes också. Vi inkluderade interventionsförsök, fältexperiment och laboratoriebaserade studier som syftade till att testa effektiviteten eller effektiviteten hos skräddarsydda meddelanden, inramade meddelanden och meddelanden om förändring av själveffekt hos friska vuxna. Vi använde ett beskrivande tillvägagångssätt för att analysera nya mönster i forskningsresultat. Baserat på detta underlag gav vi rekommendationer för praktik och framtida forskning. Tjugotvå studier identifierades. Tolv studier utvärderade meddelandedesign. I 10 av dessa studier resulterade skräddarsydda meddelanden i större fysisk aktivitet än ett kontrollmeddelande. Sex studier utvärderade inramade meddelanden. Fem av dessa studier visade att resultatbaserade meddelanden leder till starkare intentioner att vara aktiva jämfört med ett kontrollmeddelande. Dessutom var en vinstramsfördel uppenbar i tre av de fyra studier som bedömde fysisk aktivitet. Fyra studier utvärderade meddelanden om själveffektförändring. De två studier som använde en experimentell design ger en tydlig indikation på att individers övertygelser kan påverkas av meddelanden som innehåller typer av information som är kända för att vara avgörande för själveffekt. På det hela taget saknades starka bevis för att stödja definitiva rekommendationer om optimalt budskapsinnehåll och struktur. Ytterligare forskning som testar det optimala innehållet i meddelanden som används för att komplettera riktlinjer för fysisk aktivitet behövs. Skräddarsydda meddelanden, grow-framed meddelanden, och själveffekt förändring meddelanden har lovande som strategier för att bygga fysiska aktivitet meddelanden och bör vara ett fokus för framtida forskning. Riktlinjer för fysisk aktivitet för friska vuxna ger evidensbaserade rekommendationer om hur mycket fysisk aktivitet som krävs för att minska risken för morbiditet och dödlighet och/eller för att få hälsofördelar. Riktlinjer är inte | I studien undersöktes tre tillvägagångssätt för att konstruera meddelanden om fysisk aktivitet, nämligen meddelandeanpassning, meddelandeutformning och riktade meddelanden för att påverka förändringar i själveffekt REF. | 1,599,770 | A systematic review of three approaches for constructing physical activity messages: What messages work and what improvements are needed? | {'venue': 'The International Journal of Behavioral Nutrition and Physical Activity', 'journal': 'The International Journal of Behavioral Nutrition and Physical Activity', 'mag_field_of_study': ['Medicine']} | 81,465 |
Vi studerar expressiviteten hos djupa neurala nätverk med slumpmässiga vikter. Vi ger flera resultat, både teoretiska och experimentella, som exakt beskriver deras funktionella egenskaper i termer av nätverkets djup och bredd. På så sätt illustrerar vi de inneboende kopplingarna mellan längden på en latent bana, lokala neuronövergångar och nätverksaktiveringsmönster. Det senare, ett begrepp som definieras i detta dokument, studeras vidare med hjälp av egenskaper hos hyperplane arrangemang, som också bidrar till att exakt karakterisera det neurala nätverkets verkan på ingångsutrymmet. Vi visar vidare dualiteter mellan förändringar i latent tillstånd och förändringar i nätverksvikter, och mellan antalet uppnåeliga aktiveringsmönster och antalet möjliga märkningar över inmatningsdata. Vi ser att nätets djup påverkar alla dessa mängder exponentiellt, medan bredden högst framstår som en bas. Dessa resultat tyder också på att det återstående djupet av ett neuralt nätverk är en viktig bestämningsfaktor för expressivitet, med stöd av experiment på MNIST och CIFAR-10. arXiv:1606.05336v2 [stat.ML] 24 Jun 2016 har studerats för neurala nätverk [13, 14, 15]. Vid modelldestillation tränas effektivare modeller för att efterlikna kostsamma modeller som har bättre generaliseringsfel [16]. I detta dokument fokuserar vi på den tredje av dessa egenskaper, expressivitet - kraften i klassen av djupa neurala nätverk för att representera mycket komplexa funktioner. Vi karakteriserar hur funktionskomplexiteten, under flera naturliga och relaterade definitioner, växer med både bredd och djup, och använder en av definitionerna, aktiveringsmönstret för ett djupt nätverk, för att ge teori och intuition för hur ett djupt nätverk delar in inmatningsutrymme i regioner. Vi verifierar våra resultat experimentellt på slumpmässiga nätverk, och i experiment på MNIST och CIFAR-10. Ämnet neural nätverk expressivitet har en rik historia, med olika uppfattningar om expressivitet studeras. En särskilt populär analysmetod har undersökt uppnåeliga funktioner, den uppsättning funktioner som uttrycks av en fast neural nätverk arkitektur. Detta tillvägagångssätt har gett många fascinerande resultat: neurala nätverk har visat sig vara universella approximatorer [17, 18], deras VC dimension studerade [13, 14, 15], och anslutningar mellan booleska och tröskelnät och ReLU-nätverk utvecklas i [19, 20]. VC dimension ger en övre gräns på en av de egenskaper vi mäter, och diskuteras vidare i bilaga D.1. Titta på uppnåeliga funktioner ger också en metod för att jämföra olika neurala nätverk arkitekturer. En typisk metod för detta bygger klasser av funktioner från en nätverksarkitektur som en annan är oförmögen att tillnärma effektivt [21, 22, 23, 24]. Detta används ofta för att visa fördelarna med djupa nätverk över grunda nät. Andra arbeten undersöker komplexiteten i en enda funktion som beräknas av ett djupt nätverk, snarare än komplexiteten i en uppsättning funktioner. Antalet linjära regioner infördes som ett mått på expressivitet i [25]. I [26] visades det att ett specifikt nätverk uppnår ett exponentiellt antal linjära regioner med djup. I avsnitt 2.3 generaliserar vi linjära regioner till nätverksaktiveringsmönster och utvecklar en snäv övre gräns för antalet möjliga aktiveringsmönster som konstruktionen i [26] mättar. Många av dessa resultat, även om övertygande, belyser också en nackdel med en stor del av det befintliga arbetet med expressivitet - slutsatser bygger ofta på mycket speciella funktioner eller en specifik viktsättning av ett neuralt nätverk. På något sätt missar detta det yttersta målet att förstå expressivitet, vilket är att ge karakteristiska egenskaper hos nätverk och funktioner som ansöker om någon typisk uppgift. För att ta itu med denna mer allmänna fråga krävs att man fastställer en klass av funktioner som är representativa för en viss arkitekturs "typiska" eller "genomsnittliga" uttryck och sedan förstår deras framträdande egenskaper. Vi anser att ett genomsnittligt fall som uppstår naturligt i den praktiska användningen av neurala nätverksarkitekturer, beteendet hos nätverk efter slumpmässig initiering. expressiviteten av dessa slumpmässiga nätverk är till stor del outforskad, även om en anslutning mellan slumpmässiga nätverk och kompositionskärnor utvecklas i [27]. Klassen av slumpmässiga nätverk möjliggör dragbar teoretisk och experimentell analys av inbördes relaterade aspekter av expressivitet: bana längd, neuron övergångar, nätverk aktiveringsmönster, och antal dikotomier (antal märkningar på ingångar). Vi finner att alla dessa egenskaper växer exponentiellt med djup, men bara polynom med bredd. Slumpmässiga data Att vi observerar en exponentiell ökning av dessa mått av expressivitet, även när nätverket agerar på slumpmässiga data, är särskilt anmärkningsvärt. En vanlig förklaring till effektiviteten av neurala nätverk är att deras funktionella form är väl anpassad till strukturen inneboende i naturliga data, föreslås empiriskt av t.ex. Fördelarna med att utforma översättningsinvariant till konvolutionsnätverk [28], och utforskas teoretiskt i [29]. I synnerhet djupet av neurala nätverket ses ofta att dra nytta av den hierarkiska och sammansättningsstruktur funktioner i dataset [30]. Det är därför förvånande att vi ser kvantifierbara fördelar som härrör från djupa neurala nätverk även för ostrukturerade data. Interrelaterade expressivitetsåtgärder Alla våra åtgärder för nätverksexpressivitet är sammankopplade genom banlängd. Vi visar, både teoretiskt och experimentellt, att längden på en ingångsbana växer exponentiellt med djupet av ett neuralt nätverk. Då visar vi oss. | Dessa gränser användes också i REF, där författarna handlar om att identifiera olika mått på expressivitet av djupa neurala nätverk. | 2,838,204 | On the expressive power of deep neural networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,466 |
I dokumentet introduceras ramverket Cama (C ontext-Aware M obile Agents) som är avsett att utveckla storskaliga mobila applikationer med hjälp av agentparadigmet. Cama ger en kraftfull uppsättning abstraktioner, ett stödjande mellanprogram och ett anpassningslager som gör det möjligt för utvecklare att ta itu med de viktigaste egenskaperna hos de mobila applikationerna: öppenhet, asynkron och anonym kommunikation, feltolerans, enhetsrörlighet. Det säkerställer rekursiva systemstrukturering med hjälp av plats, omfattning, agent och roll abstraktioner. Cama stöder systemfeltolerans genom undantagshantering och strukturerad agentsamordning. Ramverkets tillämplighet demonstreras med hjälp av ett miljöföreläsningsscenario – den första delen av ett pågående arbete med en rad omgivande campustillämpningar. | Budi och Al. REF använder undantagshantering och strukturerad agentsamordning för att drabbas av systemfel. | 7,272,565 | On using the CAMA framework for developing open mobile fault tolerant agent systems | {'venue': "SELMAS '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,467 |
Abstrakt. Detta papper presenterar en optimering ram för att uppskatta rörelse och underliggande fysiska parametrar för en stel kropp i fri flygning från video. Algoritmen tar ett videoklipp av en tumlande stel kropp av känd form och genererar en fysisk simulering av objektet som observerats i videoklippet. Denna lösning hittas genom att optimera simuleringsparametrarna för att bäst matcha den rörelse som observerats i videosekvensen. Dessa simuleringsparametrar inkluderar initiala positioner och hastigheter, miljöparametrar som gravitationsriktning och parametrar för kameran. En global objektiv funktion beräknar summan i kvadrat skillnaden mellan silhuetten av objektet i simulering och silhuetten som erhålls från video vid varje ram. Tillämpningar inkluderar att skapa intressanta stela kroppsanimeringar, spåra komplexa stela kroppsrörelser i video och uppskatta kameraparametrar från video. Bilda. 1................................................................ Fyra ramar av ett tumlande objekt överplacerat (vänster) och en fysisk simulering genererad från de uppskattade rörelseparametrarna. Föremålet kastas från höger till vänster. Vårt optimeringsramverk beräknar objekt-, kamera- och miljöparametrarna för att matcha det simulerade trådramsobjektet med videon vid varje bildruta. | REF uppskattar de fysiska parametrarna för stela objekt med hjälp av videodata. | 5,200,592 | Computing the Physical Parameters of Rigid-body Motion from Video | {'venue': 'ICRA', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,468 |
a) Ingång b) Djup multi-view stereo c) Sample rekonstruktion resultat Figur 1. (a) Vårt nätverk tar en uppsättning bilder med kända kameraposer och kalibrering som ingång; b) vi producerar en uppsättning plan-sweep volymer för en referensvy och mata dessa till ett konvolutionellt neuralt nätverk som förutspår en skillnad karta; c) vårt nätverk producerar högkvalitativa skillnader kartor även för utmanande fall som innehåller dåligt texturerade regioner och tunna strukturer. Vi presenterar DeepMVS, en djup convolutional neural network (ConvNet) för multi-view stereo rekonstruktion. Med ett godtyckligt antal poserade bilder som indata, producerar vi först en uppsättning plan-sweep volymer och använder det föreslagna DeepMVS-nätverket för att förutsäga högkvalitativa skillnader kartor. De viktigaste bidrag som möjliggör dessa resultat är (1) övervakad förutbildning på en fotorealistisk syntetisk datauppsättning, (2) en effektiv metod för att samla information över en uppsättning obeställda bilder, och (3) integrera flera lager funktionsaktiveringar från det förtränade VGG-19 nätverket. Vi validerar effekten av DeepMVS med hjälp av ETH3D Benchmark. Våra resultat visar att DeepMVS på ett gynnsamt sätt jämför med toppmoderna konventionella MVS-algoritmer och andra ConvNet-baserade metoder, särskilt för näratextureless regioner och tunna strukturer. | REF beräknar en uppsättning plan-sweep volymer med kalibrerad pose data som inmatning för nätverket, som sedan förutsäger en inledande djup funktion med hjälp av encoder-dekoder nätverk. | 4,559,916 | DeepMVS: Learning Multi-view Stereopsis | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 81,469 |
ABSTRACT En Internet of Vehicles (IoV) gör det möjligt att bilda ett självorganiserat nätverk och sända meddelanden för fordonen på vägarna. Eftersom uppgifterna överförs i ett osäkert nätverk är det dock viktigt att använda en autentiseringsmekanism för att skydda fordonsanvändarnas integritet. Nyligen, Ying et al. föreslog ett autentiseringsprotokoll för IoV och hävdade att protokollet kunde motstå olika attacker. Tyvärr upptäckte vi att deras protokoll drabbades av en offline identitet gissning attack, plats spoofing attack, och replay attack, och konsumerade en avsevärd mängd tid för autentisering. För att lösa dessa brister föreslår vi ett förbättrat protokoll. Dessutom ger vi ett formellt bevis på det föreslagna protokollet för att visa att vårt protokoll verkligen är säkert. Jämfört med tidigare metoder fungerar det föreslagna protokollet bättre när det gäller säkerhet och prestanda. INDEX TERMS Internet of Vehicles, autentisering, anonymitet, smartkort. | Genom att identifiera olika attacker såsom replay, plats spoofing, gissning och autentisering tid krav, Chen et al. Ref föreslog en förbättrad säkerhetsmekanism genom att utgöra ett formellt bevis. | 59,601,667 | A Secure Authentication Protocol for Internet of Vehicles | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 81,470 |
Energiutgifterna har blivit en betydande del av driftskostnaderna för datacenter. Nyligen föreslogs en "geografisk lastbalansering" för att minska energikostnaderna genom att utnyttja skillnaderna i elpriser mellan olika regioner. Denna kostnadsminskning kan emellertid paradoxalt nog öka den totala energianvändningen. I detta dokument undersöks om den geografiska mångfalden av Internetsystem dessutom kan användas för att ge miljövinster. Vi undersöker särskilt om geografisk lastbalansering kan uppmuntra användningen av "grön" förnybar energi och minska användningen av "brun" fossil bränsleenergi. Vi gör två bidrag. Först härleder vi två distribuerade algoritmer för att uppnå optimal geografisk belastningsbalansering. För det andra visar vi att om elen är dynamiskt prissatt i förhållande till den momentana andelen av den totala energi som är brun, då ger geografisk belastningsbalansering betydande minskningar i brun energianvändning. Fördelarna beror dock i hög grad på i vilken utsträckning systemen accepterar dynamisk energiprissättning och vilken form av prissättning som används. | Distribuerade algoritmer för grön idealisk geologisk lastbalansering har föreslagits REF. | 2,313,729 | Greening geographical load balancing | {'venue': "SIGMETRICS '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,471 |
Sammanfattning av denna webbsida: I detta dokument föreslås en kortsiktig vattenefterfrågans prognosmetod baserad på användningen av Markov-kedjan. Denna metod ger uppskattningar av framtida krav genom att beräkna sannolikheter för att det framtida efterfrågevärdet kommer att ligga inom fördefinierade intervall som täcker den förväntade totala variabiliteten. Mer specifikt utvecklades och presenterades två modeller baserade på homogena och icke-homogena Markovkedjor. Dessa modeller, tillsammans med två referensmodeller (baserade på artificiella neurala nätverk och naiva metoder), tillämpades på tre verkliga fallstudier i syfte att förutsäga respektive vattenbehov från 1 till 24 timmar framåt. Resultaten visar att modellen baserad på en homogen Markov-kedja ger mer exakta kortsiktiga prognoser än den som bygger på en icke-homogen Markov-kedja, som är i linje med den artificiella neurala nätverksmodellen. Båda Markovs kedjemodeller möjliggör probabilistisk information om den stokastiska efterfrågeprognosen som lätt kan erhållas. | Gagliardi m.fl. I REF föreslogs två modeller baserade på homogen Markov-kedjemodell (HMC) och icke-homogen Markov-kedjemodell (NHMC) för att prognostisera nästa dags efterfrågan på vatten per timme. | 31,830,451 | A Probabilistic Short-Term Water Demand Forecasting Model Based on the Markov Chain | {'venue': None, 'journal': 'Water', 'mag_field_of_study': ['Economics']} | 81,473 |
Teknologiska framsteg har gjort det möjligt att integrera stora inbäddade dram-cache (eDRAM-cache). eDRAM är betydligt tätare än traditionella SRAM, men måste uppdateras regelbundet för att lagra data. Liksom SRAM är eDRAM känslig för enhetsvariationer, som spelar en roll för att bestämma uppdateringstid för eDRAM-celler. Uppdatera effekt representerar potentiellt en stor del av den totala systemeffekten, särskilt under lågeffekttillstånd när processorn är tomgång. Framtida konstruktioner måste minska cacheeffekten utan att ådra sig den höga kostnaden för att spola cachedata när man går in i lågeffektstater. I detta dokument visar vi de betydande effekterna av variationer på uppdateringstid och cacheeffektförbrukning för stora eDRAM-cacheminnen. Vi föreslår Hi-ECC, en teknik som innehåller multibit felkorrigering koder för att avsevärt minska uppdateringsfrekvensen. Multi-bit felkorrigeringskoder har vanligtvis en komplex dekoder design och höga lagringskostnader. Hi-ECC undviker dekoder komplexiteten genom att använda starka ECC-koder för att identifiera och inaktivera delar av cache med multi-bit fel, samtidigt som den ger effektiv en-bitars felkorrigering för det vanliga fallet. Hi-ECC innehåller ytterligare optimeringar som gör det möjligt för oss att amortera lagringskostnaden för koden över stora dataord, vilket ger fördelen av multi-bit korrigering till samma lagringskostnad som en enda-bit felkorrigering (SECDED) kod (2% overhead). Vårt förslag uppnår en 93% minskning av uppdateringseffekt jämfört med en baslinje för eDRAM-cache utan felkorrigeringsförmåga, och en 66% minskning av uppdateringseffekt jämfört med ett system med SECDED-koder. | REF använder BCH-kod för att tillhandahålla multibitkorrigering för eDRAM-cache för att minska uppdateringseffekten. | 14,857,667 | Reducing cache power with low-cost, multi-bit error-correcting codes | {'venue': "ISCA '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,474 |
Under de senaste åren har djupt lärande uppnått stor framgång i många tillämpningar för datorseende. Konvolutionella neurala nätverk (CNN) har nyligen framgått som en viktig metod för bildklassificering. Merparten av forskningen om CNN har hittills fokuserat på att utveckla arkitekturer som Initiations- och resterande nätverk. Konvolutionsskiktet är kärnan i CNN, men få studier har berört själva konvolutionsenheten. I detta dokument inför vi en konvolutionsenhet som kallas den aktiva konvolutionsenheten (ACU). En ny konvolution har ingen fast form, eftersom vi kan definiera alla former av konvolution. Dess form kan läras genom backpropagation under träningen. Vår föreslagna enhet har några fördelar. För det första är ACU en generalisering av konvolution; det kan definiera inte bara alla konventionella konvolutioner, men också konvolutioner med fraktionerade pixelkoordinater. Vi kan fritt ändra formen på konvolutionen, vilket ger större frihet att bilda CNN-strukturer. För det andra lär man sig konvolutionens form under träningen, och det finns ingen anledning att ställa in den för hand. För det tredje kan ACU lära sig bättre än en konventionell enhet, där vi fick förbättringen bara genom att ändra den konventionella konvolutionen till en ACU. Vi testade vår föreslagna metod på enkla och resterande nätverk, och resultaten visade betydande förbättringar med hjälp av vår metod på olika datauppsättningar och arkitekturer i jämförelse med baslinjen. Koden finns tillgänglig på https://github.com/jyh2986/Active-convolution. | En aktiv konvolutionsenhet (ACU) REF visade att en stor konvolution kan omformuleras med ytterligare positionsparametrar. | 16,971,269 | Active Convolution: Learning the Shape of Convolution for Image Classification | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 81,475 |
I den här artikeln definierar och studerar vi ett nytt textutvinningsproblem, som vi kallar Comparative Text Mining (CTM). Med tanke på en uppsättning jämförbara textsamlingar är uppgiften för komparativ textbrytning att upptäcka eventuella latenta gemensamma teman i alla samlingar samt att sammanfatta likheterna och skillnaderna i dessa samlingar längs varje gemensamt tema. Detta allmänna problem subsumerar många intressanta tillämpningar, inklusive affärsintelligens och åsiktssammanfattning. Vi föreslår en generativ probabilistisk blandningsmodell för komparativ textbrytning. Modellen utför samtidigt cross-collection clustering och inom collection clustering, och kan tillämpas på en godtycklig uppsättning jämförbara textsamlingar. Modellen kan beräknas effektivt med hjälp av algoritmen Förväntning-Maximering (EM). Vi utvärderar modellen på två olika textdataset (dvs. en nyhetsartikel dataset och en laptop granskningsdata set), och jämför den med en baslinje klustering metod också baserat på en blandning modell. Experimentella resultat visar att modellen är ganska effektiv när det gäller att upptäcka de latenta gemensamma temana i samlingarna och presterar betydligt bättre än vår ursprungliga blandningsmodell. | REF arbetade med komparativa textbrytningsproblem som syftade till att upptäcka vanliga ämnen i nyhetsartiklar och laptoprecensioner samt att sammanfatta likheter och skillnader i en given uppsättning jämförbara textsamlingar. | 6,117,608 | A cross-collection mixture model for comparative text mining | {'venue': "KDD '04", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,476 |
Trots mer än ett decennium av experimentellt arbete i multi-robotsystem har viktiga teoretiska aspekter av multi-robotsamordningsmekanismer hittills i stort sett varit obehandlade. För att ta itu med denna fråga fokuserar vi på problemet med multi-robot uppgift allokering (MRTA). Det mesta arbetet med MRTA har varit ad hoc och empiriskt, och många samordningsarkitekturer har föreslagits och validerats på ett proof-of-concept-sätt, men sällan analyserats. Med målet att skapa objektiv grund för detta viktiga forskningsområde presenterar vi en formell studie av MRTA-problem. En domänoberoende taxonomi av MRTA-problem ges, och det visas hur många sådana problem kan ses som fall av andra, välstuderade, optimeringsproblem. Vi visar hur relevant teori från verksamhetsforskning och kombinatorisk optimering kan användas för analys och ökad förståelse av befintliga tillvägagångssätt för uppgiftstilldelning, samt för att visa hur samma teori kan användas i syntesen av nya tillvägagångssätt. | Inom området kooperativ robotik tar många arbeten itu med problemet med uppgiftstilldelning REF. | 61,299,428 | A Formal Analysis and Taxonomy of Task Allocation in Multi-Robot Systems | {'venue': None, 'journal': 'The International Journal of Robotics Research', 'mag_field_of_study': ['Computer Science']} | 81,477 |
Samverkansmärkning beskriver den process genom vilken många användare lägger till metadata i form av nyckelord till delat innehåll. Nyligen, kollaborativ taggning har vuxit i popularitet på webben, på webbplatser som tillåter användare att tagga bokmärken, fotografier och annat innehåll. I detta dokument analyserar vi strukturen av samverkande märkningssystem samt deras dynamiska aspekter. Specifikt upptäckte vi regularities i användaraktivitet, taggfrekvenser, typer av taggar som används, spricker av popularitet i bokmärken och en anmärkningsvärd stabilitet i relativa proportioner av taggar inom en given URL. Vi presenterar också en dynamisk modell av samarbetsmärkning som förutsäger dessa stabila mönster och relaterar dem till imitation och delad kunskap. | I ett annat verk mätte Golder och Huberman REF regularities i användaraktiviteter, taggfrekvenser och spricker i popularitet av taggar som används i sociala bokmärken. | 1,946,917 | Usage patterns of collaborative tagging systems | {'venue': 'J. Inf. Sci.', 'journal': 'J. Inf. Sci.', 'mag_field_of_study': ['Computer Science']} | 81,478 |
Eftersom känsligare data delas och lagras av webbplatser från tredje part på Internet kommer det att finnas ett behov av att kryptera data som lagras på dessa webbplatser. En nackdel med att kryptera data, är att det kan selektivt delas endast på en grov-kornig nivå (dvs. att ge en annan part din privata nyckel). Vi utvecklar ett nytt kryptosystem för finkornig delning av krypterad data som vi kallar Key-Policy Attribut-Based Encryption (KP-ABE). I vårt kryptosystem är chiffertexter märkta med uppsättningar av attribut och privata nycklar associerade med åtkomststrukturer som styr vilka chiffertexter en användare kan dekryptera. Vi demonstrerar tillämpligheten av vår konstruktion på delning av revisions-logg information och sända kryptering. Vår konstruktion stöder delegering av privata nycklar som subsumerar Hierarchical Identity-Based Encryption (HIBE). | Goyal m.fl. I REF föreslogs först en nyckelpolitisk attributbaserad kryptering (KP-ABE), som konstruerar åtkomstpolicyn i den privata nyckeln. | 5,131,034 | Attribute-based encryption for fine-grained access control of encrypted data | {'venue': "CCS '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,479 |
Abstract-Monitoring smart-grid tillgångar i tid är mycket önskvärt för framväxande smarta-grid applikationer som transformatorövervakning, kondensator bank kontroll, plug-in hybrid elfordon lasthantering och bedömning av elkvalitet. Trådlösa sensor- och aktörsnätverk (WSAN) förväntas utnyttjas i stor utsträckning i ett brett spektrum av smarta-grid applikationer på grund av deras många fördelar tillsammans med deras framgångsrika antagande inom olika kritiska områden, inklusive militär och hälsa. För resursbegränsade WSAN, överföring av delay-kritiska data från smart-grid tillgångar kräver dataprioritering och fördröjning lyhördhet. I det här dokumentet introducerar vi två metoder med medelhög åtkomst, nämligen överföring av data från delay-responsive cross-layer (DRX) och rättvis och delay-aware data cross-layer (FDRX) som syftar till att ta itu med fördröjnings- och servicekraven för smarta nät. DRX baseras på delay-skattning och data-prioritering steg som utförs av applikationsskiktet, förutom MAC lagerparametrar som svarar på de fördröjningskrav för smart-grid ansökan och nätverkskondition. Å andra sidan införlivar FDRX rättvisa i DRX genom att förhindra några noder från att dominera kommunikationskanalen. Vi tillhandahåller en omfattande utvärdering av dessa tillvägagångssätt. Vi visar att DRX minskar den end-to-end fördröjningen medan FDRX har lägre kollisionshastighet jämfört med DRX. Vi beskriver kompromisserna kring dessa tillvägagångssätt och tar fram framtida forskningsanvisningar för robusta kommunikationsprotokoll för tillämpningar för smart-grid-övervakning. Index Terms-Delay-känslig, medium-access-kontroll, smart rutnät, trådlös sensor och aktörsnätverk (WSAN). | Irfan Al-Anbagi REF införde medium-access-metoden, nämligen överföring av data från delay-responsive cross-layer (DRX). | 5,163,056 | Priority- and Delay-Aware Medium Access for Wireless Sensor Networks in the Smart Grid | {'venue': 'IEEE Systems Journal', 'journal': 'IEEE Systems Journal', 'mag_field_of_study': ['Computer Science']} | 81,480 |
Låt G = (V, E) vara en enkel ansluten graf och S = {w 1, · ·, w t } till V en beställd delmängd av hörn. Den metriska representationen av en vertex u ska V med avseende på S är t-vektorn r(u-S) u, v) representerar längden av en kortaste u − v sökväg i G. Den uppsättning S kallas en upplösning uppsättning för G om r(u-S) = r(v-S) innebär u = v för varje u, v -V. Den minsta kardinaliteten i en upplösning uppsättning är den metriska dimensionen av G. I denna artikel föreslår vi, så vitt vi vet, ett nytt problem i diagramteori som liknar den ovan nämnda metriska dimensionen problem. Vi kallar S en k-antiresolving set om k är det största positiva heltal sådan att för varje vertex v på V − S det finns andra k − 1 olika hörn v 1, · · · ·, v k-1 V − S med r(v-S) = r(v 1 -S) = · · · = r(v k-1 -S), dvs, v och v 1, · · ·, v k-1 har samma metriska representation med avseende på S. K-metrisk antidimension av G är den minsta kardinaliteten bland alla k-antiresolving uppsättningar för G. I denna artikel, introducerar vi en ny integritet åtgärd, namngiven (k, )-anonymitet och baserat på k-metrisk antidimensionsion problem, som syftar till att utvärdera motståndet av sociala grafer mot aktiva attacker. Vi föreslår därför en sannförståelig algoritm för beräkning av den k-metriska antidimensionen av slumpmässiga grafer. Framgångsfrekvensen för vår algoritm, enligt empiriska resultat, är över 80% och 90% när man letar efter en k-antiresolving bas respektive en k-antiresolving set. Vi undersöker också de teoretiska egenskaperna hos k-antiresolving-seten och den k-metriska antidimensionen av grafer. I synnerhet fokuserar vi på stigar, cykler, kompletta bipartite grafer och träd. | Såvitt vi vet har (k,)-anonymitet REF hittills varit den enda privata egendomen som är skräddarsydd för att mäta motståndet från sociala grafer mot aktiva attacker. | 2,527,995 | k-Metric Antidimension: a Privacy Measure for Social Graphs | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,481 |
I detta dokument föreslår vi en strategi för att automatiskt upptäcka känslor på Twitter-meddelanden (tweets) som utforskar vissa egenskaper hos hur tweets skrivs och meta-information av de ord som komponerar dessa meddelanden. Dessutom utnyttjar vi källor till bullriga etiketter som våra träningsdata. Dessa bullriga etiketter tillhandahölls av några känslodetektion webbplatser över twitter data. I våra experiment visar vi att eftersom våra funktioner kan fånga en mer abstrakt representation av tweets, vår lösning är mer effektiv än tidigare och också mer robust när det gäller partiska och bullriga data, som är den typ av data som tillhandahålls av dessa källor. | Författare i REF utforska meta information av ord och språkliga egenskaper av tweets för känsloanalys. | 12,979,818 | Robust Sentiment Detection on Twitter from Biased and Noisy Data | {'venue': 'COLING - POSTERS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,482 |
Vi tar itu med problemet med storskalig visuell platsigenkänning, där uppgiften är att snabbt och korrekt känna igen platsen för en given frågebild. Vi presenterar följande tre huvudsakliga bidrag. Först utvecklar vi en konvolutionell neurala nätverk (CNN) arkitektur som kan tränas på ett end-to-end sätt direkt för platsen erkännande uppgift. Huvudkomponenten i denna arkitektur, NetVLAD, är ett nytt generaliserat VLAD-lager, inspirerat av "Vector of Locally Aggregated Descriptors" bildrepresentation som vanligen används i bildhämtning. Lagret kan enkelt anslutas till alla CNN-arkitekturer och är kompatibelt med träning via backpropagation. För det andra utvecklar vi ett utbildningsförfarande, baserat på en ny svagt övervakad rankning förlust, för att lära sig parametrar för arkitekturen på ett end-to-end sätt från bilder som skildrar samma platser över tid laddas ner från Google Street View Time Machine. Slutligen visar vi att den föreslagna arkitekturen avsevärt överträffar icke-lärande bildrepresentationer och off-the-shelf CNN-deskriptorer på två utmanande plats igenkänningsriktmärken, och förbättrar över nuvarande toppmoderna kompakta bildrepresentationer på standardiserade riktmärken för hämtning av bilder. | I REF presenterar författarna en end-to-end-strategi för storskalig visuell platsigenkänning. | 44,604,205 | NetVLAD: CNN Architecture for Weakly Supervised Place Recognition | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 81,483 |
I detta dokument studerar vi problemet med schemaläggning av trådlösa länkar i den geometriska SIN R-modellen, som uttryckligen använder det faktum att noder distribueras i Euclidean planet. Vi presenterar de första NP-fullständighet bevis i en sådan modell. I synnerhet visar vi att två problem är NP-komplett: Scheduling och One-Shot Scheduling. Det första problemet består i att hitta en minimilängd schema för en viss uppsättning länkar. Det andra problemet får en viktad uppsättning länkar som ingång och består i att hitta en maximal vikt undergrupp av länkar som ska schemaläggas samtidigt i ett skott. Förutom komplexa bevis, vi utformar en approximation algoritm för varje problem. | NP-fullständighet bevis på minsta längd schemaläggning problem, och en logaritmisk approximation algoritm utan buller i den enhetliga effektinställningen, finns i REF. | 411,947 | Complexity in geometric SINR | {'venue': "MobiHoc '07", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,484 |
Trots de senaste framgångarna för neurala nätverk i bildfunktionsinlärning, ett stort problem i videodomänen är bristen på tillräckligt märkta data för att lära sig att modellera temporal information. I det här dokumentet föreslår vi en oövervakad tidsbaserad modelleringsmetod som lär sig av ostrimmade videor. Rörelsehastigheten varierar konstant, t.ex. kan en man springa snabbt eller långsamt. Vi tränar därför en multirate Visual Recurrent Model (MVRM) genom att koda ramar av ett klipp med olika intervall. Denna inlärningsprocess gör den lärda modellen mer kapabel att hantera rörelsehastighetsvariabilitet. Med tanke på ett klipp från en video, använder vi dess förflutna och framtida grannklipp som tidssammanhang, och rekonstruera de två tidsövergångar, dvs., nuvarande→tidigare övergång och nuvarande→framtida övergång, återspeglar den timliga informationen i olika vyer. Den föreslagna metoden utnyttjar de båda övergångarna samtidigt genom att införliva en dubbelriktad rekonstruktion som består av en efterbliven återuppbyggnad och en framtida återuppbyggnad. Vi tillämpar den föreslagna metoden på två utmanande videouppgifter, d.v.s. komplex händelsedetektering och videotextning, där den uppnår toppmodern prestanda. I synnerhet genererar vår metod den bästa enskilda funktionen för händelsedetektering med en relativ förbättring på 10,4 % på MedTest-13-datasetet och uppnår bästa prestanda i videotext med alla utvärderingsmått på YouTube2Text-datasetet. | REF ) föreslår också Multirate Gated Recurrent Unit att koda ramar av ett videoklipp med olika intervall, så att modellen kan hantera rörelsehastighet varians. | 18,360,943 | Bidirectional Multirate Reconstruction for Temporal Modeling in Videos | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 81,485 |
Inom området energiförvaltning på klusternivå har man under de senaste åren ägnat stor uppmärksamhet åt forskning. En klass av tekniker för att minska energiförbrukningen i kluster är att selektivt driva ner noder under perioder med lågt utnyttjande för att öka energieffektiviteten. Man kan tänka sig ett antal sätt att selektivt driva ner noder, var och en med varierande inverkan på arbetsbelastningens svarstid och den totala energiförbrukningen. Eftersom ramen MapReduce håller på att bli "vanlig", är fokus i detta dokument att utveckla en ram för att systematiskt överväga olika MapReduce node down strategier, och deras inverkan på den totala energiförbrukningen och arbetsbelastning responstid. Vi undersöker noga två extrema tekniker som kan användas inom denna ram. Den första är baserad på en nyligen föreslagen teknik som kallas "Covering Set" (CS) som håller bara en liten del av noderna igång under perioder av lågt utnyttjande. Den andra ytterligheten är en teknik som vi föreslår i detta dokument, som kallas All-In-strategin (AIS). AIS använder alla noder i klustret för att köra en arbetsbörda och sedan driver ner hela klustret. Med hjälp av både faktisk utvärdering och analytisk modellering tar vi fram skillnaderna mellan dessa två extrema tekniker och visar att AIS ofta är rätt energibesparingsstrategi. | Lang och Patel föreslog ett annat tillvägagångssätt, All-In Strategy (AIS), som aktiverar hela klustret på eller utanför REF. | 10,216,979 | Energy Management for MapReduce Clusters | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 81,486 |
Sequence-to-sequence neural nätverksmodeller för generering av konversationssvar tenderar att generera säkra, alldagliga svar (t.ex., Jag vet inte) oavsett input. Vi föreslår att den traditionella objektiva funktionen, dvs. sannolikheten för produktion (respons) givet indata (meddelande) inte är lämplig för svarsgenerering uppgifter. Istället föreslår vi att Maximum Mutual Information (MMI) används som objektiv funktion i neurala modeller. Experimentella resultat visar att de föreslagna MMI-modellerna ger mer varierande, intressanta och lämpliga svar, vilket ger betydande vinster i BLEU-poäng på två konversativa datauppsättningar och i mänskliga utvärderingar. | I Ref föreslogs att maximal ömsesidig information skulle användas som målfunktion för att ta fram mer varierande och intressanta svar. | 7,287,895 | A Diversity-Promoting Objective Function for Neural Conversation Models | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,487 |
I detta dokument introduceras en ny metod för överföring av lärande över domäner och uppgifter och formulerar det som ett problem för inlärning till kluster. Den viktigaste insikten är att vi, förutom funktioner, kan överföra likhetsinformation och detta är tillräckligt för att lära sig en likhetsfunktion och klusternätverk för att utföra både domänanpassning och kors-task överföring lärande. Vi börjar med att reducera kategorisk information till parvisa begränsningar, som bara överväger om två fall tillhör samma klass eller inte (parvis semantisk likhet). Denna likhet är kategori-agnostisk och kan läras från data i källdomänen med hjälp av ett likhetsnätverk. Vi presenterar sedan två nya metoder för att utföra överföringslärande med hjälp av denna likhetsfunktion. För det första, för oövervakad domänanpassning, utformar vi en ny förlustfunktion för att legalisera klassificeringen med en begränsad klusterförlust och därmed lära sig ett klusternätverk med den överförda likheten som genererar träningsingångarna. För det andra föreslår vi en ram för att rekonstruera och uppskatta antalet semantiska kluster (dvs. oövervakade kluster med osedda kategorier), återigen med hjälp av klusternätverket. Eftersom likhetsnätverket är bullrigt är nyckeln att använda en robust klusteralgoritm, och vi visar att vår formulering är mer robust än de alternativa begränsade och okonstruerade klustermetoderna. Med hjälp av denna metod, visar vi först toppmoderna resultat för utmanande kors-task problem, tillämpas på Omniglot och ImageNet. Våra resultat visar att vi kan rekonstruera semantiska kluster med hög noggrannhet. Vi utvärderar sedan prestandan av cross-domain överföring med hjälp av bilder från Office-31 och SVHN-MNIST uppgifter och presentera högsta noggrannhet på båda datauppsättningar. Vårt tillvägagångssätt handlar inte uttryckligen om diskrepans mellan domäner. Om vi kombinerar med en domänanpassning förlust, visar det ytterligare förbättring. | REF använde den parvisa likhetsinformationen från källan för att legalisera den implicita klustereringen av måldomänen och därmed har den potential att användas för det obalanserade scenariot. | 3,527,879 | Learning to cluster in order to transfer across domains and tasks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,488 |
Abstract-The Web har genomgått en enorm förändring mot en mycket användarcentrerad miljö. Miljontals användare kan delta och samarbeta för sina egna intressen och fördelar. Services Computing paradigm tillsammans med spridningen av webbtjänster har skapat stora möjligheter för användarna, även kallade tjänstekonsumenter, att producera mervärdestjänster genom att upptäcka och sammanställa tjänster. I detta dokument föreslår vi en effektiv strategi för att underlätta för tjänstekonsumenten att upptäcka webbtjänster. För det första analyserar vi kraven på tjänstesökning ur tjänstekonsumentens perspektiv och skisserar en konceptuell modell för homogena webbtjänstesamhällen. Den homogena servicegemenskapen innehåller två typer av upptäckter: sökandet efter liknande verksamheter och sökandet efter kompatibla verksamheter. För det andra beskriver vi en likhetsmätningsmodell för webbtjänster genom att utnyttja metadata från WSDL och utforma en grafbaserad algoritm för att stödja båda de två upptäcktstyperna. Slutligen, att anta populära atomfoder, Vi utformar en prototyp för att underlätta för konsumenterna att upptäcka samtidigt prenumerera på webbtjänster på ett lättanvändt sätt. Med den experimentella utvärderingen och prototypdemonstrationen minskar vårt tillvägagångssätt inte bara konsumenternas tidsödande upptäckter utan också deras inträdeshinder i den användarcentrerade webbmiljön. | Liu m.fl. REF befriar konsumenterna från tidskrävande upptäckter. | 1,347,913 | Discovering Homogeneous Web Service Community in the User-Centric Web Environment | {'venue': 'IEEE Transactions on Services Computing', 'journal': 'IEEE Transactions on Services Computing', 'mag_field_of_study': ['Computer Science']} | 81,489 |
Under de senaste åren har overlay-nät blivit ett effektivt alternativ till IP-multicast för effektiv punkt-till-multipunkt-kommunikation över Internet. Vanligtvis noder själv-organisera med målet att bilda en effektiv overlay träd, en som uppfyller prestandamål utan att lägga onödig börda på det underliggande nätverket. I detta dokument riktar vi oss till datadistribution med hög bandbredd från en enda källa till ett stort antal mottagare. Tillämpningar inkluderar stora filer överföringar och realtid multimedia streaming. För dessa tillämpningar, hävdar vi att en overlay mesh, snarare än ett träd, kan leverera i grunden högre bandbredd och tillförlitlighet i förhållande till typiska trädstrukturer. Detta dokument presenterar Bullet, en skalbar och distribuerad algoritm som gör att noder sprids över Internet för att självorganisera till en hög bandbredd overlay mesh. Vi konstruerar Bullet kring insikten att data bör distribueras på ett osammanhängande sätt till strategiska punkter i nätverket. Enskilda kulmottagare ansvarar sedan för att lokalisera och hämta data från flera punkter parallellt. Viktiga bidrag av detta arbete inkluderar: i) en algoritm som skickar data till olika punkter i överlagringen så att alla data objekt är lika sannolikt att visas på någon nod, ii) en skalbar och decentraliserad algoritm som gör det möjligt noder att lokalisera och återställa saknade data objekt, och iii) en fullständig implementering och utvärdering av Bullet kör över Internet och i en storskalig emuleringsmiljö avslöjar upp till en faktor två bandbredd förbättringar under en mängd olika omständigheter. Dessutom finner vi att i förhållande till trädbaserade lösningar minskar Bullet behovet av att utföra dyra bandbreddsundersökning. I ett träd är det viktigt att en nods förälder levererar en hög grad av applikationsdata till varje barn. I Bullet dock noder samtidigt ta emot data från flera källor parallellt, vilket gör det mindre viktigt att lokalisera någon enskild källa som kan upprätthålla en hög överföringshastighet. | I Bullet REF, en ström av data trycks också genom en trädstruktur. | 3,050,035 | Bullet: high bandwidth data dissemination using an overlay mesh | {'venue': "SOSP '03", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,490 |
Ett mycket enkelt sätt att förbättra prestandan hos nästan alla maskininlärningsalgoritmer är att träna många olika modeller på samma data och sedan att i genomsnitt deras förutsägelser [3]. Tyvärr, att göra förutsägelser med hjälp av en hel ensemble av modeller är besvärligt och kan vara alltför beräknings dyrt för att tillåta spridning till ett stort antal användare, särskilt om de enskilda modellerna är stora neurala nät. Caruana och hans medarbetare [1] har visat att det är möjligt att komprimera kunskapen i en ensemble till en enda modell som är mycket lättare att använda och vi utvecklar denna metod vidare med hjälp av en annan kompressionsteknik. Vi uppnår överraskande resultat på MNIST och vi visar att vi avsevärt kan förbättra den akustiska modellen av ett kraftigt använt kommersiellt system genom att destillera kunskapen i en ensemble av modeller till en enda modell. Vi introducerar också en ny typ av ensemble som består av en eller flera fullständiga modeller och många specialiserade modeller som lär sig att skilja på finkorniga klasser som de fullständiga modellerna förvirrar. Till skillnad från en blandning av experter kan dessa specialmodeller utbildas snabbt och parallellt. | Andra verk som enbart fokuserar på att minska lagring och minneskostnader för ordinslag inkluderar följande: REF använder en destillationskompressionsteknik för att komprimera kunskapen i en ensemble till en enda modell, vilket är mycket lättare att använda. | 7,200,347 | Distilling the Knowledge in a Neural Network | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,491 |
Sarkasm förvandlar polariteten i ett till synes positivt eller negativt uttalande till motsatsen. Vi rapporterar om en metod för att bygga en corpus av sarkastiska Twitter-meddelanden där fastställande av sarkasmen för varje meddelande har gjorts av dess författare. Vi använder denna pålitliga corpus för att jämföra sarkastiska uttalanden på Twitter med uttalanden som uttrycker positiva eller negativa attityder utan sarkasm. Vi undersöker inverkan av lexiska och pragmatiska faktorer på maskininlärning effektivitet för att identifiera sarkastiska uttalanden och vi jämför prestanda maskininlärning tekniker och mänskliga domare på denna uppgift. Kanske föga förvånande, varken de mänskliga domarna eller maskininlärningsteknikerna presterar mycket bra. | REF undersökte nyttan av lexiska och pragmatiska funktioner för sarkasmdetektion i tweets. | 15,244,007 | Identifying Sarcasm in Twitter: A Closer Look | {'venue': 'Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,492 |
ABSTRACT De framtida trådlösa nätverken lovar att tillhandahålla allestädes närvarande anslutning till en mängd enheter med olika trafikmönster var som helst och när det behövs. För att öka motståndskraften mot fel, naturkatastrofer och oväntad trafik kan det obemannade flygfordonet (UAV)-stödda trådlösa kommunikationssystem ge en unik möjlighet att tillgodose sådana krav i rätt tid utan att förlita sig på det alltför konstruerade cellulära nätet. För UAV-stödd kommunikation anses dock frågor om kapacitet, täckning och energieffektivitet vara av största vikt. Fallet med icke-ortogonal multipelåtkomst (NOMA) undersöks för flygbasstation (BS). NOMA:s lönsamhet fastställs genom att man formulerar det sammanlagda problem som utgör en funktion av maktfördelning och UAV:s höjd. Optimeringsproblemet är begränsat för att möta individuella användarhastigheter som uppstår av ortogonal multipel åtkomst (OMA) vilket gör det i nivå med NOMA. Förhållandet mellan energieffektivitet och höjd av en UAV inspirerar lösningen på ovan nämnda problem med tanke på två fall, nämligen höjd fast NOMA och höjd optimerad NOMA. Den senare gör det möjligt att utnyttja de extra graderna av frihet för UAV-BS-rörlighet för att förbättra spektraleffektiviteten och energieffektiviteten. Därför sparar den joule i den operativa kostnaden för UAV. Slutligen föreslås en begränsad metod för täckningsexpansion som underlättas av NOMA:s ökning av användarhastigheten. Resultaten presenteras för olika miljöinställningar för att dra slutsatsen att NOMA uppvisar bättre prestanda när det gäller summa, täckning och energieffektivitet. INDEX TERMS Icke-ortogonal multipel åtkomst (NOMA), ortogonal multipel åtkomst (OMA), obemannade luftfartyg (UAV), total maximering, täckning maximering, antennceller, energieffektivitet. | Sohail m.fl. REF optimerade täckningsområdet och UAV:s höjd för att erhålla den maximala summan för parade NOMA-användare. | 13,720,558 | Non-Orthogonal Multiple Access for Unmanned Aerial Vehicle Assisted Communication | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 81,493 |
Abstract-This paper presenterar en ny metod för automatiskt erkännande av mänskliga aktiviteter från videosekvenser. Vi första gruppfunktioner med höga korrelationer till Kategori Feature Vectors (CFVs). Varje aktivitet beskrivs sedan med en kombination av GMM (Gaussian Mixing Models) med varje GMM som representerar fördelningen av en CFV. Vi visar att detta tillvägagångssätt ger flexibilitet att lägga till nya evenemang och att ta itu med problemet med brist på utbildningsdata för att bygga modeller för ovanliga händelser. För att förbättra igenkänningsnoggrannheten föreslås en Confident-Frame-baserad igenkänningsalgoritm (CFR) för att känna igen den mänskliga aktiviteten, där de videoramar som har stort förtroende för igenkänning av en aktivitet (Confident-Frames) används som en specialiserad modell för klassificering av resten av videoramarna. Experimentella resultat visar hur effektivt det föreslagna tillvägagångssättet är. | I papper REF författarna föreslår ett system använda ansiktsprofil, gång silhuett och med hjälp av säker-frame baserad erkännande algoritm (CFR) för att känna igen mänskliga aktiviteter. | 10,496,980 | Human activity recognition for video surveillance | {'venue': '2008 IEEE International Symposium on Circuits and Systems', 'journal': '2008 IEEE International Symposium on Circuits and Systems', 'mag_field_of_study': ['Computer Science']} | 81,494 |
Abstract--Användningen av peer-to-peer (P2P) program växer dranlaticiy, särskilt för att dela stora video / ljudfiler och programvara. I den här artikeln analyserar vi P2P-trafik genom att mäta flödesnivåinformation som samlas in vid flera gränsroutrar över ett sent ISP-nätverk, och rapporterar vår undersökning av tre populära P2P-system -FastTrack, Gnutella och DirectConnect. Vi karakteriserar den P2P-trafik som observerats vid en enda ISP och dess inverkan på det underliggande nätverket. Vi observerar mycket skev distribution i trafiken över nätverket på olika nivåer av rumslig aggregering (IP, prefix, AS). Alla tre P2P-systemen uppvisar en betydande dynamik på kort tid och särskilt på IP-adressnivå Ändå är andelen P2P-trafik som varje prefix bidrar med mycket stabilare än motsvarande distribution av antingen webbtrafik eller totaltrafik. De höga volym- och god stabilitetsegenskaperna hos P2P-trafiken indikerar att P2P-belastningen är en bra kandidat för att hanteras via applikationsspecifik lager-3-trafikteknik i ett ISP-nätverk. | En karakterisering av P2P-trafik och dess inverkan på det underliggande nätet presenteras i REF. | 7,334,644 | Analyzing peer-to-peer traffic across large networks | {'venue': "IMW '02", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,495 |
Abstract-Topology kontroll i ett sensornätverk balanserar belastningen på sensornoder och ökar nätverkets skalbarhet och livslängd. Klustersensorn noder är en effektiv topologi kontroll metod. I detta dokument föreslår vi en ny distribuerad klusterstrategi för långlivade ad hoc-sensornätverk. Vårt föreslagna tillvägagångssätt gör inga antaganden om förekomsten av infrastruktur eller om nodkapacitet, förutom tillgängligheten av flera effektnivåer i sensornoder. Vi presenterar ett protokoll, HEED (Hybrid Energy-Efficient Distribuated clustering), som periodiskt väljer klusterhuvuden enligt en hybrid av noden restenergi och en sekundär parameter, såsom nod närhet till sina grannar eller nod grad. HEED avslutas i Oð1 ska iterationer, ådrar sig låga budskap overhead, och uppnår ganska enhetlig kluster huvud distribution över nätverket. Vi bevisar att, med lämpliga gränser på nodtäthet och intrakluster och intercluster överföringsintervall, kan HEED asymptotiskt säkert garantera anslutning av klustererade nätverk. Simuleringsresultat visar att vårt föreslagna tillvägagångssätt är effektivt för att förlänga nätverkets livslängd och stödja skalbar dataaggregation. | Till skillnad från LEACH väljer Hybrid Energy-Efficient Distributed Clustering (HEED) REF inte cellhuvud noder slumpmässigt. | 2,012,679 | HEED: a hybrid, energy-efficient, distributed clustering approach for ad hoc sensor networks | {'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']} | 81,496 |
Neurala nätverk är både beräkningsintensiva och minnesintensiva, vilket gör dem svåra att distribuera på inbyggda system med begränsade hårdvaruresurser. För att ta itu med denna begränsning, introducerar vi "djup kompression", en trestegs pipeline: beskärning, utbildad kvantisering och Huffman kodning, som arbetar tillsammans för att minska lagringskravet för neurala nätverk med 35× till 49× utan att påverka deras noggrannhet. Vår metod först beskär nätverket genom att lära sig bara viktiga anslutningar. Därefter kvantifierar vi vikterna för att tvinga fram viktdelning, slutligen använder vi Huffman-kodning. Efter de två första stegen tränar vi om nätverket för att finjustera de återstående anslutningarna och de kvantiserade centroiderna. Beskärning, minskar antalet anslutningar med 9× till 13×; Kvantisering minskar sedan antalet bitar som representerar varje anslutning från 32 till 5. På ImageNet dataset, vår metod minskade lagring som krävs av AlexNet med 35×, från 240MB till 6,9MB, utan förlust av noggrannhet. Vår metod minskade storleken på VGG-16 med 49× från 552MB till 11,3MB, igen utan förlust av noggrannhet. Detta gör det möjligt att montera modellen i on-chip SRAM cache snarare än off-chip DRAM minne. Vår komprimeringsmetod underlättar också användningen av komplexa neurala nätverk i mobila applikationer där applikationens storlek och nedladdningsbandbredd begränsas. Benchmarked på CPU, GPU och mobil GPU, komprimerat nätverk har 3× till 4× lagervis speedup och 3× till 7× bättre energieffektivitet. | Kompression: Djup Kompression, av Han et al. REF, minskar lagringsstorleken på modellen med kvantisering och Huffman kodning för att komprimera vikterna i nätverket. | 2,134,321 | Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding | {'venue': 'ICLR 2016', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 81,497 |
Vi fokuserar på uppgiften att amodal 3D-objektdetektering i RGB-D-avbildningar, som syftar till att producera en 3D-contring box av ett objekt i metriska form i sin fulla omfattning. Vi introducerar Deep Sliding Shapes, en 3D ConvNet formulering som tar en 3D volymetrisk scen från en RGB-D-bild som ingång och utgångar 3D-objekt avgränsande rutor. I vår strategi föreslår vi den första 3D Region Proposition Network (RPN) att lära objektitet från geometriska former och den första gemensamma Object Recognition Network (ORN) för att extrahera geometriska funktioner i 3D och färgfunktioner i 2D. I synnerhet hanterar vi föremål av olika storlekar genom att träna en multimodal RPN i två olika skalor och en ORN för att regressera 3D-räneringsboxar. Experiment visar att vår algoritm överträffar state-of-the-art med 13,8 i mAP och är 200× snabbare än den ursprungliga Sliding Shapes. | Ett 3D-konvolutionellt neuralt nätverk (ConvNets) introduceras för att upptäcka objekt i RGB-D-avbildningar av REF. | 206,594,775 | Deep Sliding Shapes for Amodal 3D Object Detection in RGB-D Images | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 81,498 |
Det har visat sig att felaktig Gaussian signaling (IGS) kan förbättra prestandan för trådlösa interferensbegränsade system när perfekt kanal-state information (CSI) är tillgänglig. I detta dokument undersöker vi IGS:s robusthet mot ofullständig CSI på sändarsidan i en SISO-interferenskanal med två ingångar (Single-input, SISO) samt i en SISO Z-IC, när störningar behandlas som buller. Vi antar att de verkliga kanalkoefficienterna tillhör en känd region runt kanalberäkningarna, som vi kallar osäkerhetsregionen. Efter en värsta-fall robusthet strategi, studerar vi hastighet-region gränsen för IC för den värsta kanalen i osäkerhetsregionen. För de två användarna har vi en robust design i sluten form, som är oberoende av fasen av kanalerna genom att tillåta endast en av användarna att överföra IGS. För Z-IC tillhandahåller vi en sluten formdesign för överföringsparametrarna genom att överväga en utvidgad osäkerhetsregion och tillåta båda användarna att använda IGS. I båda fallen garanteras IGS-baserade konstruktioner att inte utföra sämre än korrekt Gaussian signalering. Dessutom visar vi, genom numeriska exempel, att de föreslagna robusta konstruktionerna avsevärt överträffar icke-robusta lösningar. Index Terms-Achievable rate region, felaktig Gaussian signalering, bristfällig CSI, två användare interferens kanal, värsta fall robusthet. 1 Den två-användare X-IC är en generalisering av två-användare IC där det finns ett oberoende meddelande från varje sändare till varje mottagare [20]. 2 Z-IC är ett specialfall av den två-användare IC, där endast en av användarna stör den andra användaren. Tillverkning utgående från material enligt vilket HS-nummer som helst, utom material enligt samma HS-nummer som produkten | Till exempel föreslog vi i Reference Ref, en robust IGS för en 2-användares IC med ofullständig momentan CSIT och visade att IGS kan utvidga den uppnåeliga ränteregionen och överträffa PGS. | 67,914,431 | Robust Improper Signaling for Two-User SISO Interference Channels | {'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science', 'Engineering']} | 81,499 |
Prognosen om felbenägna moduler fortsätter att väcka intresse på grund av den betydande inverkan den har på kvalitetssäkringen av programvara. Ett av de viktigaste målen med sådana tekniker är att exakt förutsäga modulerna där fel sannolikt kommer att gömma sig så tidigt som möjligt under utvecklingscykeln. Design, kod, och senast, kravmått har framgångsrikt använts för att förutsäga felprone moduler. Målet med detta papper är att jämföra prestanda av prediktiva modeller som använder design-nivå mått med dem som använder kod-nivå mått och de som använder båda. Vi analyserar tretton datauppsättningar från NASA Metrics Data Program som erbjuder design samt kodmått. Med hjälp av en rad modelleringsmetoder och statistiska signifikanstester, bekräftade vi att modeller som byggts från kodmått vanligtvis överträffar designmått baserade modeller. Båda typerna av modeller visar sig dock vara användbara eftersom de kan konstrueras i olika projektfaser. Kodbaserade modeller kan användas för att öka prestandan hos modeller på konstruktionsnivå och därmed öka effektiviteten vid tilldelning av verifierings- och valideringsaktiviteter sent i utvecklingscykeln. Vi drar också slutsatsen att modeller som använder en kombination av design- och kodnivåmått överträffar modeller som använder antingen den ena eller den andra metriska uppsättningen. | REF som jämförde prestandan hos konstruktions- och kodmått i felförutsägelsemodeller. | 1,808,439 | Comparing design and code metrics for software quality prediction | {'venue': "PROMISE '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,500 |
Vi presenterar resultaten av Joint Student Response Analysis och 8th Recognition Textual Entailment Challenge, som syftar till att sammanföra forskare inom pedagogisk NLP-teknik och textadministrering. Uppgiften att ge feedback på studenternas svar kräver semantisk inferens och är därför relaterad till att erkänna textförutsättningar. Således erbjöd vi gemenskapen en 5-vägs student svar märkning uppgift, liksom 3-vägs och 2-vägs RTE-liknande uppgifter på utbildningsdata. Dessutom prövades en del av detta arbete. Vi presenterar och jämför resultat från 9 deltagande team, och diskuterar framtida riktningar. | Senast, en semantisk utvärdering (Semeval) delad uppgift som kallas Joint Student Response Analysis och 8: e känna igen Textual Entailment Challenge organiserades REF för att främja och effektivisera forskning på detta område. | 4,897,445 | SemEval-2013 Task 7: The Joint Student Response Analysis and 8th Recognizing Textual Entailment Challenge | {'venue': '*SEM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,501 |
Vi presenterar en uppsättning nya trådlösa sensornoder med låg effekt utformade för övervakning av trä mästerverk och historiska byggnader, för att utföra en tidig upptäckt av skadedjur. Även om vår tidigare stjärnbaserade systemkonfiguration har varit i drift i mer än 13 år, det inte skala väl för sensorisering av stora byggnader eller när distribuera hundratals noder. I detta dokument visar vi genomförbarheten av en klusterbaserad dynamisk-träd hierarkisk Wireless Sensor Network (WSN) arkitektur där realistiska antaganden om radiofrekvens dataöverföring tillämpas på klusterkonstruktion, och en blandning av heterogena noder används för att minimera ekonomiska kostnader för hela systemet och maximera effektbesparingen av blad noderna. Simuleringsresultat visar att specialiseringen av en bråkdel av noderna genom att ge bättre antenner och vissa energiupptagningsmetoder dramatiskt kan förlänga livslängden för hela WSN och minska kostnaden för hela systemet. En demonstration av den föreslagna arkitekturen med ett nytt routingprotokoll och tillämpas på detektion av termitskadegörare har genomförts på en uppsättning nya noder och bör pågå i cirka tio år, men det ger bättre skalbarhet, tillförlitlighet och installationsegenskaper. | Capella m.fl. REF utnyttjade trådlösa sensornoder med låg effekt för att utveckla ett system för övervakning av trä mästerverk och kulturarvsbyggnader, med en tillämpning på insamling av data om omgivning (temperatur, luftfuktighet) och upptäckt av termitskadegörare och betoning på minskad strömförbrukning. | 7,206,800 | Historical Building Monitoring Using an Energy-Efficient Scalable Wireless Sensor Network Architecture | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 81,502 |
Abstract-Explosiv tillväxt inom informationsteknik har möjliggjort många innovativa tillämpningsområden såsom storskaliga fordonsnät utomhus för kommunikation mellan fordon. Genom att tillhandahålla tidskänslig och platsmedveten information kan fordonsnätverk bidra till en säkrare och effektivare körupplevelse. Fordonsnätverkens prestanda kräver dock robust datakommunikation i realtid och påverkas av hög rörlighet, intermittent konnektivitet och otillförlitlighet hos den trådlösa kanalen. I detta dokument föreslås ett nytt protokoll för adaptiv distribuerad medelstor åtkomstkontroll (ADC-MAC) för att ta itu med de inneboende problemen i IEEE 802.11-standarden när den används i fordonsnätverk. ADC-MAC utnyttjar rumsliga skillnader för att maximera systemets genomströmning samt serviceutbudet av fordonsnätverk. Detta sker genom att adaptivt välja det lämpligaste hjälp- och överföringsläget för överföring/mottagande par mellan direkt överföring (DT), cooperativ relä (CR) överföring och två-hop relä (TR) överföring, i enlighet med kanalens kvalitet och positionering av relänoder. Både vår Markov Chain modellering baserad teoretisk analys och ns-2 simuleringsförsök visar att vårt ADC-MAC-protokoll överträffar befintliga system under samma nätverksscenarier och maximerar den uppnådda systemgenomströmningen och serviceavståndet. Index Terms-MAC Protocol, Cooperative Relaying, Vehicular Networks. | För att möjliggöra datakommunikation i ett fordon-till-fordonsnätverk har ett adaptivt distribuerat MAC-protokoll kallat ADC-MAC föreslagits i REF. | 13,993,044 | A Novel Adaptive Distributed Cooperative Relaying MAC Protocol for Vehicular Networks | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']} | 81,503 |
Abstract-Med mer än 250 miljoner aktiva användare [1] är Facebook (FB) för närvarande ett av de viktigaste sociala nätverken online. Vårt mål i detta papper är att få ett representativt (oförståeligt) urval av Facebook-användare genom att krypa igenom sitt sociala diagram. I denna strävan överväger och genomför vi flera kandidattekniker. Två metoder som har visat sig fungera bra är Metropolis-Hasting random walk (MHRW) och en omvägd random walk (RWRW). Båda har för- och nackdelar, som vi demonstrerar genom en jämförelse med varandra samt med "jord-sanningen" (UNI -fanns genom sann enhetlig provtagning av FB userIDs). I kontrast, den traditionella Breadth-First-Search (BFS) och Random Walk (RW) presterar ganska dåligt, producerar väsentligt partiska resultat. Utöver prestandabedömning offline, introducerar vi online formell konvergensdiagnostik för att bedöma provkvaliteten under datainsamlingsprocessen. Vi visar hur dessa kan användas för att effektivt avgöra när ett slumpmässigt gångprov är av lämplig storlek och kvalitet för efterföljande användning (dvs. när det är säkert att upphöra med provtagningen). Med hjälp av dessa metoder samlar vi först, så vitt vi vet, ett opartiskt urval av Facebook. Slutligen använder vi en av våra representativa dataset, som samlas in genom MHRW, för att karakterisera flera viktiga egenskaper hos Facebook. | Gjoka m.fl. REF föreslår två nya opartiska strategier: Metropolis-Hasting random walk (MHRW) och en omvägd random walk (RWRW). | 12,840,167 | Walking in Facebook: A Case Study of Unbiased Sampling of OSNs | {'venue': '2010 Proceedings IEEE INFOCOM', 'journal': '2010 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']} | 81,504 |
Att förstå 3D-objektets struktur från en enda bild är en viktig men svår uppgift i datorseendet, främst på grund av avsaknaden av 3D-objektanteckningar i verkliga bilder. Tidigare arbete tar itu med detta problem genom att antingen lösa en optimering uppgift ges 2D keypoint positioner, eller utbildning på syntetiska data med marksanning 3D information. I detta arbete föreslår vi 3D-Interpreter Network (3D-INN), en endto-end ram som successivt uppskattar 2D-nyckelpunkt värmekartor och 3D-objekt struktur, tränade på både verkliga 2D-annoterade bilder och syntetiska 3D-data. Detta möjliggörs främst genom två tekniska innovationer. För det första föreslår vi ett projektionsskikt, som beräknar 3D-struktur till 2D-utrymme, så att 3D-INN kan tränas för att förutsäga 3D-strukturparametrar som övervakas av 2D-anteckningar på verkliga bilder. För det andra fungerar värmekartor över keypoints som en mellanliggande representation som förbinder verkliga och syntetiska data, vilket gör det möjligt för 3D-INN att dra nytta av variation och överflöd av syntetiska 3D-objekt, utan att lida av skillnaden mellan statistiken över verkliga och syntetiserade bilder på grund av ofullständig rendering. Nätverket uppnår den senaste prestandan på både 2D-nyckelpunktsuppskattning och 3D-strukturåterställning. Vi visar också att den återvunna 3D-informationen kan användas i andra synapplikationer, t.ex. 3D-återgivning och bildsökning. | I REF föreslogs även projektionsskikten 3D-2D som gör det möjligt att lära sig 3D-objektstrukturer med hjälp av annoterade 2D-nyckelpunkter. | 2,003,389 | Single Image 3D Interpreter Network | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,505 |
Multianvändarmångfald är en form av mångfald som ingår i ett trådlöst nätverk och som tillhandahålls av oberoende tidsvariationer mellan olika användare. Mångfaldens fördelar utnyttjas genom att följa användarnas kanalfluktuationer och schemalägga överföringar till användare när deras ögonblickliga kanalkvalitet är nära toppen. Mångfaldsvinsten ökar med den dynamiska variationen och är därmed begränsad i miljöer med liten spridning och/eller långsam blekning. I sådana miljöer föreslår vi att man använder flera sändningsantenner för att på konstgjord väg framkalla stora och snabba kanalfluktuationer så att mångfald hos flera användare fortfarande kan utnyttjas. Systemet kan tolkas som opportunistisk strålformning och vi visar att verkliga strålformningsvinster kan uppnås när det finns tillräckligt många användare, även om mycket begränsad återkoppling från kanalen behövs. Dessutom spelar systemet i ett cellsystem en viktig och dubbel roll som opportunistisk upphävande av den interferens som skapas på användare av angränsande celler. Vi diskuterar designkonsekvenserna av att genomföra detta system i ett komplett trådlöst system. | Mångfalden ökar med det dynamiska utbudet av fluktuationer; det kan förbättras genom vissa dynamiska strålformande REF i miljöer med liten spridning och / eller långsam blekning. | 1,673,156 | Opportunistic Beamforming using Dumb Antennas | {'venue': 'IEEE Transactions on Information Theory', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,506 |
En metod för att hantera den statistiska ineffektiviteten i neurala nätverk är att förlita sig på extra förluster som hjälper till att bygga användbara representationer. Men det är inte alltid trivialt att veta om en extra uppgift kommer att vara till hjälp för huvuduppgiften och när det kan börja göra ont. Vi föreslår att använda cosinus likhet mellan gradienter av uppgifter som en adaptiv vikt för att upptäcka när en extra förlust är till hjälp för huvudförlusten. Vi visar att vår strategi är garanterad att konvergera till kritiska punkter av huvuduppgiften och visa den praktiska nyttan av den föreslagna algoritmen på några områden: multi-task övervakad lärande om undergrupper av ImageNet, förstärkning lärande på gridworld, och förstärkning lärande på Atari spel. | REF väljer att ignorera lutningarna av hjälpuppgifter om de inte delar en liknande riktning med huvuduppgiften. | 53,579,309 | Adapting Auxiliary Losses Using Gradient Similarity | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,507 |
ervasiva datormiljöer ökar människans tänkande och aktivitet med digital information, bearbetning och analys, vilket ger en observerad värld som förbättras av beteendesammanhanget hos dess användare. Ett spektrum av heterogena beräknings- och kommunikationsutrustningar syftar till att öka användarnas produktivitet och underlätta vardagssysslor. Trots förekomsten av sådana anordningar finns det dock ingen lämplig programvaruinfrastruktur för att utveckla tillämpningar för allmänt förekommande datamiljöer eller bostadsutrymmen. För att ta itu med denna brist utvecklade vi Gaia, ett metaoperativt system 1 (detaljerat i sidofältet "The Gaia Operating System") byggt som en distribuerad infrastruktur för mellanprogram som samordnar programvaruenheter och heterogena nätverksenheter som finns i ett fysiskt utrymme. Gaia är utformad för att stödja utveckling och utförande av bärbara applikationer för aktiva utrymmen 2 -programmerbara allmänt förekommande datormiljöer där användare interagerar med flera enheter och tjänster samtidigt. Gaia exporterar tjänster för att fråga, få tillgång till och använda befintliga resurser och sammanhang, och tillhandahåller en ram för att utveckla användarcentrerade, resursmedvetna, multienheter, sammanhangskänsliga och mobila applikationer. Genom att utvidga koncepten för traditionella operativsystem till allestädes närvarande datorutrymmen kan vi förenkla rymdhantering och applikationsutveckling. Gaias huvudsakliga bidrag är inte dess individuella tjänster utan snarare den funktionalitet som den tillhandahåller som ett resultat av interaktionen mellan dessa tjänster. Denna interaktion låter användare och utvecklare abstrakt allmänt förekommande datormiljöer som en enda reaktiv och programmerbar enhet i stället för en samling heterogena enskilda enheter. I den här artikeln presenterar vi en översikt över Gaiaarkitekturen, med fokus på hela systemet snarare än enskilda tjänster. Ett fysiskt utrymme, illustrerat i figur 1a, är en geografisk region med begränsade och väldefinierade fysiska gränser som innehåller fysiska objekt, heterogena nätverksenheter och användare som utför en rad aktiviteter. Ett aktivt utrymme, som visas i figur 1b, är ett fysiskt utrymme som samordnas av en lyhörd kontextbaserad programvaruinfrastruktur som ökar mobila användares förmåga att interagera med och konfigurera sina fysiska och digitala miljöer sömlöst. Aktiva utrymmen måste stödja utveckling och utförande av användarcentrerade mobila applikationer. I aktiva utrymmen associerar sessioner användardata och applikationer med användare. Detta gör det möjligt för användare att röra sig över aktiva utrymmen och ha sina data och applikationer alltid tillgängliga. När en användare går in i ett aktivt utrymme kartläggs användarens sessioner dynamiskt till de aktiva utrymmesresurserna. Användare kan definiera olika sessioner och kan aktivera och stänga av dem vid behov. Vi hänvisar till insamlingen av sessioner i samband med en användare som användarens virtuella utrymme. Den virtuella användaren Gaia-metaoperativsystemet utökar räckvidden för traditionella operativsystem för att hantera allmänt förekommande datormiljöer och bostadsutrymmen som integrerade programmerbara miljöer. | GAIA REF middleware är ett komplett ramverk för allmänt förekommande datorprogram. | 553,269 | A Middleware Infrastructure for Active Spaces | {'venue': 'IEEE Pervasive Computing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,508 |
Abstract-Vi föreslår användning av ofullständiga punktprodukter (IDP) för att dynamiskt justera antalet ingångar som används i varje lager av ett konvolutionellt neuralt nätverk under feedforward inference. IDP lägger monotont icke-ökande koefficienter, som kallas "profil", till kanalerna under utbildningen. Profilen beställer bidraget från varje kanal i icke-ökande ordning. Vid sluttidpunkten kan antalet kanaler som används anpassas dynamiskt för att byta ut noggrannheten mot lägre strömförbrukning och minskad latens genom att endast välja en inledande delmängd av kanalerna. Detta tillvägagångssätt gör det möjligt för ett enda nätverk att dynamiskt skala över ett beräkningsområde, i motsats till utbildning och utbyggnad av flera nätverk för att stödja olika nivåer av beräkningsskalning. Dessutom utökar vi begreppet till flera profiler, var och en optimerad för ett visst urval av beräkningsskalning. Vi presenterar experiment på beräkning och noggrannhet kompromisser av IDP för populära bildklassificeringsmodeller och dataset. Vi visar att för MNIST och CIFAR-10 minskar IDP beräkningen avsevärt, t.ex. med 75 %, utan att avsevärt kompromissa med noggrannheten. Vi hävdar att internflykting är ett bekvämt och effektivt sätt för enheter att sänka beräkningskostnaderna dynamiskt för att återspegla systemets nuvarande beräkningsbudget. Till exempel, VGG-16 med 50% IDP (med bara de första 50% av kanalerna) uppnår 70% i noggrannhet på CIFAR-10 dataset jämfört med standardnätverk som uppnår endast 35% noggrannhet när du använder den reducerade kanalset. | McDanel m.fl. REF använder ofullständiga punktprodukter för att dynamiskt justera antalet inmatningskanaler som används i varje lager. | 13,017,831 | Incomplete Dot Products for Dynamic Computation Scaling in Neural Network Inference | {'venue': '2017 16th IEEE International Conference on Machine Learning and Applications (ICMLA)', 'journal': '2017 16th IEEE International Conference on Machine Learning and Applications (ICMLA)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,509 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.