src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Ny forskning har visat att användning av ett mobilt element för att samla in och överföra data mekaniskt från ett sensornätverk har många fördelar jämfört med statisk multihop routing. Vi har också ett genomförande med ett enda mobilt element. Men nätets skalbarhet och trafik kan göra ett enda mobilt element otillräckligt. I detta dokument undersöker vi användningen av flera mobila element. Framför allt presenterar vi lastbalanseringsalgoritm som försöker balansera antalet sensornoder varje mobil elementtjänst. Vi visar genom simulering fördelarna med lastbalansering. | Eftersom användningen av en enda MULE kan vara otillräcklig för datainsamling, i REF författarna undersöka användningen av flera MULES. | 13,187,585 | Multiple Controlled Mobile Elements ( Data Mules ) for Data Collection in Sensor Networks | {'venue': 'RTCSA', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,617 |
Auditory localization studerades i ett rum avgränsat av en enda akustiskt reflekterande yta. Positionen för den ytan varierade för att simulera ett golv, ett tak, och vänster och höger sida väggar. Ytan ~as elimineras i ett tillstånd så att vi kan undersöka lokalisering i fri fält för jämförelse. Med hjälp av en källidentifieringsmetod bedömde vi påverkan av dessa olika rumskonfigurationer på lokaliseringen av både långsamma och impulsiva sinustoner av låg frekvens (500 Hz). Vi mätte också de steady-state interaural-time-difference (ITD) och interaural-intensity-difference (lID) signaler tillgängliga för försökspersoner i de olika rumskonfigurationerna och jämförde dessa data med de perceptuella bedömningarna. Våra resultat indikerar följande: (1) Ett ljud måste innehålla transienter om företrädeseffekten är att fungera som ett stöd till dess lokalisering i rum. (2) Även om transienter förekommer eliminerar inte företrädeseffekten all påverkan av rumsreflexer. (3) På grund av interferens av reflektioner kan stora interaural intensitet skillnader uppstå i ett rum och dessa har ett betydande inflytande på lokalisering; detta är sant även vid låga frekvenser för vilka lID-signaler inte existerar i ett fritt fält. (4) Lyssnare tycks ha vissa förväntningar på tillförlitligheten och rimligheten i olika riktningar och perceptuellt väga signalerna i enlighet med detta; vi föreslår att detta delvis kan förklara den stora variationen i tid-intensitet handelsförhållanden som rapporterats i litteraturen och även de olika rapporterna om betydelsen av debuter för lokalisering. (5) I denna studie finner vi att de inledande signalerna har viss betydelse för lokaliseringen även i det fria fältet. PAC-nummer: 43,66. Pn, 43.66.Qp, 43.55.Br [RDS] INLEDNING detta gav taket reflektion en ökad betydelse och stod för förbättringen av lokalisering noggrannhet. Denna uppsats är en rapport från vår andra experimentella studie Det kan vara hypothesized, mer allmänt, att varje re av auditorial lokalisering i rum. Den första studien (Hartflection kommer att påverka lokaliseringen av impulsiva toner i en mann, 1983a; refereras nedan som papper I) genomfördes på ett sätt som helt bestäms av dess azimut och av dess en variabel-akustik konsert hall-Espace de Projection ankomsttid i förhållande till ett direkt ljud. Ett av syftena med föreliggande studie (ESPRO) vid Institut de Recherche et Coordination var att ge ett direkt test av bidraget Acoustique/Musique. Väggabsorption och tak av reflektion azimut. För att göra det, behövde vi kunna maniheight av ESPL är båda manipulerbara, och deras effekter putsar riktningen för akustiska reflektioner medan preservon lokalisering undersöktes för flera olika klasser av de väsentliga egenskaperna i ett rum. Vi uppnådde detta genom ljud. Utforma ett rum där det fanns ett och endast ett anmärkningsvärt fynd i ESPLO var att den azisound-reflekterande ytan. Positionen på den ytan var stum lokalisering av impulsiva toner betydligt osystematiskt manipulerade över förhållanden så att vi bevisade när taket sänktes. Eftersom huvudmannen kunde undersöka dess inverkan på lokaliseringen och den akustiska konsekvensen av denna manipulation var att omordna effekten. ankomsttiderna av reflektioner från rummets gränser, En andra upptäckt rapporteras i papper Jag var att lyssnare vi tolkade detta resultat som ett tecken på en begränsning av de hade stora svårigheter att lokalisera lågfrekventa toner med långsam företrädeseffekt (Wallach et al., 1949; Haas, 1951; Blauert, debut. Deras högst felaktiga lokaliseringsdomar var 1971; Zurek, 1980) som den fungerar i rum.! Icke desto mindre gjordes med viss konsekvens, vilket visade Vår uppmärksamhet centrerade, särskilt på den första reflectby det faktum att variabiliteten i dessa domar var signifiktioner från taket och sidoväggar. Ett taks azimut kan inte vara mindre än en slump. Av allt att döma kunde åhörarna alltid hålla med om azimuten från en direkt utarbeta någon strategi för att lokalisera sådana ljud, även om ett ljud och, som en följd av detta, kan förväntas ha på nytt olämpligt. Som en del av det nuvarande studiet har vi påtvingat åhörarna en känsla av var de befinner sig. I motsats, azimuth ed ett experiment för att avgöra hur lyssnare försöker hantera en sidovägg reflektion motsade med ett direkt ljud med slow-o~set toner. För olika arrangemang av våra och var en potentiell källa till lokalisering fel. När rummet, vi jämförde deras uppfattningar om platsen för slowceiling sänktes, dess reflektion nådde en lyssnare mycket debuttoner med mätningar av motsvarande interearer än sidovägg reflektioner. Vi antog att aural tid och intensitet signalerar. | REF visade att efterklang har en betydande effekt på lokaliseringen även vid låga frekvenser. | 17,678,989 | Localization of sound in rooms, II: The effects of a single reflecting surface | {'venue': 'The Journal of the Acoustical Society of America', 'journal': 'The Journal of the Acoustical Society of America', 'mag_field_of_study': ['Physics', 'Medicine']} | 6,618 |
Att förse en chatbot med personlighet är utmanande men betydelsefullt för att leverera mer realistiska och naturliga samtal. I detta dokument tar vi upp frågan om att generera svar som är sammanhängande med en förspecificerad personlighet eller profil. Vi presenterar en metod som använder generiska konversationsdata från sociala medier (utan högtalares identiteter) för att generera profilsammanhängande svar. Den centrala idén är att upptäcka om en profil ska användas när man svarar på en användarpost (av en profildetektor), och vid behov välja ett nyckelvärdepar från profilen för att generera ett svar framåt och bakåt (genom en dubbelriktad dekoder) så att en personlighetssammanhängande respons kan genereras. För att utbilda den dubbelriktade avkodningen med generiska dialogdata är dessutom en positionsdetektor utformad för att förutsäga en ordposition från vilken avkodningen bör inledas med ett profilvärde. Manuell och automatisk utvärdering visar att vår modell kan ge mer sammanhängande, naturliga och diversifierade svar. | Som sådan Qian et al. REF föreslog en metod som använder en profildetektor för att välja rätt chatbot personlighet och generera personlighetssammanhängande svar. | 51,608,471 | Assigning personality/identity to a chatting machine for coherent conversation generation | {'venue': 'IJCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,619 |
Eftersom komprimerade data, som ofta används i datorsystem och kommunikationssystem, är mycket känsliga för fel, har flera metoder för felåterställning för datakomprimering föreslagits. Felåterställningsmetod för LZ77-kodning, en av de mest populära universella datakomprimeringsmetoderna, har föreslagits. Detta kan inte tillämpas på LZSS-kodning, en variant av LZ77-kodning, eftersom dess komprimerade data består av kodord med variabel längd. I detta dokument föreslås en metod för utbyte av fel för LZSS-kodning. Den felkänsliga delen av den komprimerade data kodas av unary kodning och flyttas till början av komprimerade data. Efter dessa data infogas en synkroniseringssekvens. Genom att söka i synkroniseringssekvensen detekteras fel i den felkänsliga delen. Felen återvinns med hjälp av en kopia av delen. Datorsimulering säger att kompressionsförhållandet för den föreslagna metoden är nästan lika med det för LZ77-kodning och att den har mycket hög felåterställningsförmåga. | För att upptäcka sådana fel har feldetekterings- och återvinningsmetoder för LZSS komprimerade data studerats. | 34,614,235 | Burst Error Recovery Method for LZSS Coding | {'venue': 'IEICE Transactions', 'journal': 'IEICE Transactions', 'mag_field_of_study': ['Computer Science']} | 6,620 |
Antalet kategorier för erkännande av åtgärder ökar snabbt och det har blivit allt svårare att märka tillräckliga utbildningsdata för att lära sig konventionella modeller för alla kategorier. I stället för att samla in allt fler uppgifter och märka dem uttömmande för alla kategorier är ett attraktivt alternativ "nolldshot learning" (ZSL). Därför konstruerar vi i denna studie en kartläggning mellan visuella egenskaper och en semantisk deskriptor för varje åtgärdskategori, vilket gör det möjligt att känna igen nya kategorier i avsaknad av visuella träningsdata. Befintliga ZSL-studier fokuserar främst på stillbilder och attributbaserade semantiska representationer. I detta arbete utforskar vi ordvektorer som det delade semantiska utrymmet för att bädda in videor och kategorietiketter för ZSL actionigenkänning. Detta är ett mer utmanande problem än befintliga ZSL av stillbilder och / eller attribut, eftersom kartläggningen mellan video rum-tid funktioner åtgärder och det semantiska utrymmet är mer komplex och svårare att lära sig i syfte att generalisera över alla gränsöverskridande domänskifte. För att lösa detta generaliseringsproblem i ZSL åtgärd erkännande, undersöker vi en rad synergistiska strategier för att förbättra på standard ZSL pipeline. De flesta av dessa strategier är av transduktiv karaktär, vilket innebär tillgång till testdata i utbildningsfasen. För det första förbättrar vi avsevärt den semantiska rymdkartläggningen genom att föreslå flera regressions- och dataregulariserade regressionsstrategier. För det andra utvärderar vi två befintliga efterbehandlingsstrategier (transduktiv självträning och navighetskorrigering) och visar att de kompletterar varandra. Vi utvärderar utförligt vår modell på ett brett spektrum av mänskliga åtgärder dataset inklusive HMDB51, UCF101, Olympic Sports och event dataset inklusive CCV och TRECVID MED 13. Resultaten visar att vår strategi uppnår den senaste noll-shot-insatsen med en enkel och effektiv pipeline, och utan övervakad notering av attribut. Slutligen lägger vi fram en djupgående analys av varför och när noll-shot fungerar, inklusive att visa förmågan att förutsäga överföringsbarhet i olika kategorier i förväg. | REF utforska ordvektorer som ett delat semantiskt utrymme för att bädda in etiketter och videor för ZSAR. | 3,307,381 | Transductive Zero-Shot Action Recognition by Word-Vector Embedding | {'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']} | 6,621 |
Abstract-Guarantee timing egenskaper är en viktig fråga eftersom vi utvecklar säkerhetskritiska realtidssystem såsom hjärta pacemakers. Vi presenterar en säker utvecklingsstrategi för realtidsprogramvara med en pacemaker som fallstudie. Med hjälp av modellbaserade utvecklingsmetoder används mätbaserad timingsanalys för att garantera timingegenskaper såväl vid implementering som i den formella modellen. Formell specifikation med tidsinställd automata kontrolleras med avseende på timingegenskaper med modellkontrollteknik och omvandlas systematiskt till implementering. När tidpunktsegenskaper kan brytas vid genomförandet på grund av tidsfördröjning föreslås det att tidsavvikelsen mäts och återspeglas i koden uttryckligen genom att vakterna ändras. Modellen ändras enligt ändringarna i koden. Dessa ändringar av koden och modellen anses säkra om alla egenskaper fortfarande uppfylls av den modifierade modellen vid omformad modellkontroll. Vi visar hur det föreslagna tillvägagångssättet kan tillämpas på enkelgängade och flertrådiga versioner av genomförandet. Detta tillvägagångssätt kan ge utvecklare en användbar tidsgarantiteknik som är tillämplig på flera kodgenereringssystem utan att införa många restriktioner. | Jee och al. presentera en säker utvecklingsmetod i realtid programvara med pacemaker som sin fallstudie i REF. | 14,241,156 | A Safety-Assured Development Approach for Real-Time Software | {'venue': '2010 IEEE 16th International Conference on Embedded and Real-Time Computing Systems and Applications', 'journal': '2010 IEEE 16th International Conference on Embedded and Real-Time Computing Systems and Applications', 'mag_field_of_study': ['Computer Science']} | 6,622 |
Vi visar att det finns, för varje sluten avgränsad konvex uppsättning C i Euclidean planet med icketomma interiör, en fyrhörning Q med följande två egenskaper. Dess sidor stöder C på hörnen av en rektangel r och minst tre av hörnen i Q ligger på gränsen till en rektangel R som är en utvidgning av r med förhållande 2. Vi kommer att bevisa att detta innebär att fyrhörning Q finns i rektangel R och att den inre approximationen r av C följaktligen har en yta på minst hälften av ytan av den yttre approximationen Q av C. Beviset använder sig av justering eller Schüttelung, en operation på konvexa uppsättningar. | För en finare inre och yttre approximation visade Brinkhuis REF att det finns en fyrhörning Q som dess sidor stöder C på hörnen av en rektangel r och minst tre av dess hörn ligger på gränsen till en rektangel R som är en utvidgning av r med förhållande 2. | 28,088,964 | Inner and outer approximation of convex sets using alignment | {'venue': None, 'journal': 'Optimization Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,623 |
Abstrakt. Två mobila agenter med distinkta identifierare och lokaliserade i noder av en okänd anonym ansluten graf, måste mötas på någon nod av grafen. Vi söker snabba deterministiska algoritmer för detta mötesproblem, under två scenarier: samtidig start, när båda agenterna börjar utföra algoritmen samtidigt, och godtycklig start, när starttiderna för agenterna godtyckligt bestäms av en motståndare. Mätningen av prestanda för en mötesplatsalgoritm är dess kostnad: för en given initial placering av agenter i en graf, är detta antalet steg sedan starten av den senare agenten tills mötesplatsen uppnås. Vi visar först att mötesplatsen kan slutföras till priset O(n + log l) på alla n-node träd, där l är den mindre av de två identifierarna, även med godtycklig start. Denna komplexitet i kostnaderna kan inte förbättras för vissa träd, inte ens vid samtidig start. Effektivt möte i träd bygger på snabb nätverksprospektering och kan inte användas när grafen innehåller cykler. Vi studerar vidare det enklaste nätverket, d.v.s. ringen. Vi bevisar att, med samtidig start, optimal kostnad för mötesplats på varje ring är (D log l), där D är det ursprungliga avståndet mellan agenter. Vi fastställer också gränser för möteskostnader i ringar med godtycklig start. För godtyckliga uppkopplade grafer är vårt huvudbidrag en deterministisk mötesplatssalgoritm med kostnadspolynom i n, τ och log l, där τ är skillnaden mellan starttiderna för agenterna. Vi visar också en lägre gräns (n 2 ) på kostnaden för mötesplats i vissa familj av grafer. Om samtidig start antas, vi konstruera en generisk mötesplats algoritm, arbetar för alla anslutna grafer, vilket är optimalt för klassen av grafer av begränsad grad, om det initiala avståndet mellan agenter begränsas. | I REF presenterade författarna en mötesplats algoritm vars körtid är polynom i storleken på grafen, längden på den kortare etiketten och fördröjningen mellan starttiderna för agenterna. | 27,400,822 | Deterministic Rendezvous in Graphs | {'venue': 'Algorithmica', 'journal': 'Algorithmica', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,624 |
Detta papper handlar om rörbaserad modellprediktiv styrning (MPC) för både linjära och ickelinjära, in-affin kontinuerliga tidsdynamiska system som påverkas av tidsvarierande störningar. Vi härleder en min-max differential ojämlikhet som beskriver stödfunktionen hos positiva robusta framåt invarianta rör, som kan användas för att konstruera en mängd olika rörbaserade modell prediktiva regulatorer. Dessa konstruktioner är konservativa, men beräkningsbar och deras komplexitet skalor linjärt med längden på prognoshorisonten. I motsats till många befintliga rörbaserade MPC-implementationer, innebär det föreslagna ramverket inte diskretisering av kontrollpolitiken och därför är konservatismen hos det förutsagda röret enbart beroende av noggrannheten hos den inställda parameteriseringen. Den föreslagna metoden används sedan för att konstruera ett robust MPC-system baserat på rör med ellipsoida tvärsnitt. Detta ellipsoidal MPC system bygger på att lösa ett optimalt kontrollproblem under linjär matris ojämlikhet begränsningar. Vi illustrerar dessa resultat med den numeriska fallstudien av ett fjädermasse-dämpande system. | I REF beräknas ett rör online inom MPC optimeringsproblem baserat på Min-Max differential ojämlikhet. | 26,636,484 | Robust MPC via Min-Max Differential Inequalities | {'venue': None, 'journal': 'arXiv: Optimization and Control', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,625 |
Abstrakt. Djupuppskattning från en enda bild är ett grundläggande problem i datorseendet. I detta dokument föreslår vi en enkel men effektiv konvolutionell rumslig utbredningsnätverk (CSPN) för att lära affinitetsmatrisen för djupförutsägelse. Specifikt, vi antar en effektiv linjär förökning modell, där förökning utförs med ett sätt att återkommande konvolutionell operation, och affiniteten mellan angränsande pixlar lärs genom en djup convolutional neurala nätverk (CNN). Vi använder den designade CSPN till två djupuppskattning uppgifter ges en enda bild: (1) Förfina djuputgången från befintliga state-of-the-art (SOTA) metoder; (2) Konvertera glesa djup prover till en tät djup karta genom att inbädda djupprover inom förökningsproceduren. Den andra uppgiften är inspirerad av tillgängligheten av LiDAR som ger glesa men exakta djupmätningar. Vi experimenterade den föreslagna CSPN över de populära NYU v2 [1] och KITTI [2] dataset, där vi visar att vårt föreslagna tillvägagångssätt förbättrar inte bara kvalitet (t.ex. 30% mer minskning av djupfel), men också hastighet (t.ex. 2 till 5× snabbare) av djupkartor än tidigare SOTA-metoder. | Cheng m.fl. I REF föreslogs ett konvolutionellt rumsligt utbredningsnät (CSPN) för att lära sig affinitetsmatrisen för djupuppskattning från en enda bild. | 51,894,020 | Depth Estimation via Affinity Learned with Convolutional Spatial Propagation Network | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,626 |
Användningen av hårdvarubaserade datastrukturer för att påskynda realtids- och inbyggda systemtillämpningar begränsas av hårdvaruresursernas knapphet. Eftersom hårdvarudatastrukturerna begränsas av det kiselområde som finns tillgängligt, kan de inte lika lätt skalas i storlek som motsvarande programvara. Vi hävdar en hårdvara-programvara co-design tillvägagångssätt krävs för att elegant övervinna dessa begränsningar. I detta papper presenterar vi en hybrid prioritet kö arkitektur som innehåller en hårdvara accelererad binär hög som också kan hanteras i programvara när köstorleken överskrider hårdvarugränser. Ett minne kartlagt gränssnitt ger programvara med tillgång till prioritetsqueue strukturerad on-chip minne, vilket möjliggör snabba och låga overhead övergångar mellan hårdvara och programvara hantering. Som en tillämpning av denna hybrid arkitektur, presenterar vi en skalbar aktivitet schemaläggare för realtidssystem som minskar schemaläggning bearbetning overhead och förbättrar timing determinism av schemaläggaren. Nyckelord: prioriterad kö; hårdvara-programvara co-design; realtid och inbyggda system; hårdvara schemaläggare. Hänvisning till detta dokument ska göras enligt följande: Kumar, N.G.C., Vyas, S., Cytron, R.K., Gill, C.D., Zambreno, J. and Jones, P.H. (2014) Christopher D. Gill är professor i datavetenskap och datateknik vid Washington University i St. Louis. Hans forskning omfattar formell modellering, verifiering, implementering och empirisk utvärdering av policyer och mekanismer för att upprätthålla timing, samstämmighet, fotavtryck, feltolerans och säkerhetsegenskaper i distribuerade, mobila, inbyggda, realtids- och cyberfysiska system. Han utvecklade Kokyu realtid schemaläggning och leverans ram som används i flera AFRL och DARPA projekt och flygdemonstrationer, och ledde utvecklingen av nORB small-footprint realtid objektförfrågan mäklare vid Washington University. Han har över 60 refererade tekniska publikationer och har ett omfattande serviceregister i granskningspaneler, standardiseringsorgan, workshops och konferenser för distribuerade, i realtid, inbyggda och it-fysiska system. | Kumar m.fl. REF presenterar en hybrid prioriterad kö arkitektur och en skalbar aktivitet schemaläggare för realtidssystem som minskar schemaläggning bearbetning overhead och förbättrar timing determinism av schemaläggaren. | 8,812,255 | Hardware-software architecture for priority queue management in real-time and embedded systems | {'venue': 'IJES', 'journal': 'IJES', 'mag_field_of_study': ['Computer Science']} | 6,627 |
Abstract-In deltagaranalys deltar användare med mobila enheter i insamlingen av miljöinformation runt omkring dem och lämnar in insamlade data till en central server för behandling och analys. Identitetsintegritet för mobila användare i denna modell är ett stort problem som hindrar antagandet av denna modell för datainsamling. Dessutom är bandbredden och datorkapaciteten begränsad för mobila enheter. Tyvärr är de flesta tidigare föreslagna metoderna för användaranonymitet inte särskilt utformade för mobila miljöer och därför är resursbegränsning inte huvudfokus för deras lösningar. I detta dokument föreslår vi enkelriktade, anonyma sensoriska datainsamlingsmetoder som utformats särskilt för mobila miljöer för medverkande. Vår metod använder peer-to-peer-nätverk för att underlätta anonym dataöverföring för att skydda avsändarens identitet, men den faktiska data nyttolasten skickas inte via jämlikar. För datapaket tar vi bort avsändarens information och överför via en direkt sökväg till servern. Eftersom data inte kopieras till flera jämlikar som i vissa tidigare lösningar, vår design förbrukar mindre resurser. Experimenten visar att vårt tillvägagångssätt använder mindre bandbredd och uppnår högre skalbarhet än befintliga tekniker. | I REF föreslogs en anonym sensorisk datainsamling som utformats särskilt för mobila miljöer. | 13,621,065 | Anonymous Sensory Data Collection Approach for Mobile Participatory Sensing | {'venue': '2012 IEEE 28th International Conference on Data Engineering Workshops', 'journal': '2012 IEEE 28th International Conference on Data Engineering Workshops', 'mag_field_of_study': ['Computer Science']} | 6,628 |
Vi anser att det är ett klassiskt k-center problem i träd. Låt T vara ett träd av n hörn och varje vertex har en icke-negativ vikt. Problemet är att hitta k centra på kanterna av T sådan att den maximala viktade avståndet från alla hörn till deras närmaste centra minimeras. Megiddo och Tamir (SIAM J. Comput., 1983) gav en algoritm som kan lösa problemet i O(n log 2 n) tid genom att använda Coles parametriska sökning. Sedan dess har det varit öppet i över tre decennier om problemet kan lösas i O(n log n) tid. I detta dokument presenterar vi en O(n log n) tid algoritm för problemet och därmed lösa det öppna problemet positivt. I denna uppsats studerar vi ett klassiskt k-center problem i träd. Låt T vara ett träd av n hörn. Varje kant e(u, v) förbinder två hörn u och v har en positiv längd d(u, v), och vi betraktar kanten som en linje segment av längd d(u, v) så att vi kan tala om "punkter" på kanten. För två punkter p och q av T, Det finns en unik väg i T från p till q, betecknad av π(p, q), och genom att något missbruka notationen, Vi använder d(p, q) för att beteckna längden av π(p, q). Varje vertex v av T är associerad med en vikt w(v) ≥ 0. K-center problemet är att beräkna en uppsättning Q av k punkter på T, kallas centra, sådan att den maximala viktade avståndet från alla hörn av T till sina närmaste centra minimeras, eller formellt, värdet max v och V (T ) min q.Q {w(v) · d(v, q)} minimeras, där V (T ) är vertex uppsättning av T. Observera att varje centrum kan vara i det inre av en kant av T. Kariv och Hakimi [20] först gav en O (n 2 log n) tid algoritm för problemet. Jeger och Kariv [19] föreslog en tidsalgoritm för O(kn log n). Megiddo och Tamir [25] löste problemet i O(n log 2 n log n) tid, och körtiden för deras algoritm kan reduceras till O(n log 2 n) genom att tillämpa Coles parametriska sökning [12]. Vissa framsteg har nyligen gjorts av Banik et al. [3], där en O(n log n+k log 2 n log(n/k))-tidsalgoritm och en annan O(n log n+k 2 log 2 (n/k))-tidsalgoritm gavs, och båda algoritmerna föredrar små värden av k. Sedan Megiddo och Tamirs arbete [25] har det varit öppet om problemet kan lösas i O(n log n) tid. I detta dokument löser vi detta tre-decenniens långa öppna problem positivt genom att presentera en O (n log n)-tidsalgoritm. Observera att den tidigare O(n log 2 n)-tidsalgoritmen [12, 25] och den första algoritmen [3] båda bygger på Coles parametriska sökning, vilket innebär en stor konstant i tid komplexitet på grund av AKS sorteringsnätverk [2]. Men vår algoritm undviker Coles parametriska sökning. Om varje centrum krävs för att vara lokaliserad en vertex av T, Sedan kallar vi det det diskret fall. Den tidigare mest kända algoritmen för detta fall körs i O(n log 2 n) tid [26]. Våra tekniker löser också det diskreta fallet i O(n log n) tid. Många variationer av k-centerproblemet har studerats. Om k = 1, då problemet kan lösas i O(n) tid [23]. Om T är en väg, K-center problemet var redan löst i O(n log n) tid [9, 12, 25], och Bhattacharya och Shi [4] gav också en algoritm vars körtid är linjär i n men exponentiell i k. För det oviktade fallet där hörn av T har samma vikt, en O(n 2 log n)-tid algoritm gavs i [8] för k-center problem. Senare, Megiddo et al. [26] löste problemet i O(n log 2 n) tid, och algoritmen förbättrades till O(n log n) tid [17]. Slutligen löste Frederickson [16] problemet på O(n) tid. Ovanstående fyra papper också lösa det diskreta fallet och följande problemversionen i samma körtider: Alla punkter i T anses som efterfrågepunkter och centra är skyldiga att vara på hörn av T. Vidare, om alla punkter i T är efterfrågepunkter och centra kan vara några punkter i T, Megiddo och Tamir löst problemet i O (n log 3 n) tid [25], och körtiden kan minskas till O (n log 2 n) genom att tillämpa Coles parametriska sökning [12]. Som relaterade problem, Frederickson [15] presenterade O(n)-tid algoritmer för följande träd partitionering problem: ta bort k kanter från T så att den maximala (resp., minimum) totalvikten av alla anslutna delträd minimeras (resp., maximerad). Att hitta k-centra i en allmän graf är NP-hård [20]. Den geometriska versionen av problemet i planet är också NP-hård [24], dvs. att hitta k-centra för n krävande punkter i planet. Vissa specialfall kan dock lösas i polynom tid. Om t.ex. k = 1, kan problemet lösas i O(n) tid [23], och om k = 2, kan det lösas i O(n log 2 n log 2 log n) tid [7] (även hänvisa till [1] för en snabbare randomiserad algoritm). Om vi kräver att alla centra ska vara på en given linje, då problemet med att hitta k centra kan lösas i polynom tid [5, 21, 27]. Nyligen har problem med osäkra data studerats i stor utsträckning och vissa k-centerproblemvariationer på osäkra data har också beaktats, t.ex. [13, 18, 28, 29, 30, 31]. | Wang och Zhang REF gav nyligen en O (n log n) tidsalgoritm för problemet. | 3,755,961 | An O(n\log n)-Time Algorithm for the k-Center Problem in Trees | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,629 |
Radiofrekvens (RF) möjliggör trådlös energiöverföring (WET), som en lovande lösning för att tillhandahålla kostnadseffektiva och tillförlitliga nätaggregat för energianslutna trådlösa nät, har på senare tid väckt växande intresse. För att övervinna den betydande spridningsförlusten över avstånd, med flera antenner vid energitransmittern (ET) till effektivare direkt trådlös energi till önskade energimottagare (ERs), kallas energi strålformning, är en viktig teknik för att möjliggöra WET. Den uppnåeliga vinsten av energiformning beror dock på tillgänglig kanalstatsinformation (CSI) vid ET, som måste förvärvas i praktiken. I detta dokument studerar vi utformningen av en effektiv kanal förvärvsmetod för en point-to-point multipleinput multiple-output (MIMO) WET-system genom att utnyttja kanalen ömsesidighet, dvs ET uppskattar CSI via dedikerad omvänd länk utbildning från ER. Med tanke på den begränsade energitillgången vid ER bör utbildningsstrategin vara noggrant utformad så att kanalen kan uppskattas med tillräcklig noggrannhet och ändå utan att förbruka alltför mycket energi vid ER. I detta syfte föreslår vi att man maximerar den nettoskördade energin vid ER, vilket är den genomsnittliga avverkade energin som kompenseras av den som används för kanalutbildning. Ett optimeringsproblem är formulerat för träningen design över MIMO Rician blekningskanaler, inklusive den delmängd av ER antenner som ska tränas, samt den träningstid och makt tilldelade. Closed-form lösningar erhålls för vissa speciella scenarier, baserat på vilka användbara insikter dras när utbildning bör användas för att förbättra nätet överförd energi i MIMO WET-system. Index Terms-Wireless energiöverföring (WET), energi strålformning, kanal utbildning, RF energi skörd. | Zeng och Zhang REF koncentrerar sig på utformningen av en effektiv CSI förvärvsmetod för en P2P MIMO WPT-system, dvs energitransmittern kan uppskatta CSI via dedikerad omvänd länk utbildning från energimottagaren. | 3,543,648 | Optimized Training Design for Wireless Energy Transfer | {'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,630 |
Abstrakt. I verkliga tidsscenarier är osäkerhet och preferenser ofta viktiga, samtidigt existerande aspekter. Vi presenterar en formalism där tidsbundna begränsningar med både preferenser och osäkerhet kan definieras. Vi visar hur tre klassiska begrepp om kontroll (stark, svag och dynamisk), som har utvecklats för osäkra temporalproblem, kan generaliseras för att hantera även preferenser. Vi föreslår sedan algoritmer som kontrollerar förekomsten av dessa egenskaper och vi bevisar att, i allmänhet, hantering samtidigt med preferenser och osäkerhet inte ökar komplexiteten utöver de enskilda fallen. I synnerhet utvecklar vi en dynamisk exekveringsalgoritm, av polynomisk komplexitet, som producerar planer under osäkerhet som är optimala w.r.t. Preferenser. Forskning om tidsresonemang, som en gång exponerats för de verkliga problemens svårigheter, saknar både uttrycksförmåga och flexibilitet. För att komma till rätta med bristen på uttrycksförmåga kan preferenser läggas till den tidsmässiga ramen; för att ta itu med bristen på flexibilitet till oförutsedda händelser kan resonemang om osäkerhet läggas till. I detta dokument inför vi en ram för att hantera både preferenser och osäkerhet i tidsproblem. Detta görs genom att slå samman de två befintliga modellerna av enkla tidsmässiga problem med preferenser [5] och enkla tidsmässiga problem under osäkerhet (STPU). Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. Vi antar begreppet kontroll av STPU, som ska användas i stället för konsekvens på grund av förekomsten av osäkerhet, och vi anpassar det för att hantera preferenser. Den föreslagna ramen, Simple Temporal Problem med Preferenser och Osäkerhet (STPPUs), representerar temporal problem med preferenser och osäkerhet via en uppsättning variabler, som representerar start- eller sluttider av händelser (som kan vara kontrollerbara eller inte), och en uppsättning mjuka temporal begränsningar över variablerna. Varje begränsning omfattar ett intervall som innehåller de tillåtna varaktigheterna för händelsen eller tillåtna interleaving tider mellan händelser, och en preferensfunktion som associerar varje del av intervallet med ett värde som motsvarar hur mycket dess föredragna. Sådana mjuka begränsningar kan definieras på både kontrollerbara och okontrollerbara händelser. Exempel på verkliga problem med tidsbundna begränsningar, preferenser och osäkerhet kan lätt hittas inom flera tillämpningsområden (t.ex. [7]............................................................................................................................ Här beskriver vi i detalj ett sådant problem, som uppstår i en rymdprogramdomän. Problemet gäller planering av flottor av jordobservationssatelliter (EOS) [4]. Detta planeringsproblem omfattar flera satelliter, hundratals förfrågningar, begränsningar på när och hur man ska betjäna varje begäran, och flera resurser. Vetenskapsmän begär att få jordbilder från rymden. Efter bilddata förvärvas av en EOS, kan det antingen nedlänkas i realtid eller registreras ombord för uppspelning vid en senare tidpunkt. Markstationer eller andra satelliter är tillgängliga för att ta emot nedlänkade bilder. Varje satellit kan kommunicera | Nära släkt med fuzzy nätverk är STNUs med preferenser, REF studier enkel Temporal problem med inställningar och osäkerhet. | 7,777,461 | Controllability of soft temporal constraint problems | {'venue': 'In Proc. of CP’04, LNCS 3258', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,631 |
Abstract-För att förlänga livslängden för sensornätverk, har olika schemaläggning system utformats för att minska antalet aktiva sensorer. Vissa schemaläggningsstrategier, såsom schemaläggning av partiell täckning och schemaläggning av måltäckning, kan dock resultera i frånkopplade topologier för nätverk, på grund av den låga densiteten hos de aktiva noderna. I sådana fall kan traditionella routingalgoritmer inte tillämpas, och den kortaste sökvägen som upptäcks av dessa algoritmer kanske inte har minsta latens för paketleverans. I detta dokument tar vi upp problemet med att hitta minimala latensvägar i intermittent anslutna sensornätverk genom att föreslå en minsta latens (ODML) routingalgoritm på begäran. Eftersom routingalgoritm på begäran inte fungerar bra när källan och destinationen ofta kommunicerar med varandra, föreslår vi två proaktiva minsta latency routingalgoritmer: optimal-PML och snabb-PML. Teoretiska analyser och simuleringsresultat visar att (1) ODML effektivt kan identifiera minimala latensvägar som har mycket mindre latens än den kortaste vägen, och (2) optimal-PML kan minimera routing budskapet overhead och snabb-PML kan avsevärt minska fördröjningen rutt förvärv. | Su m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. föreslå både on-demand och proaktiva algoritmer för routing paket i intermittent anslutna sensornätverk REF. | 75,342 | Routing in intermittently connected sensor networks | {'venue': '2008 IEEE International Conference on Network Protocols', 'journal': '2008 IEEE International Conference on Network Protocols', 'mag_field_of_study': ['Computer Science']} | 6,632 |
I detta dokument presenteras en undersökning av nyttan av dokumentsammanfattning i samband med informationshämtning, närmare bestämt i samband med tillämpningen av s.k. frågesidiga (eller användarstyrda) sammanfattningar: sammanfattningar anpassade för att återspegla det informationsbehov som uttrycks i en fråga. Anställd i den hämtade dokumentlistan som visades efter att en hämtning ägt rum utvärderades sammanfattningarnas verktyg i en uppgiftsbaserad miljö genom att mäta användarnas hastighet och noggrannhet när det gäller att identifiera relevanta dokument. Detta jämfördes med den prestanda som uppnåddes när användarna presenterades med den mer typiska utmatningen av ett IR-system: en statisk fördefinierad sammanfattning bestående av titeln och de första meningarna av hämtade dokument. Resultaten från utvärderingen visar att användningen av frågeförväntade sammanfattningar avsevärt förbättrar både noggrannheten och hastigheten i bedömningarna av användarnas relevans. | Tombros och Sanderson REF utröna vikten av frågefördomar i snippets för att maximera noggrannheten och hastigheten hos slutanvändare i att plocka relevanta resultat. | 3,835,265 | Advantages of query biased summaries in information retrieval | {'venue': "SIGIR '98", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,633 |
Abstract-I detta dokument identifierar vi först några unika designkrav i aspekter av säkerhet och integritet bevarande för kommunikation mellan olika kommunikationsenheter i fordonsspecifika ad hoc-nätverk. Vi föreslår sedan en säker och integritetsbevarande protokoll baserat på gruppsignaturer och identitet (ID)-baserade signaturtekniker. Vi visar att det föreslagna protokollet inte bara kan garantera kraven på säkerhet och integritet utan också kan ge den önskade spårbarheten för varje fordon i de fall då meddelandets avsändares identitet måste avslöjas av myndigheten för eventuella tvistehändelser. Omfattande simulering genomförs för att verifiera effektiviteten, effektiviteten och tillämpligheten av det föreslagna protokollet i olika tillämpningsscenarier under olika vägsystem. Index Villkor-villkor integritet, gruppsignatur, identitet (ID)-baserad signatur, säkerhet, fordonskommunikation. | Sekretess kan också uppnås genom att använda gruppsignaturer REF. | 5,884,878 | GSIS: A Secure and Privacy-Preserving Protocol for Vehicular Communications | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']} | 6,634 |
Utvinning av kurvskaletoner är ett grundläggande problem med många tillämpningar inom datorgrafik och visualisering. I det här dokumentet presenterar vi en enkel och robust metod för skelettextraktion baserad på nätsammandragning. Metoden fungerar direkt på meshdomänen, utan att presampling meshmodellen till en volymetrisk representation. Metoden drar först samman meshgeometrin till en nollvolymskelettform genom att applicera implicit laplacian utjämning med globala positionsbegränsningar. Sammandragningen ändrar inte nätanslutningen och behåller de viktigaste egenskaperna hos den ursprungliga maskan. Den kontrakterade mesh omvandlas sedan till en 1D curvesketon genom en anslutning kirurgi för att ta bort alla kollapsade ansikten samtidigt som formen på den kontrakterade mesh och den ursprungliga topologin. Den centreradhet i skelettet förfinas genom att utnyttja den inducerade skelett-mesh kartläggning. Förutom att producera ett kurvskelett genererar metoden annan värdefull information om objektets geometri, särskilt skelettvertexkorrespondensen och den lokala tjockleken, som är användbara för olika tillämpningar. Vi visar dess effektivitet i mesh segmentering och flå animation. | Forskare genererar också skelett baserat på mesh kontraktion REF. | 31,747,017 | Skeleton extraction by mesh contraction | {'venue': "SIGGRAPH '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,635 |
ABSTRACT Med expansionen av trådlösa nätverk över hela världen och den höga tillväxttakten i användningen av sofistikerade program i mobila enheter har användarnas förväntningar på de tjänster som tillhandahålls av dessa enheter ökat. Mobila enheter har vissa begränsningar, såsom batteritid och processorkraft för att leverera alla typer av tjänster till användare. Under de senaste åren har mobila molntjänster, som är en fenomenal gren av molntjänster, utvecklats avsevärt i datagemenskapen. Genom att överväga fördelen med avlastning till molnet, kan begränsningarna för mobila enheter övervinnas i stor utsträckning. En mobil enhet kan konverteras till en kraftfull enhet genom att använda molnresurser. De stora utmaningarna när det gäller avlastning är att hitta en optimal lösning på problemet med avlastning för att komma till rätta med dessa begränsningar. I detta papper, avlastning modelleras via en matematisk graf där både Wi-Fi och 3G länkar är frågor av betydelse. Att hitta den bästa lösningen för avlastning är detsamma som att hitta den begränsade kortaste vägen i denna graf. Genom att överväga K-LARAC och M-LARAC heuristiska algoritmer, introduceras en ny heuristisk algoritm för att hitta den optimerade vägen som kan bedöma energi och fördröja, till ett minimum, finansiella kostnader. Denna väg är en lämplig lösning på problemet med avlastning. De erhållna resultaten visar att den konstruerade algoritmen kan hitta en godtycklig approximation lösning för avlastningsproblem med låg komplexitet jämfört med befintliga algoritmer. | I REF modelleras avlastningen via en kostnadsgraf, där det är likvärdigt att hitta den bästa lösningen för avlastning med att hitta den kortaste vägen i denna linjära graf. | 3,956,973 | An Offloading Strategy in Mobile Cloud Computing Considering Energy and Delay Constraints | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 6,636 |
Vi fortsätter att studera effekterna av själviskt beteende i problemet med nätverksdesign. Vi tillhandahåller nya gränser för priset på stabilitet för nätdesign med rättvis kostnadsfördelning för oriktade grafer. Vi anser att det mest allmänna fallet, för vilket den mest kända övre gränsen är Harmonic nummer H n, där n är antalet agenter, och den mest kända nedre gränsen är 12/7 och 1.778. Vi presenterar en icke-trivial nedre gräns på 42/23 och 1.8261. Dessutom visar vi att för två spelare är priset på stabilitet exakt 4/3, medan för tre spelare är det minst 74/48 på 1.542 och högst 1.65. Detta är de första förbättringarna på gränsen till H n för allmänna nät. I synnerhet visar detta en åtskillnad mellan priset på stabilitet på oriktade grafer och priset på riktade grafer, där H n är tight. Tidigare var en sådan lucka bara känd för de fall där alla spelare har en delad källa, och för vägda spelare. | Detta var den bästa nedre gränsen känd för flera källor fallet samt fram till det senaste arbetet av Christodoulou et al. REF som presenterade en förbättrad nedre gräns på 42/23 och 1,826. | 1,265,545 | On the price of stability for undirected network design. WAOA | {'venue': 'Lecture Notes in Computer Science', 'journal': 'Lecture Notes in Computer Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,637 |
Även delvis automatiserade, utveckla schema kartläggningar förblir en komplex och potentiellt felbenägen uppgift. I detta dokument presenterar vi TRAMP (Transformation Mapping Provenance), en omfattande uppsättning verktyg som stöder felsökning och spårning av schemakartläggningar och omvandlingsfrågor. TRAMP kombinerar och utökar data härkomsten med två nya begrepp, omvandlingens härkomst och kartläggningens härkomst, för att förklara sambandet mellan omvandlade data och de omvandlingar och kartläggningar som producerade dessa data. Dessutom tillhandahåller vi frågestöd för transformationer, data och alla former av härkomst. Vi definierar formellt omvandling och kartläggning härkomst, presenterar ett effektivt genomförande av båda formerna av härkomst, och utvärderar det resulterande systemet genom omfattande experiment. | I REF utvecklade forskarna en uppsättning verktyg som heter TRAMP som kan stödja felsökning och spår av schemakartläggningar och omvandlingsfrågor. | 5,107,747 | TRAMP: Understanding the Behavior of Schema Mappings through Provenance | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 6,638 |
I en övervakningskameramiljö är upptäckten av stående grisar i realtid en viktig fråga mot det slutliga målet med 24-h-spårning av enskilda svin. I denna studie fokuserar vi på djupbaserad upptäckt av stående grisar med "rörliga ljud", som förekommer varje kväll på en kommersiell grisfarm, men som ännu inte har rapporterats. Vi använder först en spatiotemporal interpolation teknik för att ta bort de rörliga ljud som förekommer i djupbilder. Sedan upptäcker vi stående grisar genom att använda odefinierade djupvärden runt dem. Våra experimentella resultat visar att denna metod är effektiv för att upptäcka stående grisar på natten, både vad gäller kostnadseffektivitet (med hjälp av en lågkostnads Kinect djupsensor) och noggrannhet (dvs. 94,47%), även med svåra rörelsebuller som fortsätter upp till hälften av en ingång djup bild. Dessutom, utan någon tidskrävande teknik, kan den föreslagna metoden utföras i realtid. | Kim och Al. I REF föreslogs en metod för att upptäcka stående svin med hjälp av en Kinect-kamera, där tidsbuller i djupavbildningarna avlägsnas genom att tillämpa spatiotemporal interpolering, och då uppnås detektion genom att använda kantdetektering baserad på de odefinierade djupvärdena runt svinen. | 7,130,840 | Depth-Based Detection of Standing-Pigs in Moving Noise Environments | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Engineering']} | 6,639 |
Tidigare forskning har visat att Staged Execution (SE), dvs., dela ett program i segment och utföra varje segment i kärnan som har data och / eller funktionalitet för att bäst köra det segmentet, kan förbättra prestanda och spara kraft. SE:s fördelar är dock begränsade eftersom de flesta segment har tillgång till intersegmentsdata, dvs. data som genererats av det tidigare segmentet. När på varandra följande segment kör på olika kärnor, åtkomst till inter-segment data medför cache missar, vilket minskar prestanda. I detta dokument föreslås Data Marshalsing (DM), en ny teknik för att eliminera cache missar till inter-segment data. DM använder profilering för att identifiera instruktioner som genererar inter-segment data, och lägger bara 96 bytes / kärna av lagring overhead. Vi visar att DM avsevärt förbättrar prestandan hos två lovande stegvisa utförandemodeller, Accelererade kritiska sektioner och produktions-konsument pipeline parallellism, på både homogena och heterogena flerkärniga system. I båda modellerna, DM kan uppnå nästan alla möjligheter att helst eliminera cache missar till inter-segment data. DM: s prestanda nytta ökar med antalet kärnor. | Data Marshalsing REF minskar inter-core data missar i Staged Execution modeller. | 16,097,300 | Data marshaling for multi-core architectures | {'venue': "ISCA '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,640 |
Abstract-Automatisk språklig indexering av bilder är ett viktigt men mycket utmanande problem för forskare i datorseende och innehållsbaserad bildsökning. I detta dokument inför vi en statistisk modellering av detta problem. Kategoriserade bilder används för att utbilda ett lexikon med hundratals statistiska modeller som var och en representerar ett koncept. Bilder av ett givet begrepp betraktas som exempel på en stokastisk process som kännetecknar begreppet. För att mäta omfattningen av associationen mellan en bild och textbeskrivningen av ett begrepp beräknas sannolikheten för att bilden uppstår baserat på den karaktäriserande stokastiska processen. En hög sannolikhet tyder på en stark koppling. I vårt experimentella genomförande fokuserar vi på en särskild grupp av stokastiska processer, det vill säga de tvådimensionella multiupplösnings dolda Markov-modellerna (2D MHMM). Vi implementerade och testade vårt ALIP-system (Automatic Linguistic Indexing of Pictures) på en fotografisk bilddatabas med 600 olika koncept, var och en med cirka 40 träningsbilder. Systemet utvärderas kvantitativt med mer än 4 600 bilder utanför utbildningsdatabasen och jämförs med slumpmässig annotering. Experiment har visat den goda noggrannheten i systemet och dess höga potential i språklig indexering av fotografiska bilder. | Under de senaste åren har man undersökt språklig indexering av bilder med hjälp av inlärda statistiska modeller. | 3,028,284 | Automatic Linguistic Indexing of Pictures by a Statistical Modeling Approach | {'venue': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,641 |
Abstract-Learning-baserade metoder är lämpliga för styrning av system med okänd dynamik. Lära sig från grunden innebär dock många försök med undersökande åtgärder tills en bra kontrollpolicy upptäcks. Riktiga robotar kan vanligtvis inte stå emot de undersökande åtgärderna och drabbas av skador. Detta problem kan kringgås genom att kombinera lärande med en modellbaserad kontroll. I detta brev använder vi en nominell modellprediktiv controller som hindras av förekomsten av en okänd modell-växt missmatchning. För att kompensera för missmatchningen föreslår vi två metoder för att kombinera förstärkande lärande med den nominella styrenheten. Den första metoden lär sig en kompensatorisk kontroll åtgärd som minimerar samma prestandamått som minimeras av den nominella styrenheten. Det andra tillvägagångssättet lär sig en kompenserande signal från en skillnad i en övergång som förutses av den interna modellen och en faktisk övergång. Vi jämför tillvägagångssätten på en robot fäst på marken och utför en setpoint nå uppgift i simuleringar. Vi implementerar det bättre synsättet på den riktiga roboten och demonstrerar framgångsrika läranderesultat. Index Terms-Learning och adaptiva system, humanoida robotar. | Alternativt kan förstärka lärandet användas för att lära sig missmatchningen mellan en modell och den faktiska dynamiken, till exempel inom robotik REF. | 4,562,561 | Model-Plant Mismatch Compensation Using Reinforcement Learning | {'venue': 'IEEE Robotics and Automation Letters', 'journal': 'IEEE Robotics and Automation Letters', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 6,642 |
I detta dokument angriper vi problemet med att upptäcka anomalier genom att direkt modellera datadistributionen med djupa arkitekturer. Vi föreslår djupt strukturerade energibaserade modeller (DSEBM), där energifunktionen är resultatet av ett deterministiskt djupt neuralt nätverk med struktur. Vi utvecklar nya modellarkitekturer för att integrera EBM med olika typer av data såsom statiska data, sekventiella data och rumsliga data, och tillämpar lämpliga modellarkitekturer för att anpassa sig till datastrukturen. Vår träningsalgoritm bygger på den senaste utvecklingen av poängmatchning (Hyvärinen, 2005), som förbinder en EBM med en regulariserad autoenkoder, vilket eliminerar behovet av komplicerade provtagningsmetoder. Statistiskt sunda beslutskriterium kan härledas för att upptäcka anomalier ur energilandskapet i datadistributionen. Vi undersöker två beslutskriterier för att upptäcka avvikelser: energipoängen och återuppbyggnadsfelet. Omfattande empiriska studier av referensuppgifter visar att vår föreslagna modell konsekvent matchar eller överträffar alla konkurrerande metoder. | DSEBM REF lär sig en energibaserad modell för att kartlägga varje exempel till en energipoäng. | 173,548 | Deep Structured Energy Based Models for Anomaly Detection | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,643 |
Abstract-I en opålitlig en-hop sändningsnätverk inställning, undersöker vi genomströmning och avkodning-delay prestanda slumpmässiga linjära nätverk kodning som en funktion av kodning fönsterstorlek och nätverksstorlek. Vår modell består av en källa som överför paket av ett enda flöde till en uppsättning användare över oberoende tidskorrelerade radering kanaler. Källan utför slumpmässig linjär nätkodning (RLNC) över (kodning fönsterstorlek) paket och sänder dem till användarna. Vi noterar att sändningsgenomströmningen av RLNC måste försvinna med ökande, För alla fasta. Till skillnad från andra verk i litteraturen undersöker vi därför hur kodningsfönstrets storlek måste skalas för att öka. Vår analys visar att kodfönstrets storlek representerar en fasövergångshastighet, under vilken genomströmningen konvergerar till noll, och över vilken den konvergerar till sändningskapaciteten. Vidare karakteriserar vi den asymmetriska fördelningen av avkodningsfördröjning och ger ungefärliga uttryck för medelvärdet och variansen av avkodningsfördröjning för skalningssystemet av. Dessa asymptotiska uttryck avslöjar påverkan av kanal korrelationer på genomströmning och fördröjning prestanda av RLNC. Vi visar också att hur vår analys kan utvidgas till andra hastighetslösa blockkodningssystem som LT-koderna. Slutligen kommenterar vi utvidgningen av våra resultat till att omfatta fall av beroende kanaler mellan användare och asymmetrisk kanalmodell. Index Terms-Broadcast, fördröjningsanalys, radering kanal, nätverkskodning. | I REF visas att om kodningsfönstrets storleksskala med antalet mottagare kommer dataflödet att konvergera till sändningskapaciteten. | 554,624 | Throughput-Delay Analysis of Random Linear Network Coding for Wireless Broadcasting | {'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,644 |
Närhet centralitet, först beaktas av Bavelas (1948), är ett viktigt mått på en nod i ett nätverk som bygger på avstånden från noden till alla andra noder. Den klassiska definitionen, som föreslagits av Bavelas (1950), Beauchamp (1965) och Sabidussi (1966), är (omvänt av) den genomsnittliga avståndet till alla andra noder. Vi föreslår den första mycket skalbara (nära linjär-tid bearbetning och linjära rymden overhead) algoritm för att uppskatta, inom en liten relativ fel, den klassiska närhet centraliteter av alla noder i grafen. Vår algoritm gäller för oriktade grafer, samt för centralitet som beräknas med avseende på tur- och returavstånd i riktade grafer. För riktade grafer föreslår vi också en effektiv algoritm som approximerar generaliseringar av klassisk närhet centralitet till utgående och inkommande centraliteter. Även om den inte ger de värsta teoretiska approximationsgarantierna, är den utformad för att fungera bra i verkliga nätverk. Vi utför omfattande experiment på stora nätverk, visar hög skalbarhet och noggrannhet. | Den klassiska närhet centralitet REF karakteriserar hur nära en nod är till andra noder i en graf, och kan enkelt ändras för att mäta hur nära de andra noderna till mål noden. | 14,226,202 | Computing classic closeness centrality, at scale | {'venue': "COSN '14", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,645 |
Abstract-Words och fraser förvärva mening från hur de används i samhället, från deras relativa semantik till andra ord och fraser. För datorer är motsvarigheten till "samhället" "databas", och motsvarigheten till "användning" är "sätt att söka i databasen". Vi presenterar en ny teori om likhet mellan ord och fraser baserat på informationsavstånd och Kolmogorov komplexitet. För att fixa tankar använder vi world-wide-web som databas, och Google som sökmotor. Metoden är även tillämplig på andra sökmotorer och databaser. Denna teori tillämpas sedan för att konstruera en metod för att automatiskt extrahera likhet, Google likhet avstånd, av ord och fraser från den globala webben med hjälp av Google sida räknas. World-wide-web är den största databasen på jorden, och den kontextinformation som in av miljontals oberoende användare genomsnitt ut för att ge automatisk semantik av användbar kvalitet. Vi ger tillämpningar inom hierarkisk klusterbildning, klassificering och språköversättning. Vi ger exempel för att skilja mellan färger och siffror, klusternamn på målningar av 17th century holländska mästare och namn på böcker av engelska författare, förmågan att förstå nödsituationer, och primes, och vi visar förmågan att göra en enkel automatisk engelsk-spanska översättning. Slutligen använder vi WordNet databasen som en objektiv baslinje för att bedöma resultatet av vår metod. Vi genomför en massiv randomiserad test i binär klassificering med hjälp av stöd vektor maskiner för att lära sig kategorier baserat på vårt Google avstånd, vilket resulterar i en genomsnittlig överenskommelse på 87% med experten skapade WordNet kategorier. Index Termsaccuracy jämförelse med WordNet kategorier, automatisk klassificering och klusterbildning, automatisk mening upptäckt med Google, automatisk relativ semantik, automatisk översättning, olikhet semantic avstånd, Google-sökning, Google distribution via sidträff räknas, Google-kod, Kolmogorov komplexitet, normaliserad kompression avstånd ( NCD ), normaliserad informationsavstånd ( NID ), normaliserad Google avstånd ( NGD ), betydelse av ord och fraser extraheras från webben, parameter-fri data-mining, universell likhet metrisk | Vi använder en välkänd data mining teknik som är k-means algoritm men med ett nytt avstånd : Google likhet avstånd införs av Google Lab och REF. | 59,777 | The Google Similarity Distance | {'venue': 'R.L. Cilibrasi, P.M.B. Vitanyi, The Google Similarity Distance, IEEE Trans. Knowledge and Data Engineering, 19:3(2007), 370-383', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,646 |
Mobile-edge computing (MEC) är ett framväxande paradigm för att möta de ständigt ökande kraven på beräkning från mobila applikationer. Genom att avlasta den beräkningsintensiva arbetsbelastningen till MEC-servern kan kvaliteten på beräkningsupplevelsen, t.ex. exekveringslatensen, förbättras avsevärt. Eftersom batterikapaciteten på enheten är begränsad, skulle dock beräkningen avbrytas när batteriets energi tar slut. För att ge tillfredsställande beräkningsprestanda och uppnå grön databehandling är det av stor betydelse att söka förnybara energikällor för att driva mobila enheter via energiskördsteknik. I detta dokument kommer vi att undersöka ett grönt MEC-system med EH-enheter och utveckla en effektiv avlastningsstrategi. Exekveringskostnaden, som tar upp både genomförande latency och uppgiftsfel, antas som prestandamått. En låg-komplexitet online-algoritm, nämligen Lyapunov optimering-baserad dynamisk beräkning offloading (LODCO) algoritm föreslås, som gemensamt beslutar avlastning beslut, CPU-cykel frekvenser för mobilt utförande, och sändningseffekt för beräkning offloading. En unik fördel med denna algoritm är att besluten endast beror på den ögonblickliga sidan information utan att kräva distribution information om begäran om beräkning uppgift, den trådlösa kanalen, och EH processer. Genomförandet av algoritmen kräver bara att lösa ett deterministiskt problem i varje tidsrymd, för vilken den optimala lösningen kan erhållas antingen i sluten form eller genom bisektionssökning. Dessutom visas att den föreslagna algoritmen är asymptotiskt optimal genom noggrann analys. Resultaten av provsimuleringen ska presenteras för att verifiera den teoretiska analysen och validera den föreslagna algoritmens effektivitet. Mobil-edge computing, energi skörd, dynamisk spänning och frekvensskalning, effektstyrning, QoE, Lyapunov optimering. Författarna är med | I REF undersöker författarna ett MEC-system med energiupptagningsenheter, och föreslår att gemensamt överväga avlastningsbeslut och tilldelning av CPU-cykelfrekvenser och sändningskraft. | 14,777,050 | Dynamic Computation Offloading for Mobile-Edge Computing with Energy Harvesting Devices | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,647 |
Abstract-En av de viktigaste utmaningarna i peer-to-peer nätverk är utformningen av incitament för att uppmuntra kamrater att dela sina resurser. Incitament är nödvändiga för att utnyttja dessa systems fulla potential. Tit-for-tat incitamentsprogram, som används i BitTorrent till exempel, har visat sig vara ett framgångsrikt tillvägagångssätt i P2P fildelningssystem, där kamrater har direkta relationer och delar samma typ av resurser. I P2P-system där olika typer av resurser delas mellan personer med icke-direkta förbindelser är emellertid utformningen av incitament fortfarande en utmaning. I detta dokument visas ett storskaligt, helt decentraliserat P2P-samarbetsnätverk, där kamrater delar inte bara bandbredd och lagringsutrymme, utan också bidrar genom att redigera artiklar och rösta för eller emot ändringar. Ett nytt incitamentsprogram föreslås som stöder icke-direkta förbindelser och ger incitament för att dela olika typer av resurser. Incitamentssystemet bygger på ett ryktessystem som tilldelar varje kamrat ett ryktesvärde som återspeglar dess tidigare beteende i nätverket. Baserat på detta värde är servicenivån differentierad, dvs. Ju högre anseende en kamrat har desto bättre servicekvalitet kan det få från nätverket. Servicedifferentieringen har analyserats och simulerats med rationella, irrationella och altruistiska kamrater baserade på spelteorikoncept. Peer-to-peer (P2P) nätverk har fått mycket uppmärksamhet tidigare eftersom de har många fördelar jämfört med klient-server arkitekturer, inklusive feltolerans, högre skalbarhet, och mindre underhållskostnader. En av nackdelarna med P2P-näten är dock att deltagarna tenderar att inte dela sina resurser, vilket kan leda till en allvarlig förlust av prestanda [1], [8]. För att uppmuntra kamrater att dela sina resurser måste det därför finnas ett incitamentsprogram som belönar samarbete och straffar friåkning. BitTorrent [4] är ett framträdande exempel på ett P2P-fildelningssystem som innehåller ett fast incitamentssystem som kallas tit-for-tat (TFT). TFT ger incitament att dela resurser för kamrater med direkta relationer och resurser av samma slag. Två jämlika är i ett direkt förhållande om både kamrater efterfrågan och tillgång resurser av samma slag. TFT-systemet är användbart för tillämpningar med många direkta förbindelser. Detta är typiskt för P2P-fildelningssystem, särskilt vid delning av populära filer. | Arbetet i REF studerar en incitamentsmekanism för resurser som delas mellan kamrater med icke-direkta relationer och differentierar servicenivån baserat på varje kamrats tidigare beteende. | 17,738,105 | Game theoretical analysis of incentives for large-scale, fully decentralized collaboration networks | {'venue': '2008 IEEE International Symposium on Parallel and Distributed Processing', 'journal': '2008 IEEE International Symposium on Parallel and Distributed Processing', 'mag_field_of_study': ['Computer Science']} | 6,648 |
Sammanfattning av denna webbsida: Multi-Label-lärande har sitt ursprung i undersökningen av problem med textkategorisering, där varje dokument kan tillhöra flera fördefinierade ämnen samtidigt. Vid flermärkt inlärning består utbildningssetet av fall som var och en förknippas med en uppsättning etiketter, och uppgiften är att förutsäga etikettuppsättningar av osynliga fall genom att analysera utbildningsinstanser med kända etikettset. I detta dokument presenteras en multi-märkt lat inlärningsmetod som heter Mlknn, som härleds från den traditionella k-Nearest Neighbor-algoritmen (kNN). I detalj, för varje osynlig instans, dess k närmaste grannar i träningssetet först identifieras. Därefter, baserat på statistiska uppgifter som erhållits från märkningsuppsättningarna av dessa närliggande instanser, dvs. Antalet närliggande instanser som tillhör varje möjlig klass, maximalt en posteriori (MAP) princip används för att bestämma märkningen som för det osedda fallet. Experiment på tre olika praktiska inlärningsproblem, d.v.s. Jästgenfunktionsanalys, naturlig scenklassificering och automatisk kategorisering av webbsidor visar att Ml-knn uppnår överlägsen prestanda till några väletablerade flermärkta inlärningsalgoritmer. | Zhang och Zhou REF föreslog en ML-KNN-metod (för multi-Label kNN) som utvidgar den traditionella kNN-algoritmen och använder den maximala principen i efterhand för att fastställa relevanta etiketter för en osedd instans. | 14,886,376 | Ml-knn: A lazy learning approach to multi-label learning | {'venue': 'PATTERN RECOGNITION', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,649 |
Abstract-This paper introducerar en ny Gaussian förtroende och rykte system för trådlösa sensornätverk baserat på sensed kontinuerliga händelser för att ta itu med säkerhetsfrågor och för att hantera skadliga och opålitliga noder. Det representerar en ny metod för att beräkna förtroende mellan sensornoder baserat på deras sensed data och rapporterade data från omgivande noder. Det är att ta itu med förtroendefrågan från en kontinuerlig sensed data som skiljer sig från alla andra metoder som behandlar frågan från kommunikation och binär synvinkel. | Det tar itu med förtroende frågan från kontinuerlig sensed data, och detta skiljer sig från alla andra metoder som tar itu med frågan från kommunikation och binär synvinkel REF. | 30,120,270 | GTRSSN: Gaussian Trust and Reputation System for Sensor Networks | {'venue': 'SCSS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,650 |
Att erkänna omnämnanden av biverkningar (ADR) i sociala medier är utmanande: ADR nämner är kontextberoende och inkluderar långa, varierande och okonventionella beskrivningar jämfört med mer formella medicinska symptom terminologi. Vi använder CADEC corpus för att träna en återkommande neurala nätverk (RNN) givare, integrerad med kunskapsgraf inbäddningar av DBpedia, och visa den resulterande modellen att vara mycket exakt (93,4 F1). Dessutom visar vi, även när vi saknar högkvalitativa expertanteckningar, att vi genom att använda en aktiv inlärningsteknik och med hjälp av verktyg som konstruerats för ändamålet kan träna RNN att prestera bra (83,9 F1). | REF använde det Recurrent Neural Network som är integrerat med kunskapsdiagram som finns inbäddat i CADEC corpus. | 7,782,660 | Recognizing Mentions of Adverse Drug Reaction in Social Media Using Knowledge-Infused Recurrent Models. | {'venue': 'EACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,652 |
Abstract-The shrew distribuerad överbelastning (DDoS) attack är mycket skadligt för många program, eftersom det kan strypa TCP strömmar till en liten del av sin ideala hastighet till mycket låg attackkostnad. Tidigare arbeten fokuserade främst på empiriska studier av att försvara mot den sluga DDoS, och mycket få av dem gav analytiska resultat om själva attacken. I den här artikeln föreslår vi en matematisk modell för att uppskatta attackeffekten av denna smygande typ av DDoS. Genom att från början fånga anpassning beteende offer TCPs trängsel fönster, vår modell kan uttömmande utvärdera den kombinerade påverkan av attack mönster (dvs. hur attacken är konfigurerad) och nätverksmiljö på attack effekt (de befintliga modellerna misslyckades med att överväga inverkan av nätverksmiljön). Hädanefter har vår modell högre noggrannhet i ett bredare spektrum av nätverksmiljöer. Det relativa felet i vår modell är fortfarande cirka 10% för de flesta attackmönster och nätverksmiljöer, medan det relativa felet i referensmodellen i tidigare arbeten har ett medelvärde på 69,57%, och det kan vara mer än 180% i vissa fall. Ännu viktigare är att vår modell avslöjar några nya egenskaper hos den listiga attacken från interaktionen mellan attackmönster och nätverksmiljö, såsom den lägsta kostnadsformeln för att starta en lyckad attack, och den maximala effektformeln för en listig attack. Med dem kan vi ta reda på hur vi anpassar attackparametrarna (t.ex. dos spricklängd) för att förbättra anfallseffekten i en given nätverksmiljö, och hur nätverksresursen (t.ex. flaskhalsbuffertens storlek) kan konfigureras om för att mildra den smarta DDoS med ett givet anfallsmönster. Slutligen lade vi på grundval av våra teoretiska resultat fram en enkel strategi för att försvara den listiga attacken. Simuleringsresultaten visar att denna strategi kan öka TCP-genomströmningen med nästan hälften av flaskhalsbandbredden (och kan vara högre) för allmänna attackmönster. Index Terms-Attack effekt, lågpris distribuerad överbelastning (DDoS) attack, matematisk modell, smart attack. | Samma år, Luo et al. REF utvecklade en matematisk modell för att uppskatta den kombinerade effekten av DDoS attack mönster och nätverksmiljö på attack effekt genom att ursprungligen fånga anpassning beteenden offer TCPs trängselfönster. | 15,943,890 | On a Mathematical Model for Low-Rate Shrew DDoS | {'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Computer Science']} | 6,653 |
Det finns många tillämpningar för att använda trådlösa sensornätverk (WSN) inom havsvetenskap, men att identifiera den exakta placeringen av en sensor i sig (lokalisering) är fortfarande ett utmanande problem, där globala positioneringssystem (GPS) enheter inte är tillämpliga under vattnet. Exakt avståndsmätning mellan två sensorer är ett verktyg för lokalisering och mottagen signalstyrka (RSS), som reflekterar överföringsförlust (TL) fenomen, används allmänt i markbundna WSNs för den delen. Akustiksensornätverk under vatten har inte använts (UASN), på grund av TL-funktionens komplexitet. I detta dokument tog vi itu med dessa problem genom att uttrycka under vattnet TL via Lambert W-funktionen, för exakt distans inversion med Halley-metoden, och jämförde detta med Newton-Raphson inversion. Matematiskt bevis, MATLAB-simulering och verklig enhetsimplementering visar exaktheten och effektiviteten hos den föreslagna ekvationen i avståndsberäkningen, med färre iterationer, beräkningsstabilitet för korta och långa avstånd och anmärkningsvärt kort processtid. Därefter undersöktes känsligheten för Lambert W-funktionen och Newton-Raphsons inversion till förändring i TL. Simuleringsresultaten visade att Lambert W-funktionen är mer stabil för fel än Newton-Raphson inversion. Slutligen visades det med en sannolikhetsmetod att RSS är ett praktiskt verktyg för distansmätning i UASN. | I REF har författarna tagit itu med problemen med lokalisering genom att uttrycka förlust av undervattensöverföring via Lambert W-funktionen. | 54,610,438 | Efficient Underwater RSS Value to Distance Inversion Using the Lambert Function | {'venue': None, 'journal': 'Mathematical Problems in Engineering', 'mag_field_of_study': ['Computer Science']} | 6,654 |
Abstract-Dataset med ett stort antal dimensioner per dataobjekt (hundratal eller mer) är utmanande både för beräknings- och visuell analys. Dessutom har dessa dimensioner olika egenskaper och relationer som resulterar i undergrupper och/eller hierarkier över dimensionerna. Sådana strukturer leder till heterogenitet inom dimensionerna. Även om hänsynen till dessa strukturer är avgörande för analysen, kastar de flesta av de tillgängliga analysmetoderna över de heterogena förbindelserna mellan dimensionerna. I detta dokument introducerar vi konstruktion och användning av representativa faktorer för interaktiv visuell analys av strukturer i högdimensionella datauppsättningar. För det första presenterar vi ett urval av metoder för att undersöka undergrupperna i dimensionsuppsättningen och associera representativa faktorer med dessa grupper av dimensioner. För det andra introducerar vi hur dessa faktorer ingår i den interaktiva visuella analyscykeln tillsammans med de ursprungliga dimensionerna. Vi tillhandahåller sedan stegen i ett analytiskt förfarande som iterativt analyserar dataseten genom användning av representativa faktorer. Vi diskuterar hur våra metoder förbättrar analysprocessens tillförlitlighet och tolkningsbarhet genom att möjliggöra mer informerade val av beräkningsverktyg. Slutligen demonstrerar vi våra tekniker på analysen av resultaten av hjärnavbildningar som utförs över en stor grupp av försökspersoner. Index Terms-Interactive visuell analys, högdimensionell dataanalys. | REF Diskuterar problemen med de högdimensionella datamängderna och tillhandahåller även lösningen för att välja undergrupperna från datauppsättningarna och härleder sambanden mellan undergrupperna. | 6,045,752 | Representative Factor Generation for the Interactive Visual Analysis of High-Dimensional Data | {'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,655 |
Middleware for Web service kompositioner, såsom BPEL motorer, ger exekveringsmiljön för tjänster samt ytterligare funktioner, såsom övervakning och självjustering. Med tanke på dess roll i tillhandahållandet av tjänster är det mycket viktigt att bedöma prestandan hos mellanprogram inom ramen för en tjänsteorienterad arkitektur. I detta dokument presenteras SOABench, en ram för automatisk generering och utförande av testbäddar för riktmärkning av mellanprodukter för sammansatta webbtjänster och för bedömning av prestandan hos befintliga SOA-infrastrukturer. SOABench definierar en testbäddsmodell som kännetecknas av de sammansatta tjänster att utföra, arbetsbördan att generera, installationskonfigurationen att använda, prestandamått för att samla in, dataanalyser för att utföra på dem, och rapporter att producera. Vi har validerat SOABench genom att jämföra prestandan hos olika BPEL-motorer. | Bianculli m.fl. Föreslå ett mer systematiskt tillvägagångssätt i SOABench Ref, där de tar itu med automatisk generering, utförande och analys av testbäddar för att testa den tjänsteorienterade prestandan för mellanprogram. | 15,185,919 | Automated performance assessment for service-oriented middleware: a case study on BPEL engines | {'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,656 |
Abstrakt. Nuvarande standardmodeller har förbättrat driftskompatibiliteten i produktlivscykelhanteringen. Men ökningen av begränsningar kring informationshantering i ett industriellt sammanhang, och särskilt för kraftverksdesign, som ökningen av data, aktörer, system och behovet av automatisering och samarbete leder till en ökad användning av ontologibaserade modeller. Utformningen av kraftverk utgör dock en specifik fråga, som är regleruttryck och validering. Detta behov av regler skapas av säkerhets-, driftskompatibilitets- eller samarbetsbegränsningar. Semantiskt Web Rule Language (SWRL) är ett ontologiskt språk baserat på OWL-DL som tillåter dessutom regler uttryck. I detta dokument presenteras SWRL-regler och deras industriella tillämpningar, men även gränser för detta språk i PLM-tillämpningar. I förslaget föreslås följaktligen andra reglerspråk. - Långsiktig lagring av information (från konstruktion till underhåll och demontering), -ett stort antal framtagna data, -många aktörer och tillämpningssystem inblandade, -kontrollpolicy och säkerhets- och kontrollbegränsningar. Liksom inom många industriområden är produktlivscykelhantering (PLM) en global metod som skulle kunna ge effektiva lösningar på dessa frågor [2]. Att utföra driftskompatibilitet mellan informationssystem är ett avgörande steg i denna metod [3], som måste uppnås i termer av organisation, teknik och modeller semantiskt. Dessutom är ett semantiskt sätt att uttrycka och bekräfta regler en avgörande fråga i dagens modellering. En regel är i detta sammanhang en specifikation av ett krav eller en begränsning om produkten eller dess hantering [4]. Dessa regler står i centrum för denna studie. | Dessutom styrs utformningen av kärnkraftverk av regler som kan uttryckas i ontologiska modeller, t.ex. med Semantic Web Rule Language (SWRL) som standardspråk REF. | 6,786,140 | SWRL as a rule language for ontology-based models in power plant design | {'venue': 'PLM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,657 |
Nyligen har det gjorts stora ansträngningar för att använda onlinedata för att undersöka internationell migration. Dessa insatser visar att webbdata är värdefulla för att uppskatta migrationsströmmar och är relativt lätta att få tag på. Befintliga studier har dock endast undersökt flöden av människor längs migrationskorridorer, dvs. mellan par av länder. I vårt arbete använder vi data om "platser som lever" från miljontals Google+-användare för att studera migration "kluster", dvs.. grupper av länder där individer har bott i följd. För första gången tar vi hänsyn till information om mer än två länder som människor har bott i. Vi hävdar att dessa uppgifter är mycket värdefulla eftersom denna typ av information inte finns tillgänglig i traditionella demografiska källor som registrerar migrationsströmmar från land till land oberoende av varandra. Vi visar att migrationskluster av triader inte kan identifieras enbart med hjälp av information om bilaterala flöden. För att visa de ytterligare insikter som kan vinnas genom att använda data om migreringskluster, utvecklar vi först en modell som försöker förutsäga prevalensen av en given triad med endast data om dess beståndsdelar par. Vi inspekterar sedan grupperna med tre länder som är mer eller mindre framträdande, jämfört med vad vi skulle förvänta oss enbart baserat på bilaterala flöden. Därefter identifierar vi en uppsättning funktioner som ett gemensamt språk eller koloniala band som förklarar vilken trippel av land par är mer eller mindre sannolikt att samlas när man tittar på land tredubblar. Sedan väljer vi och jämför några fall av kluster som ger viss kvalitativ information om vad vår datauppsättning visar. Den typ av data som vi använder är potentiellt tillgänglig för ett antal sociala medietjänster. Vi hoppas att denna första studie om migrationskluster kommer att stimulera användningen av webbdata för att utveckla nya teorier om internationell migration som inte kunde testas på lämpligt sätt tidigare. | Senast, Messias et al. REF använde "platser som levde" från Google+ profiler, kröp under 2012, för att studera migrationskluster av triader i stället för land-till-land migrationsströmmar. | 11,956,606 | From migration corridors to clusters: The value of Google+ data for migration studies | {'venue': '2016 IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining (ASONAM)', 'journal': '2016 IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining (ASONAM)', 'mag_field_of_study': ['Computer Science', 'Physics']} | 6,658 |
Vi presenterar en självövervakad uppgift på punktmoln, för att lära sig meningsfulla punktvisa funktioner som kodar lokal struktur runt varje punkt. Vårt självövervakade nätverk, MortonNet, fungerar direkt på ostrukturerade/oordnade punktmoln. Med hjälp av en multi-lager RNN, MortonNet förutsäger nästa punkt i en punkt sekvens som skapats av en populär och snabb Space Filling Curve, Mortonorder kurva. Den slutliga RNN-tillstånd (coined Morton-funktionen) är mångsidig och kan användas i generiska 3D-uppgifter på punktmoln. I själva verket visar vi hur Morton funktioner kan användas för att avsevärt förbättra prestanda (+3% för 2 populära semantiska segmenteringsalgoritmer) i uppgiften att semantiska segmentering av punktmoln på utmanande och storskaliga S3DIS dataset. Vi visar också hur MortonNet utbildade sig på S3DIS-överföringar väl till en annan storskalig datauppsättning, vKITTI, vilket leder till en förbättring jämfört med toppmoderna 3,8%. Slutligen använder vi Morton funktioner för att träna en mycket enklare och stabilare modell för delsegmentering i ShapeNet. Våra resultat visar hur vår självövervakade uppgift resulterar i funktioner som är användbara för 3D-segmenteringsuppgifter, och generaliserar väl till andra datauppsättningar. | I REF föreslogs ett nätverk som förutspår nästa punkt i en sekvens av punkter som täcker ett punktmoln. | 90,260,249 | MortonNet: Self-Supervised Learning of Local Features in 3D Point Clouds | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,659 |
I detta dokument behandlas den optimala kopplingen mellan fjärranvändarterminaler och olika celler i ett heterogent nät för lastbalansering. Om vi antar fasta sändningsbefogenheter vid basstationer, antar vi ett nätverk verktyg maximering formulering med en proportionell rättvisa mål och visar att nedlänk användarförening problemet kan lösas effektivt med hjälp av en prissättningsmetod där priserna uppdateras i den dubbla domänen via koordinat nedstigning. Jämfört med den tidigare föreslagna subgradientmetoden kräver den föreslagna algoritmen för koordinatnedstigning inte att basstationer synkroniseras i sina prisuppdateringar, samtidigt som konvergens garanteras, vilket gör den särskilt lämplig för distribuerat genomförande. Simuleringar visar att den föreslagna metoden har snabb konvergens samtidigt som man uppnår en nästan optimal lösning. | I REF presenteras ett nätverk verktyg maximering formulering med en proportionell rättvisa mål, där priserna uppdateras i den dubbla domänen via koordinat nedstigning. | 7,814,588 | Downlink cell association optimization for heterogeneous networks via dual coordinate descent | {'venue': '2013 IEEE International Conference on Acoustics, Speech and Signal Processing', 'journal': '2013 IEEE International Conference on Acoustics, Speech and Signal Processing', 'mag_field_of_study': ['Computer Science']} | 6,660 |
Den dynamiska webben har ökat exponentiellt under de senaste åren med mer än tusentals dokument relaterade till ett ämne som är tillgängligt för användaren nu. De flesta av webbdokumenten är ostrukturerade och inte på ett organiserat sätt och därmed användaren står inför svårare att hitta relevanta dokument. En mer användbar och effektiv mekanism är att kombinera kluster med rankning, där kluster kan gruppera liknande dokument på ett ställe och rankning kan tillämpas på varje kluster för att visa de bästa dokumenten i början. Förutom den särskilda klusteralgoritmen är de olika viktningsfunktioner som tillämpas på de valda funktionerna för att representera webbdokument en huvudaspekt i klusteruppgiften. Med detta förhållningssätt i åtanke föreslog vi här en ny mekanism som kallas Tf-Idf-baserad Apriori för att samla webbdokumenten. Vi rankar sedan dokumenten i varje kluster med hjälp av Tf-Idf och likhetsfaktorn av dokument baserat på användarens fråga. Detta tillvägagångssätt kommer att hjälpa användaren att få alla sina relevanta dokument på ett ställe och kan begränsa sin sökning till några toppdokument som han väljer. I experimentellt syfte har vi tagit dataseten Classic3 och Classic4 från Cornell University med mer än 10 000 dokument och använt gensimverktyg för att utföra vårt arbete. Vi har jämfört vårt tillvägagångssätt med traditionell apriorialgoritm och funnit att vårt tillvägagångssätt ger bättre resultat för högre minimistöd. Vår rankningsmekanism ger också ett bra F-mått på 78 procent. | Roul m.fl. REF använde i sitt arbete Tf-Idf-baserad apriori-strategi för att samla ihop och rangordna webbdokumenten. | 6,284,082 | Web Document Clustering and Ranking using Tf-Idf based Apriori Approach | {'venue': 'IJCA Proceedings on ICACEA, No. 2, p. 34 (2014)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,661 |
Vi presenterar en ny mekanism för att förbättra referensresolutionen genom att använda resultatet av en relation tagger för att omvärdera samreferenshypoteser. Experiment visar att detta nya ramverk kan förbättra prestandan på två helt olika språk -- engelska och kinesiska. | När det gäller uppgifterna för realisering och samreferensupplösning använde REF resultatet från ett regenereringssystem för att omvärdera samreferenshypoteser. | 2,828,997 | Using Semantic Relations To Refine Coreference Decisions | {'venue': 'Human Language Technology Conference And Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,662 |
I detta dokument presenteras en metod för att implicit lösa tvetydigheter med hjälp av dynamisk inkrementell klusterbildning i koreansk-till-engelska gränsöverskridande informationssökning. Inom ramen föreslår vi att en fråga på koreanska först översätts till engelska genom att slå upp koreansk-engelska ordbok, sedan dokument hämtas baserat på vektorrymd hämtning för översatta frågetermer. För de högst rankade hämtade dokumenten skapas frågeorienterade dokumentkluster stegvis och vikten av varje hämtat dokument räknas om med hjälp av kluster. I experiment på TREC-6 CLIR test samling, vår metod uppnådde 28,29% prestandaförbättring för översatta frågor utan tvetydig upplösning för frågor. Detta motsvarar 97,27 % av den enspråkiga prestandan för ursprungliga frågor. När vi kombinerar vår metod med tvetydighetsupplösning överträffar vår metod till och med den enspråkiga hämtningen. | Lee och Al. i REF presentera en metod för att implicit lösa tvetydigheter med hjälp av en inkrementell klusterbildning på koreanska till engelska cross language informationshämtning. | 8,264,993 | Implicit Ambiguity Resolution Using Incremental Clustering In Korean-To-English Cross-Language Information Retrieval | {'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,663 |
Människor-centrerade miljöer är rika med ett brett utbud av rumsliga relationer mellan vardagliga objekt. För att autonoma robotar ska fungera effektivt i sådana miljöer, bör de kunna resonera om dessa relationer och generalisera dem till objekt med olika former och storlekar. Till exempel, efter att ha lärt sig att placera en leksak i en korg, en robot bör kunna generalisera detta koncept med hjälp av en sked och en kopp. Detta kräver att en robot har flexibiliteten att lära sig godtyckliga relationer på ett livslångt sätt, vilket gör det utmanande för en expert att förprogrammera den med tillräcklig kunskap för att göra det i förväg. I detta dokument tar vi upp problemet med att lära sig rumsliga relationer genom att införa en ny metod för distansundervisning. Vårt tillvägagångssätt gör det möjligt för en robot att resonera om likheten mellan parvisa rumsliga relationer, vilket gör det möjligt för den att använda sin tidigare kunskap när den presenteras med en ny relation att imitera. Vi visar hur detta gör det möjligt att lära sig godtyckliga rumsliga relationer från icke-expertanvändare med hjälp av ett litet antal exempel och på ett interaktivt sätt. Vår omfattande utvärdering med Realworld-data visar hur effektiv vår metod är när det gäller att resonera om ett kontinuerligt spektrum av rumsliga relationer och generalisera dem till nya objekt. 1 The Freiburg Spatial Relations Dataset och en demo video av vår strategi som körs på PR-2 robot finns på | I vårt tidigare arbete introducerade vi en ny metod som utnyttjar stor marginal närmaste granne metrisk inlärning för att generalisera rumsliga relationer till nya objekt REF. | 5,682,214 | Metric learning for generalizing spatial relations to new objects | {'venue': '2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'journal': '2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 6,664 |
Frågesvarssystem (QA) över Knowledge Graphs (KG) besvarar automatiskt frågor om naturligt språk med hjälp av fakta i ett kunskapsdiagram. Enkla frågor, som kan besvaras genom utvinning av ett enda faktum, utgör en stor del av de frågor som ställs på webben men utgör fortfarande utmaningar för QA-system, särskilt när de ställs mot en stor kunskapsresurs. Befintliga kvalitetssäkringssystem är vanligtvis beroende av olika komponenter som var och en är specialiserad på att lösa olika deluppgifter i problemet (t.ex. segmentering, enhetsigenkänning, disambigering och relationsklassificering osv.). I detta arbete följer vi en helt annan strategi: Vi tränar ett neuralt nätverk för att svara på enkla frågor på ett end-to-end sätt, lämnar alla beslut till modellen. Det lär sig att ranka subjekt predicate par för att möjliggöra hämtning av relevanta fakta som ges en fråga. Nätverket innehåller en inbäddad frågekod på ord- och teckennivå som gör det möjligt att hantera problem med utanför-vokabulära och sällsynta ord samtidigt som man fortfarande kan utnyttja semantik på ordnivå. Vår strategi uppnår resultat som är konkurrenskraftiga med toppmoderna end-to-end-strategier som bygger på en uppmärksamhetsmekanism. | REF är mer lik vårt tillvägagångssätt där de tränar ett neuralt nätverk på ett end-to-end sätt. | 12,983,389 | Neural Network-based Question Answering over Knowledge Graphs on Word and Character Level | {'venue': 'WWW', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,665 |
Strategin för overproduce-and-choose omfattar generering av en inledande stor pool av kandidatklassare och är avsedd att testa olika kandidatensembler för att välja den bäst presterande lösningen. Ensemblens felfrekvens, ensemblestorlek och mångfald är de vanligaste sökkriterier som används för att vägleda detta val. Genom att tillämpa felfrekvensen kan vi uppnå huvudmålet i mönsterigenkänning och maskininlärning, vilket är att hitta högpresterande prediktorer. När det gäller ensemblestorlek är förhoppningen att öka igenkännandegraden samtidigt som antalet klassificeringar minimeras för att uppfylla både prestandakrav och krav på låg ensemblestorlek. Slutligen kan ensembler vara mer exakta än enskilda klassificerare endast när klassificerare medlemmar presentera mångfald sinsemellan. I detta dokument tillämpar vi två Pareto front spread kvalitetsåtgärder för att analysera förhållandet mellan de tre huvudsakliga sökkriterier som används i overproduce-and-choose strategi. Experimentella resultat visar att kombinationen av ensemblestorlek och mångfald inte ger motstridiga multiobjektiva optimeringsproblem. Dessutom kan vi inte minska graden av generaliseringsfel genom att kombinera detta par sökkriterier. Men när felfrekvensen kombineras med mångfald eller ensemblestorlek, fann vi att dessa åtgärder är motstridiga objektiva funktioner och att lösningarnas resultat är mycket högre. | Dos Santos m.fl. REF optimerar en kombination av ensemblefel och mångfald åtgärder också, men de inkluderar också ensemblestorlek som ett kriterium i sin analys av Pareto front. | 14,465,810 | Pareto analysis for the selection of classifier ensembles | {'venue': "GECCO '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,666 |
Willow arkitektur är en övergripande strategi för överlevnad i kritiska distribuerade program. Överlevnad uppnås i ett utplacerat system med hjälp av en unik kombination av (a) felundvikande genom att inaktivera sårbara nätverkselement avsiktligt när ett hot upptäcks eller förutspås, (b) feleliminering genom att ersätta systemprogramelement när fel upptäcks, och (c) feltolerans genom att konfigurera systemet om icke-maskerbara skador uppstår. Nyckeln till arkitekturen är en kraftfull omkonfigureringsmekanism som kombineras med en allmän kontrollstruktur där nätverkstillståndet uppfattas, analyseras och krävs förändringar som utförs. Arkitekturen kan användas för att distribuera programvarufunktionalitetsförbättringar samt överlevnadsförmåga. Nya aspekter omfattar: mekanismer för reglering av nodkonfigurationer, ett arbetsflödessystem för att lösa motstridiga konfigurationer, kommunikation baserad på anmälan om händelser på bred front, tolerans för fel i vida områden, hierarkiska och sekventiella områden samt säkra, skalbara och delegatable trustmodeller. | Den Willow arkitektur REF uppnår intrång tolerans med hjälp av en kombination av inaktiverande av sårbara nätverkselement när ett hot upptäcks eller förutspås, ersätta misslyckade systemelement, och konfigurera om systemet om icke-maskerbara skador inträffar. | 9,964,690 | The Willow Architecture: Comprehensive Survivability for Large-Scale Distributed Applications | {'venue': 'Distributed Applications.”, Intrusion Tolerance Workshop, Dependable Systems and Networks (DSN 2002), Washington DC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,667 |
Abstract-Vi föreslår en ny metod för intermodal registrering av bilder med hjälp av ett kriterium som kallas ömsesidig information. Vårt huvudsakliga bidrag är en optimizer som vi specifikt utformade för detta kriterium. Vi visar att denna nya optimizer är väl anpassad till en multiupplösningsmetod eftersom den vanligtvis konvergerar i färre kriterieutvärderingar än andra optimatorer. Vi har byggt en multiupplösningspyramid, tillsammans med en interpoleringsprocess, en optimizer, och själva kriteriet, kring det enande begreppet spline-bearbetning. Detta säkerställer samstämmighet i hur vi modellerar data och ger goda resultat. Vi har testat vårt tillvägagångssätt under en mängd olika experimentella förhållanden och rapporterat utmärkta resultat. Vi hävdar en noggrannhet på ungefär en hundradel av en pixel under idealiska förhållanden. Vi är också robusta eftersom noggrannheten fortfarande är ungefär en tiondel av en pixel under mycket bullriga förhållanden. Dessutom kan en blind utvärdering av våra resultat mycket väl jämföras med flera andra forskares arbete. Index Terms-B-spline, intermodal volym anpassning, Marquardt-Levenberg, Parzen fönster, pyramid. | Thévenaz m.fl. REF föreslog en mer kraftfull optimizer som konvergerar i några kriterieutvärderingar när den initieras med goda startvillkor med hjälp av en modifierad Marquardt-Levenberg-algoritm. | 5,439,660 | Optimization of mutual information for multiresolution image registration | {'venue': 'IEEE Transactions on Image Processing', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics']} | 6,668 |
Abstract-Compressed sensing (CS) är en ny teknik för att återvinna glesa data från underprovade mätningar. Det visar stor potential att minska energi för sensornätverk. För det första föreslås en grundläggande global superpositionsmodell för att erhålla mätningar av sensordata, där en provtagningsmatris modelleras som kanalimpulsresponsmatris (CIR) medan den sparifierande matrisen uttrycks som den distribuerade vågettransform (DWT). Både provtagnings- och sparifieringsmatriser beror dock på var sensorerna finns, så denna modell är mycket sammanhängande. Detta strider mot antagandet av CS och ger lätt hög data återvinning fel. I detta dokument föreslår vi, för att minska samstämmigheten, att man kontrollerar överföringskraften hos vissa noder med hjälp av t-genomsnittlig-ömsesidig-sammanhållning, och återvinningskvaliteten förbättras avsevärt. Slutligen, för att göra tillvägagångssättet mer realistiskt och energieffektivt, är CIR superposition begränsad i lokala kluster. Två nyckelparametrar, radien av kraftkontrollregionen och radien av lokala kluster, är optimerade baserat på samstämmighet och resurs hänsyn i sensornätverk. Simuleringsresultat visar att det föreslagna systemet ger en hög återvinningskvalitet för nätverksbaserade data och verifierar att t-genomsnitt-ömsesidig-sammanhållning är ett bra kriterium för att optimera prestandan för CS i vårt scenario. | I REF föreslås en grundläggande global superpositionsmodell för att erhålla mätningar av sensordata, där en provtagningsmatris modelleras som kanalimpulsrespons (CIR) matris medan den sparifierande matrisen uttrycks som den distribuerade våget transform. | 52,222,185 | Optimized Local Superposition in Wireless Sensor Networks with T-Average-Mutual-Coherence | {'venue': None, 'journal': 'Progress in Electromagnetics Research-pier', 'mag_field_of_study': ['Computer Science']} | 6,669 |
Abstract-Power bevarande är en av de viktigaste frågorna i trådlösa ad hoc- och sensornätverk, där noder sannolikt kommer att förlita sig på begränsad batterieffekt. Sändning vid onödigt hög effekt minskar inte bara nodernas och nätverkets livslängd, utan medför också alltför stora störningar. Det ligger i nätverksdesigners intresse att låta varje nod överföra till lägsta möjliga effekt samtidigt som nätverksanslutningen bevaras. I detta dokument undersöker vi den optimala gemensamma sändningseffekten, definierad som den minsta sändningseffekt som används av alla noder som krävs för att garantera nätverksanslutning. Detta är önskvärt i sensornätverk där noder är relativt enkla och det är svårt att ändra sändningseffekten efter installation. Den optimala sändningseffekt som härleds i detta dokument är föremål för de specifika protokollen för routing och medium access (MAC) som beaktas, men metoden kan även utvidgas till andra routing- och MAC-protokoll. Genom att härleda den optimala sändningskraften skiljer vi oss från en konventionell graf-teoretisk metod genom att ta hänsyn till realistiska fysiska lageregenskaper. I detta dokument definieras konnektivitet i termer av en tjänstekvalitetsbegränsning (QoS) som ges av den maximala tolerabla felprocenten (Ber) i slutet av en multihopväg med ett genomsnittligt antal humle. | Panichpapiboon m.fl. REF härledde ett uttryck för minsta nödvändiga sändningseffekt för alla noder för att säkerställa nätverksanslutning. | 10,883,516 | Optimal Transmit Power in Wireless Sensor Networks | {'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']} | 6,670 |
Vi presenterar en enkel familj av algoritmer för att lösa problemet med generaliserat uppdrag (GAP). Vår teknik är baserad på en ny kombinatorisk översättning av någon algoritm för knapsack problem till en approximation algoritm för GAP. Om approximationsförhållandet för knapsackalgoritmen är α och dess körtid är O(f (N )), garanterar vår algoritm ett (1 + α)-tillnärmningsförhållande, och det körs i O(M · f (N) + M · N), där N är antalet objekt och M är antalet bins. Inte bara vår teknik utgör en allmän intressant ram för GAP-problemet; det matchar också den bästa combinatorial approximation för detta problem, med en mycket enklare algoritm och en bättre körtid. | A - approximation algoritm med samma garanti som kombinatorial lokal sökning men en bättre körtid ges i REF. | 14,897,015 | An efficient approximation for the Generalized Assignment Problem | {'venue': 'Information Processing Letters', 'journal': 'Information Processing Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,671 |
ABSTRACT I informationscentriska nätverk, exakt förutsäga innehåll popularitet kan förbättra prestanda caching. Därför, baserat på programvarudefinierat nätverk (SDN), detta dokument föreslår Deep-Learning-baserad innehåll Popularity Prediction (DLCPP) för att uppnå popularitetsförutsägelsen. DLCPP antar switchens dataresurser och länkar i SDN för att bygga ett distribuerat och omkonfigurerbart nätverk för djupinlärning. För DLCPP bestämmer vi först de mätvärden som kan återspegla förändringar i innehålls popularitet. För det andra samlar varje nätverksnod in data om den rumsliga och tidsmässiga gemensamma fördelningen av dessa mätvärden. Därefter används data som indata till staplade auto kodare (SAE) i DLCPP för att extrahera spatiotemporala funktioner av popularitet. Slutligen omvandlar vi popularitetsförutsägelsen till ett problem med flera klasser genom att diskretisera innehållets popularitet till flera klassificeringar. Softmax klassificerare används för att uppnå innehållet popularitet förutsägelse. Vissa utmaningar för DLCPP tas också upp, såsom att bestämma strukturen av SAE, förverkliga neuronfunktionen på en SDN-omkopplare, och distribuera DLCPP på en OpenFlow-baserad SDN. Samtidigt föreslår vi ett lätt cachesystem som integrerar cacheplacering och cacheersättningscache baserat på popularitetsprognoser och cachekapacitet (CPC). Överflödiga experiment visar bra prestanda av DLCPP, och det uppnår nära till 2,1% till 15% och 5,2% till 40% noggrannhetsförbättringar över neurala nätverk respektive auto regressiv, respektive. CPC drar nytta av DLCPP:s bättre förutsägelsenoggrannhet och kan ge en stadig förbättring av cacheprestandan jämfört med andra dominerande ramverk för hantering av cachefiler. INDEX TERMS Informationscenter nätverk, SDN, djupt lärande, innehåll popularitet förutsägelse, cachesystem. | Stack Auto Encoder, en typ av djupt lärande modell, har använts i REF för att förutsäga innehållets popularitet i en programvarudefinierad nätverksmiljö. | 3,448,138 | Content Popularity Prediction and Caching for ICN: A Deep Learning Approach With SDN | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 6,672 |
Gemenskapsfrågor som besvaras (cQA) har blivit en viktig fråga på grund av cQA-arkivens popularitet på webben. Detta dokument handlar om problemet med hämtning av frågor. Frågesökning i cQA-arkiv syftar till att hitta de befintliga frågorna som är semantiskt likvärdiga eller relevanta för de frågor som ställs. Problemet med den lexiska klyftan medför emellertid en ny utmaning för frågesökningen i cQA. I detta dokument föreslår vi att lära sig kontinuerliga ordinslag med metadata av kategoriinformation inom cQA-sidor för frågesökning. För att hantera den varierande storleken på ordet inbäddningsvektorer använder vi ramverket av fiskkärna för att aggregera dem i vektorer med fast längd. Experimentella resultat på storskaliga cQA-data från den verkliga världen visar att vårt tillvägagångssätt avsevärt kan överträffa toppmoderna översättningsmodeller och ämnesbaserade modeller för frågesökning i cQA. | REF använde en fiskkärna för att modellera den fasta storleken på frågorna om variabellängd. | 7,565,460 | Learning Continuous Word Embedding with Metadata for Question Retrieval in Community Question Answering | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,673 |
Abstract-I detta forskningsdokument föreslår vi övervakade och oövervakade förändring detektionsmetoder som fokuserar på analys av multitemporala syntetiska Aperture Radar (SAR) bilder. Dessa metoder bygger på tre huvudsteg: 1) en jämförelse av multitemporal bild utfördes av normaliserad skillnad förhållande (NDR) operatör; 2) genomföra en ny övervakad eller oövervakad tröskel och (3) generera förändring karta genom koppling av tröskel tillsammans med en region växande algoritm. I det första steget användes två filtrerade multitemporala bilder för att generera NDR-bild som utsattes för analys. I det andra steget, genom att anta en Gaussian distribution i no-change området, identifierade vi pixel intervallet som passar Gaussian distribution bättre än någon annan räckvidd iterativt för att upptäcka den no-change område som så småningom separerar förändring områden. I den övervakade metoden valdes flera icke-bytespixlar ut och medelvärdet (μ) och standardavvikelsen (σ) erhölls. Därefter applicerades μ ± 3σ för att välja de bästa tröskelvärdena. Slutligen ändrades och genomfördes en traditionell tröskelalgoritm med kopplingen mellan regionens växande algoritm för att beakta den rumsliga informationen för att generera ändringskartan. Den Gaussiska fördelningen antogs eftersom den bättre passar de villkorliga densiteterna i den icke-förändringsklass i NDR-avbildningen. De föreslagna metodernas effektivitet verifierades med de simulerade bilderna och de verkliga bilderna i samband med geografiska platser. Resultaten jämfördes med den manuella test- och felproceduren (MTEP) och den traditionella oövervakade förväntan-maximeringsmetoden (EM). Båda de föreslagna metoderna gav liknande resultat med MTEP och betydande förbättringar av Kappakoefficienten jämfört med den traditionella EM-metoden konstaterades på båda geografiska platser. 520 Kopplingen mellan den modifierade tröskeln och regionens växande algoritm är mycket effektiv med alla metoder. | För att ta itu med förändringarna i SAR-problemet presenterade Misha och Susaki REF en regionalgoritm baserad på förändringsdetektering i SAR-bilden. | 5,539,229 | COUPLING OF THRESHOLDING AND REGION GROWING ALGORITHM FOR CHANGE DETECTION IN SAR IMAGES | {'venue': None, 'journal': 'Progress in Electromagnetics Research-pier', 'mag_field_of_study': ['Mathematics']} | 6,674 |
Tekniken för radiofrekvensidentifiering (RFID) håller snabbt på att bli ett vanligt verktyg för att spåra råvaror i tillämpningar för hantering av försörjningskedjan. Rörelsen av varor genom leveranskedjan bildar ett gigantiskt arbetsflöde som kan brytas för upptäckt av trender, flödes korrelationer och avvikande vägar, som i sin tur kan vara värdefullt för att förstå och optimera affärsprocesser. I detta dokument föreslår vi en metod för att konstruera komprimerade probabilistiska arbetsflöden som fångar upp rörelsetrender och betydande undantag från de totala datamängderna, men med en storlek som är betydligt mindre än den för det fullständiga RFID-arbetsflödet. Kompression uppnås på grundval av följande observationer: (1) endast en relativt liten minoritet av objekten avviker från den allmänna trenden, (2) endast verkligt icke-redundanta avvikelser, dvs. de som väsentligt avviker från de tidigare registrerade, är intressanta, och (3) även om RFID-data registreras på primitiv nivå, sker dataanalys vanligtvis på en högre abstraktionsnivå. Tekniker för komprimering av arbetsflöden baserade på icke-redundanta övergångs- och utsläppsannolikheter härleds, och en algoritm för beräkning av ungefärliga vägsannolikheter utvecklas. Våra experiment visar nyttan och genomförbarheten av vår design, datastruktur och algoritmer. | En metod har erbjudits i REF (3), även om RFID-data registreras på primitiv nivå, sker dataanalys vanligtvis på en högre abstraktionsnivå. | 2,027,243 | Mining compressed commodity workflows from massive RFID data sets | {'venue': "CIKM '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,675 |
Abstrakt. I detta dokument beskriver vi nya resultat om säkerheten, i Luby-Rackoff-paradigmet, för två modifierade Feistel-konstruktioner, nämligen L-systemet, en konstruktion som används på olika nivåer av MISTY-blockschiffer som gör det möjligt att härleda en 2n-bitars permutation från flera n-bitars permutationer, och en något annorlunda konstruktion som kallas R-systemet. Vi får pseudorandomness och superpseudorandomness bevis för L-system och R-system med ett tillräckligt antal rundor, som utökar pseudorandomness och icke-superpseudorandomness resultat på 4-round L-system som tidigare inrättats av Sugita [Su96] och Sakurai et al. [Sa97].................................................... I synnerhet visar vi att till skillnad från 3-round L-systemet är 3-round R-systemet pseudorandom och att både 5-round L-systemet och 5-round R-systemet är super pseudorandom (där de fyra runda versionerna av båda systemen inte är super pseudorandom). De säkerhetsgränser som erhålls här är nära de som fastställts av Luby och Rackoff för den tre runda versionen av det ursprungliga Feistel-systemet. | I REF formaliserar Gilbert och Minier standardstrukturen MISTY som L-systemet och hänvisar den dubbla strukturen till R-systemet och ger bevis på (super) pseudorandomness. | 1,015,404 | New results on the pseudorandomness of some blockcipher constructions | {'venue': 'in Proceedings of Fast Software Encryption (FSE 2001), Lecture Notes in Computer Science, Volume 2355, Pages', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,676 |
Abstract-Under ramen för spektral klusterbildning, är nyckeln till subrymd kluster att bygga en likhet diagram som beskriver grannskapet relationer mellan datapunkter. Vissa nya verk bygger grafen med sparsamt, lågt rankat och l2-norm-baserad representation, och har uppnått state-of-the-art prestanda. Dessa metoder har emellertid drabbats av följande två begränsningar. För det första är tidskomplexiteterna hos dessa metoder åtminstone proportionella mot kuben i datastorleken, vilket gör dessa metoder ineffektiva för att lösa storskaliga problem. För det andra kan de inte hantera uppgifter utanför urvalet som inte används för att konstruera likhetsdiagrammet. För att klumpa ihop varje ut-of-prov-datum måste metoderna räkna om likhetsdiagrammet och klustersammansättningen i hela datamängden. I detta dokument föreslår vi en enhetlig ram som gör representationsbaserade klusteralgoritmer möjliga att samla både out-of-prov och storskaliga data. Inom vår ram hanteras det storskaliga problemet genom att det omvandlas till ett urvalsproblem genom "provtagning, klusterbildning, kodning och klassificering". Dessutom ger vi en uppskattning av felgränserna genom att behandla varje subrymd som en punkt i en hyperrymd. Omfattande experimentella resultat på olika referensdataset visar att våra metoder överträffar flera nyligen föreslagna skalbara metoder vid klusterering av storskaliga dataset. Index Terms-Scalable subspace clustering, out-of-prove problem, sparse subspace clustering, låg-rank representation, minst kvadrat regression, fel bunden analys. | I Ref klustrar ett slumpmässigt delurval av data och använder sedan denna klustring för att klassificera eller märka datapunkterna utanför urvalet. | 1,403,931 | A Unified Framework for Representation-based Subspace Clustering of Out-of-sample and Large-scale Data | {'venue': 'IEEE Trans. on Neural Networks and Learning Systems, vol. 27, no. 12, pp. 2499-2512, Dec. 2016', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics']} | 6,677 |
Abstract-Topology kontroll i ett sensornätverk balanserar belastningen på sensornoder och ökar nätverkets skalbarhet och livslängd. Klustersensorn noder är en effektiv topologi kontroll metod. I detta dokument föreslår vi en ny distribuerad klusterstrategi för långlivade ad hoc-sensornätverk. Vårt föreslagna tillvägagångssätt gör inga antaganden om förekomsten av infrastruktur eller om nodkapacitet, förutom tillgängligheten av flera effektnivåer i sensornoder. Vi presenterar ett protokoll, HEED (Hybrid Energy-Efficient Distribuated clustering), som periodiskt väljer klusterhuvuden enligt en hybrid av noden restenergi och en sekundär parameter, såsom nod närhet till sina grannar eller nod grad. HEED avslutas i Oð1 ska iterationer, ådrar sig låga budskap overhead, och uppnår ganska enhetlig kluster huvud distribution över nätverket. Vi bevisar att, med lämpliga gränser på nodtäthet och intrakluster och intercluster överföringsintervall, kan HEED asymptotiskt säkert garantera anslutning av klustererade nätverk. Simuleringsresultat visar att vårt föreslagna tillvägagångssätt är effektivt för att förlänga nätverkets livslängd och stödja skalbar dataaggregation. | O. Younis, et.al REF föreslog HEED (Hybrid Energy-Efficient Distribuated clustering), som periodiskt väljer klusterhuvuden efter en hybrid av noden restenergi och en sekundär parameter, såsom nod närhet till sina grannar eller nod grad. | 2,012,679 | HEED: a hybrid, energy-efficient, distributed clustering approach for ad hoc sensor networks | {'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']} | 6,678 |
ASF+SDF Meta-Miljö är en interaktiv språkutvecklingsmiljö vars huvudsakliga tillämpningsområden är definition och genomförande av domänspecifika språk, generering av programanalys- och omvandlingsverktyg samt produktion av programrenoveringsverktyg. Den använder villkorliga omskrivningsregler för att definiera dynamiska semantik och andra verktygsorienterade aspekter av språk, så effektiviteten hos de genererade verktygen är kritiskt beroende av kvaliteten på omskrivningsregelns genomförande. ASF+SDF omskriver regelkompilatorn genererar C-kod och utnyttjar därmed C:s portabilitet och de sofistikerade optimeringsmöjligheterna hos nuvarande C-kompilatorer samt undviker potentiella flaskhalsar i det abstrakta maskingränssnittet. Den kan hantera stora (10 000+ regel) språkdefinitioner och använder ett effektivt lagringssystem som kan hantera stora (1 000 000+ nod) termer. Term lagring använder maximal subterm delning (hash-consing), som visar sig vara effektivare när det gäller ASF+SDF än när det gäller Lisp eller SML. Omfattande benchmarking har visat att den genererade kodens tid och rymdprestanda är lika bra som eller bättre än de bästa aktuella reglerna för omskrivning och funktionella språkkompilatorer. | ASF+SDF är meta-språket för ASF+SDF Meta-Miljö REF, som är en interaktiv språkmiljö för att definiera och genomföra DSL, generera programanalys och omvandlingsverktyg, och producera programrenoveringsverktyg. | 16,703 | Compiling language definitions: the ASF+SDF compiler | {'venue': 'TOPL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,679 |
ABSTRACT Internet of Things (IoT) är ett nätverk av alla enheter som kan nås via Internet. Dessa enheter kan nås på distans och styras med hjälp av befintlig nätverksinfrastruktur, vilket möjliggör en direkt integrering av datorsystem med den fysiska världen. Detta minskar också det mänskliga engagemanget och förbättrar noggrannheten och effektiviteten, vilket leder till ekonomiska fördelar. Enheterna i IoT underlättar det dagliga livet för människor. IoT har dock ett enormt hot mot säkerhet och integritet på grund av sin heterogena och dynamiska natur. Autentisering är en av de mest utmanande säkerhetskraven i IoT-miljön, där en användare (extern part) kan få direkt tillgång till information från enheterna, förutsatt att ömsesidig autentisering mellan användare och enheter sker. I detta dokument presenterar vi en ny signatur-baserad autentiserad nyckel etableringssystem för IoT-miljön. Det föreslagna systemet testas för säkerhet med hjälp av den allmänt använda Burrows-Abadi-Needham-logiken, den informella säkerhetsanalysen och även den formella säkerhetsverifieringen med hjälp av den allmänt accepterade automatiska valideringen av säkerhetsprotokoll och tillämpningsverktyg på Internet. Det föreslagna systemet genomförs också med hjälp av den allmänt accepterade NS2-simulatorn, och simuleringsresultaten visar att systemet är praktiskt genomförbart. Slutligen ger det föreslagna systemet fler funktioner, och kostnaderna för beräkning och kommunikation är också jämförbara med andra befintliga metoder. INDEX TERMS Internet of things (IoT), autentisering, nyckeletablering, Burrows-Abadi-Needham (BAN) logik, AVISPA, NS2 simulering, säkerhet. | För att uppnå säkerhetskraven i IoT, Challa et al. REF presenterade en ny signaturbaserad autentiserad viktig etableringsordning för IoT-miljön. | 5,399,837 | Secure Signature-Based Authenticated Key Establishment Scheme for Future IoT Applications | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 6,680 |
Abstract-I ett trådlöst nätverk med en enda källa och en enda destination och ett godtyckligt antal relänoder, vad är den maximala hastigheten av informationsflödet uppnåelig? Vi gör framsteg med detta långvariga problem genom en tvåstegsstrategi. Först föreslår vi en deterministisk kanalmodell som fångar de viktigaste trådlösa egenskaperna hos signalstyrka, sändning och superposition. Vi får en exakt karakterisering av kapaciteten hos ett nätverk med noder anslutna av sådana deterministiska kanaler. Detta resultat är en naturlig generalisering av den berömda max-flöde min-cut teorem för trådbundna nätverk. För det andra använder vi de insikter som erhållits från den deterministiska analysen för att utforma ett nytt kvantize-karta-och-framåt-system för Gaussiska nätverk. I detta schema kvantifierar varje relä den mottagna signalen på bullernivån och kartlägger den till ett slumpmässigt Gaussiskt kodord för vidarebefordran, och den slutliga destinationen avkodar källans meddelande baserat på den mottagna signalen. Vi visar att detta system, till skillnad från befintliga system, kan uppnå den övre gränsen inom ett gap som är oberoende av kanalparametrarna. När det gäller reläkanalen med ett enda relä samt två-relä Gaussian diamant nätverk, gapet är 1 bit/s/Hz. Dessutom är systemet universellt i den meningen att reläerna inte behöver någon kunskap om värdena för kanalparametrarna för att (ungefär) uppnå den hastighet som stöds av nätet. Vi presenterar också utvidgningar av resultaten till multicast-nätverk, halvduplex-nätverk och ergodiska nätverk. | Avestimehr et al REF har föreslagit en deterministisk kanalmodell för att studera de höga SNR-asymptotikerna inom området nätverksinformationsteori och därmed få konstanta gap approximationer till kapaciteten i trådlösa nätverk. | 2,800,189 | Wireless Network Information Flow: A Deterministic Approach | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,681 |
Abstract-Robots krävs i allt högre grad för att utföra uppgifter som involverar kontakter med miljön. Detta dokument tar upp problemet med att uppskatta miljöbegränsningar på robotens rörelse. Vi presenterar en metod som uppskattar sådana begränsningar, genom att beräkna nollutrymmet för en uppsättning hastighet vektorer som skiljer sig från befallda hastigheter under kontakter. Vi utökar ytterligare denna metod för att hantera ensidiga begränsningar, till exempel när roboten vidrör en styv yta. Till skillnad från tidigare arbete är vår metod baserad på kinematics analys, med endast proprioceptive gemensamma kodare, därför finns det inget behov av vare sig dyra force-torque sensorer eller taktila sensorer vid kontaktpunkterna eller någon användning av vision. Vi visar först resultat av experiment med en simulerad robot i en mängd olika situationer, och vi analyserar effekten av olika nivåer av observationsbuller på de resulterande kontaktberäkningarna. Slutligen utvärderar vi resultatet av vår metod på två uppsättningar experiment med hjälp av en KUKA LWR IV manipulator, som har till uppgift att utforska och uppskatta de begränsningar som orsakas av en horisontell yta och en lutande yta. | Nyligen i REF presenterade vi en metod för att på ett tillförlitligt sätt uppskatta de kinematiska begränsningar som uppstår från kontakter som begränsar robotens fria rörelseutrymme. | 6,823,132 | Kinematics-based estimation of contact constraints using only proprioception | {'venue': '2016 IEEE-RAS 16th International Conference on Humanoid Robots (Humanoids)', 'journal': '2016 IEEE-RAS 16th International Conference on Humanoid Robots (Humanoids)', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 6,682 |
Vi presenterar PiCam (Pelican Imaging Camera-Array), ett ultratunn högpresterande monolitiskt kamerasystem, som fångar ljusfält och syntetiserar högupplösta bilder tillsammans med en avståndsbild (scendjup) genom integrerad parallaxdetektering och överupplösning. Kameran är passiv, stöder både stillbilder och video, lågt ljus kapabel, och tillräckligt liten för att ingå i nästa generation av mobila enheter inklusive smartphones. Tidigare arbeten [Rander et al. 1997; Yang m.fl. 2002; Zhang och Chen 2004; Tanida et al. 2001; Tanida m.fl. 2003; Duparré m.fl. 2004] i kameramatriser har utforskat flera facetter av ljusfält fånga - från synvinkel syntes, syntetisk omfokusering, datorområdet bilder, höghastighetsvideo, och mikro-optiska aspekter av systemminaturization. Ingen av dessa har dock tagit upp de ändringar som krävs för att uppnå den strikta formfaktor och bildkvalitet som krävs för att göra arraykameror praktiska för mobila enheter. I vårt tillvägagångssätt anpassar vi många aspekter av kamerasystemet inklusive linser, bildpunkter, sensorer och programvarualgoritmer för att uppnå bildprestanda och formfaktor jämförbar med befintliga mobilkameror. Våra bidrag till efterbehandling av bilder från kamerasystem inkluderar en kostnadsfunktion för parallax detektion som integrerar över flera färgkanaler, och en regulariserad bildrenovering (superupplösning) process som tar hänsyn till alla systemnedbrytningar och anpassar sig till en rad praktiska bildförhållanden. Registreringsosäkerheten från parallax detektionsprocessen är integrerad i en Maximum-a-Posteriori formulering som syntetiserar en uppskattning av högupplöst bild och scendjup. Vi avslutar med några exempel på vår array kapacitet såsom postcapture (fortfarande) omfokusering, video omfokusering, visa syntes för att visa rörelse parallax, 3D-intervall bilder, och kort ta upp framtida arbete. | En kamera array-baserad design för praktiska mobila enheter som kan syntetisera högupplösta bilder och djupkartor föreslås i REF. | 15,851,202 | PiCam: an ultra-thin high performance monolithic camera array | {'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,683 |
Mobilt Ad-Hoc-nätverk är en samling mobila noder i kommunikation utan att använda infrastruktur. Trots betydelsen av typen av data som utbyts mellan knutarna på MANETS QoS, behandlades data från flera tjänster inte av det större antalet tidigare undersökningar. I detta dokument föreslår vi en adaptiv metod som ger de bästa resultaten när det gäller fördröjning och genomströmning. Vi har studerat inverkan, respektive, av rörlighet modeller och densiteten av noder på prestanda (End-to-End Delay, Genomströmning och Packet leverans ratio) routing protokoll (On-Demand Distance Vector) AODV genom att använda i den första en multiservice VBR (MPEG-4) och för det andra konstant bitrate (CBR) trafik. Slutligen jämför vi resultaten i båda fallen. Experimentellt betraktade vi de tre rörlighetsmodellerna som följer Random Waypoint, Random Direction och Mobgen Steady-State. De experimentella resultaten visar att AODV:s beteende förändras enligt modellen och den trafik som används. | I den andra delen av papper REF analyserade författarna beteendet hos AODV-protokollet med samma tidigare mobilitetsmodeller. | 14,074,790 | Impact of Mobility on Delay-Throughput Performance in Multi-Service Mobile Ad-Hoc Networks | {'venue': 'IJCNS', 'journal': 'IJCNS', 'mag_field_of_study': ['Computer Science']} | 6,684 |
Abstrakt. Användningen av videosegmentering som ett tidigt bearbetningssteg i videoanalys släpar efter användningen av bildsegmentering för bildanalys, trots många tillgängliga videosegmenteringsmetoder. En viktig orsak till denna fördröjning är helt enkelt att videor är en storleksordning större än bilder; men de flesta metoder kräver att alla voxels i videon laddas in i minnet, vilket är klart oöverkomligt för även medelstora videor. Vi tar itu med denna begränsning genom att föreslå ett approximationsramverk för streaming hierarkisk videosegmentering som motiveras av dataströmsalgoritmer: varje videoram behandlas bara en gång och ändrar inte segmenteringen av tidigare ramar. Vi implementerar den grafbaserade hierarkiska segmenteringsmetoden inom vårt strömmande ramverk; vår metod är den första streaming hierarkiska videosegmenteringsmetoden som föreslås. Vi utför en grundlig experimentell analys av ett riktvärde för videodata och längre videor. Våra resultat indikerar den grafbaserade streaming hierarkiska metoden överträffar andra strömmande videosegmenteringsmetoder och utför nästan lika bra som den hel-video hierarkiska graf-baserade metoden. | Xu och al. REF implementerar en grafbaserad hierarkisk segmenteringsmetod inom streaming-ramverket, vilket tvingar fram ett Markovianskt antagande om videoströmmen för att approximera full videosegmentering. | 10,139,639 | Streaming Hierarchical Video Segmentation | {'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,685 |
Abstract-A trådlöst nätverk som består av ett stort antal små sensorer med lågeffekttransceivrar kan vara ett effektivt verktyg för att samla in data i en mängd olika miljöer. De data som samlas in av varje sensor kommuniceras via nätverket till ett enda bearbetningscenter som använder alla rapporterade data för att bestämma miljöns egenskaper eller upptäcka en händelse. Processen för kommunikation eller meddelandepassering ska utformas så att sensorernas begränsade energiresurser bevaras. Klustersensorer i grupper, så att sensorer kommunicerar information endast till klusterhuvuden och sedan klusterhuvudena kommunicerar den aggregerade informationen till processcentret, kan spara energi. I detta dokument föreslår vi en distribuerad, randomiserad klusteralgoritm för att organisera sensorerna i ett trådlöst sensornätverk i kluster. Vi utökar sedan denna algoritm för att generera en hierarki av klusterhuvuden och observera att energibesparingarna ökar med antalet nivåer i hierarkin. Resultat i stokastisk geometri används för att härleda lösningar för värdena av parametrar i vår algoritm som minimerar den totala energi som spenderas i nätverket när alla sensorer rapporterar data genom klusterhuvuden till processcentret. | I REF-författaren föreslår en distribuerad, randomiserad algoritm för att organisera sensornätverket i kluster och algoritmen utvidgas ytterligare för att generera en hierarki av klusterhuvuden för att spara energi. | 3,042,109 | An energy efficient hierarchical clustering algorithm for wireless sensor networks | {'venue': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'journal': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'mag_field_of_study': ['Computer Science']} | 6,686 |
Färgnamn, som relaterar färger med färgnamn, kan hjälpa människor med en semantisk analys av bilder i många datorseende program. I det här dokumentet föreslår vi en ny framträdande färgnamnsbaserad färgdeskriptor (SCNCD) för att beskriva färger. SCNCD använder framträdande färgnamn för att garantera att en högre sannolikhet kommer att tilldelas färgnamnet som är närmare färgen. Baserat på SCNCD erhålls sedan färgfördelningar över färgnamn i olika färgrymder och sammansmältes för att skapa en funktionsrepresentation. Dessutom används och analyseras bakgrundsinformationens effekt för att identifiera personer på nytt. Med en enkel metrisk inlärningsmetod överträffar den föreslagna metoden den senaste prestandan (utan användarens återkopplingsoptimering) på två utmanande datauppsättningar (VIPeR och PID 450S). Ännu viktigare, den föreslagna funktionen kan erhållas mycket snabbt om vi beräknar SCNCD av varje färg i förväg. | Yang m.fl. REF utvecklade den semantiska Salient färgnamn baserade Color Descriptor (SCNCD) med användning av färgnamn. | 564,273 | Salient Color Names for Person Re-identification | {'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,687 |
Motiverad av det ökande behovet av att förstå algoritmiska grunder för distribuerade storskaliga grafberäkningar, studerar vi ett antal grundläggande grafproblem i en meddelande-passing modell för distribuerade datorer där k ≥ 2 maskiner gemensamt utför beräkningar på grafer med n noder (vanligtvis n k). Inmatningskurvan antas inledningsvis vara slumpmässigt partitionerad bland k-maskinerna, en gemensam implementation i många verkliga system. Kommunikation är punkt-till-punkt, och målet är att minimera antalet kommunikationsrundor i beräkningen. Vårt huvudresultat är en (nästan) optimal distribuerad randomiserad algoritm för grafanslutning. Vår algoritm körs i Õ (n/k 2 ) rundor (Õ notation döljer en polylog(n) faktor och en additiv polylog(n) term). Detta förbättras över den mest kända gränsen av Õ (n/k ) [Klauck et al., SODA 2015] och är optimal (upp till en polylogaritmisk faktor) mot bakgrund av en befintlig nedre gräns på ∂(n/k 2 ). Vår förbättrade algoritm använder en massa tekniker, inklusive linjär grafskissering, som visar sig användbara i utformningen av effektiva distribuerade grafalgoritmer. Med hjälp av konnektivitetsalgoritmen som byggsten presenterar vi sedan snabbt randomiserade algoritmer för beräkning av minsta spännvidd, (ungefärliga) min-cuts, och för många grafverifieringsproblem. Alla dessa algoritmer tar Õ (n/k 2 ) rundor och är optimala upp till polylogaritmiska faktorer. Vi visar också en nästan matchande lägre gräns för ds (n/k 2 ) rundor för många grafverifiering problem genom att utnyttja lägre gränser i slumpmässig-partition kommunikation komplexitet. | I REF presenterar författarna en Õ (n/k 2 )-runalgoritm för grafanslutning, som sedan fungerar som grund för Õ (n/k 2 )-runalgoritmer för andra grafproblem såsom minsta spännträd (MST) och ungefärlig min-cut. | 49,296,753 | Fast Distributed Algorithms for Connectivity and MST in Large Graphs | {'venue': 'TOPC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,688 |
Abstract-This paper utvecklar parametriska metoder för att upptäcka nätverksanomalier med enbart aggregerad trafikstatistik, i motsats till andra arbeten som kräver flödesseparation, även när anomalien är en liten del av den totala trafiken. Genom att anta enkla statistiska modeller för avvikande och bakgrundstrafik i tidsdomänen, kan man uppskatta modellparametrar i realtid, vilket undanröjer behovet av en lång utbildningsfas eller manuell parameterinställning. Den föreslagna bivariatparametriska detektionsmekanismen (bPDM) använder ett sekventiellt sannolikhetsförhållandestest som gör det möjligt att kontrollera den falska positiva hastigheten samtidigt som man undersöker avvägningen mellan detektionstid och hållfastheten hos en anomali. Dessutom används både trafik- och paketstorlek statistik, vilket ger en bivariat modell som eliminerar de flesta falska positiva. Metoden analyseras med hjälp av det metriska bit-rate signal-to-brus-förhållandet (SNR), som visar sig vara ett effektivt mätvärde för anomalisdetektering. BPDM:s resultat utvärderas på tre sätt. För det första ger syntetiskt genererad trafik en kontrollerad jämförelse av detektionstiden som en funktion av den onormala trafiknivån. För det andra visar tillvägagångssättet att kunna upptäcka kontrollerade konstgjorda attacker över University of Southern California (USC), Los Angeles, campus nätverk i varierande verkliga trafikmixer. För det tredje uppnår den föreslagna algoritmen snabb upptäckt av verkliga överbelastningsattacker som bestäms av replay av tidigare fångade nätverksspår. Den metod som utvecklas i detta dokument kan upptäcka alla attacker i dessa scenarier på några sekunder eller mindre. Index Terms-Aggregate trafik, anomali upptäckt, distribuerad överbelastning (DDoS), parametriska modeller. | Thatte m.fl. föreslagna parametriska metoder för att upptäcka nätavvikelser med hjälp av aggregerad statistik över IP-flöden REF. | 1,385,407 | Parametric Methods for Anomaly Detection in Aggregate Traffic | {'venue': 'IEEE/ACM Transactions on Networking', 'journal': 'IEEE/ACM Transactions on Networking', 'mag_field_of_study': ['Computer Science']} | 6,689 |
Användningen av M-skattare i generaliserade linjära regressionsmodeller i högdimensionella inställningar kräver riskminimering med hårda L 0 begränsningar. Av de kända metoderna är det känt att klassen projicerad lutningsnedstigning (även kallad iterativ hård tröskel (IHT)) erbjuder de snabbaste och mest skalbara lösningarna. Men den nuvarande state-of-the-art kan bara analysera dessa metoder i extremt restriktiva miljöer som inte håller i högdimensionella statistiska modeller. I detta arbete överbryggar vi denna klyfta genom att tillhandahålla den första analysen för IHT-metoder i den högdimensionella statistiska inställningen. Våra gränser är tighta och matchar kända minimax nedre gränser. Våra resultat bygger på en allmän analysram som gör det möjligt för oss att analysera flera populära hårda tröskelstil algoritmer (såsom HTP, CoSAMP, SP) i högdimensionell regression inställning. Vi utökar också vår analys till en stor familj av "fullständigt korrigerande metoder" som inkluderar tvåstegs- och partiella hårdtröskelalgoritmer. Vi visar att våra resultat håller för problemet med gles regression, samt låg-rank matris återhämtning. | REF generaliserade metoden till inställningar där översynsperioden inte håller, och även till låg rang matris återhämtning inställning. | 1,162,245 | On Iterative Hard Thresholding Methods for High-dimensional M-Estimation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,690 |
Abstrakt. Vi föreslår en enkel metod som samtidigt rekonstruerar 3D ansiktsstrukturen och ger tät anpassning. För att uppnå detta designar vi en 2D-representation kallad UV-positionskarta som registrerar 3D-formen av ett komplett ansikte i UV-utrymme och sedan tränar ett enkelt Convolutional Neural Network för att regressera det från en enda 2D-bild. Vi integrerar även en viktmask i förlustfunktionen under träningen för att förbättra nätverkets prestanda. Vår metod förlitar sig inte på någon tidigare ansiktsmodell, och kan rekonstruera full ansiktsgeometri tillsammans med semantisk mening. Samtidigt är vårt nätverk mycket lättviktat och spenderar bara 9.8 ms för att bearbeta en bild, som är extremt snabbare än tidigare verk. Experiment på flera utmanande dataset visar att vår metod överträffar andra state-of-the-art metoder för både rekonstruktion och anpassning uppgifter med stor marginal. Koden finns på https://github.com/YadiraF/PRNet. | Feng et al. (Feng m.fl.) REF regression från bild till en UV-positionskarta som registrerar positionsinformationen för 3D-ansiktet och ger tät överensstämmelse med den semantiska betydelsen av varje punkt på UV-utrymme. | 3,996,281 | Joint 3D Face Reconstruction and Dense Alignment with Position Map Regression Network | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,691 |
Antalet äldre som bor ensamma har ökat i Japan. Om demens har upptäckts i ett tidigt skede kan sjukdomsutvecklingen bromsas. Därför är tidig upptäckt av demens så fördelaktig för patientterapin. De flesta demenssymptom kan upptäckas av huskamrater, märker vissa förändringar i beteendet hos äldre människor. Det är dock svårt att upptäcka tidiga symtom på demens hos äldre människor som bor ensamma. I denna studie föreslog vi ett system som upptäcker symptomen hos de äldre människor som bor ensamma genom att använda M2M (Machine-to-Machine) /IoT (Internet of Things) plattform. Vi installerade sensorer inne i huset för äldre människor som bor ensamma. Dessa sensorer kan upptäcka beteende genom initiala symtom på demens. Dessa sensorers data kommer också att användas som beteendedata för demenspatienter. Dessutom gjorde vi ett frågeformulär om deras vanor och personligheter. Dessa frågeformulärs resultat användes som attributdata för försökspersonerna. Systemet analyserar de två uppgifterna och bestämmer sedan förekomsten eller frånvaron av demens. | Ishii m.fl. REF utformade ett system för tidig upptäckt av demens med hjälp av maskin-till-maskin (M2M)/IoT-plattformen. | 35,173,339 | An Early Detection System for Dementia Using the M2 M/IoT Platform | {'venue': 'KES', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,692 |
I detta dokument behandlas uppgiften att artikulerade mänskliga pose uppskattning av flera människor i verkliga bilder. Vi föreslår ett tillvägagångssätt som tillsammans löser detektionsuppgifterna och ger en uppskattning: det leder till antalet personer i en scen, identifierar tillfångatagna kroppsdelar och disambiguerar kroppsdelar mellan människor i närheten av varandra. Denna gemensamma formulering är i motsats till tidigare strategier, som tar itu med problemet genom att först upptäcka människor och därefter uppskatta deras kropp pose. Vi föreslår en partitionering och märkning formulering av en uppsättning kroppsdelar hypoteser som genereras med CNN-baserade deldetektorer. Vår formulering, ett exempel på ett heltal linjärt program, utför implicit icke-maximal undertryckande på uppsättningen av del kandidater och grupperar dem för att bilda konfigurationer av kroppsdelar som respekterar geometriska och utseende begränsningar. Experiment på fyra olika datauppsättningar visar toppmoderna resultat för både en person och flera personer utgör estimering 1. | Medan majoriteten av metoder uppskattar utgör en enda person, flera personer pose uppskattning behandlas i REF. | 5,264,846 | DeepCut: Joint Subset Partition and Labeling for Multi Person Pose Estimation | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 6,693 |
Abstract-När man fångar bilder i låg ljusförhållanden, är bilderna ofta lider av låg synlighet. Förutom att försämra den visuella estetiken hos bilder, kan denna dåliga kvalitet också avsevärt degenerera prestandan hos många datorseende och multimediaalgoritmer som i första hand är utformade för högkvalitativa ingångar. I detta dokument föreslår vi en enkel men effektiv lowlight image enhancement (LIME) metod. Mer konkret uppskattas belysningen av varje pixel först individuellt genom att man hittar det maximala värdet i R, G och B-kanaler. Dessutom förfinar vi den ursprungliga belysningskartan genom att införa en struktur innan den, som den slutliga belysningskartan. Med den välkonstruerade belysningskartan kan förbättringen uppnås i enlighet med detta. Experiment på ett antal utmanande lågljusbilder är närvarande för att avslöja effektiviteten i vår LIME och visa sin överlägsenhet över flera state-of-the-arts när det gäller förbättring kvalitet och effektivitet. | I REF föreslogs en enkel men effektiv bildförbättring med låga ljusnivåer (LIME), där belysningen av varje pixel först uppskattades genom att man fann det maximala värdet i RGB-kanalerna, sedan konstruerades belysningskartan genom att införa en struktur tidigare. | 5,778,488 | LIME: Low-Light Image Enhancement via Illumination Map Estimation | {'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']} | 6,694 |
Abstract-Reverse Engineering mjukvarusystem har blivit en stor oro i programvaruindustrin på grund av deras ren storlek och komplexitet. Detta problem måste lösas eftersom systemen i fråga är av stort värde för ägarna och underhållarna. I den här artikeln presenterar vi konceptet med en polymetrisk vy, en lätt programvara visualisering teknik berikad med programvara metrisk information. Polymetriska vyer hjälper till att förstå strukturen och upptäcka problem med ett programvarusystem i de inledande faserna av en omvänd konstruktionsprocess. Vi diskuterar fördelarna och gränserna för flera fördefinierade polymetriska vyer som vi har implementerat i vårt verktyg CodeCrawler. Dessutom, baserat på kluster av olika polymetriska vyer, har vi utvecklat en metodik som stödjer och vägleder en programvaruingenjör i de första faserna av en omvänd konstruktion av ett stort programvarusystem. Vi har förfinat denna metod genom att upprepade gånger tillämpa den på industriella system och illustrera den genom att tillämpa ett urval av polymetriska synpunkter på en fallstudie. | Lanza och Ducasses Polymetric Views REF försöker upptäcka problem så tidigt som möjligt i de inledande faserna av en omvänd ingenjörsprocess och syftar till att hjälpa till att förstå strukturen i ett programvarusystem. | 5,879,121 | Polymetric Views - A Lightweight Visual Approach to Reverse Engineering | {'venue': 'IEEE Trans. Software Eng.', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,695 |
ABSTRACT Med målet att förbättra lokaliseringsnoggrannheten, minska nätkostnader och energiförluster i 3D-miljön, föreslår detta dokument en mobil nodlokaliseringsalgoritm baserad på kompressiv avkänning för akustiska sensornätverk under vatten (UASNs). Genom att dela kubikmodulen i undervattensövervakningsområdet och använda energin mellan den mobila ankarknutan och de okända noderna omvandlas det glesa lokaliseringsproblemet baserat på kubikmodulen till nodernas lokaliseringsproblem baserat på kompressiv avkänning. Eftersom energilokaliseringen mellan noder baserade på kubisk modularisering är antagen, behöver den mobila nodens väg inte vara speciellt utformad, så länge den mobila beacon noden passerar hela kubikmodulen. Med tanke på avståndsproblemet för den rörliga banan baseras den mobila nodvägen på den slumpmässiga waypointen (RWP) och LAYERED-SCAN-modellen. Simuleringsresultaten visar att den föreslagna algoritmen kan tillämpas på nodlocalization problem av UASNs. Det kan minska nätkostnader och nod energiförlust samtidigt få högre lokalisering noggrannhet. INDEX TERMS Undervattens akustiska sensornätverk, nodlokalisering, kompressiv avkänning, mobil ankarnod. | Lin m.fl. REF föreslog en mobil nodlokalisering i UASN. | 108,378,281 | A Node Self-Localization Algorithm With a Mobile Anchor Node in Underwater Acoustic Sensor Networks | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 6,696 |
Motivering: Förståelse av proteiners funktioner i specifika mänskliga vävnader är avgörande för insikter i sjukdomsdiagnostik och terapier, men förutsägelse av vävnadsspecifika cellulära funktioner är fortfarande en kritisk utmaning för biomedicin. Här presenterar vi OhmNet, en hierarki-medveten oövervakad nod funktion lärande för flera lager nätverk. Vi bygger ett nätverk där varje lager representerar molekylära interaktioner i olika mänskliga vävnader. OhmNet lär sig sedan automatiskt en kartläggning av proteiner, representerade som noder, till en neural inbäddning baserad låg-dimensionellt utrymme av funktioner. OhmNet uppmuntrar delning av liknande funktioner bland proteiner med liknande nätverk kvarter och bland proteiner aktiverade i liknande vävnader. Algoritmen generaliserar tidigare arbete, som i allmänhet ignorerar relationer mellan vävnader, genom att modellera vävnadsorganisation med en rik flerskalig vävnadshierarki. Vi använder OhmNet för att studera multicellulär funktion i ett flerlagers proteininteraktion nätverk av 107 mänskliga vävnader. I 48 vävnader med kända vävnadsspecifika cellulära funktioner, ger OhmNet mer exakta förutsägelser av cellulär funktion än alternativa metoder, och genererar också mer exakta hypoteser om vävnadsspecifika proteinåtgärder. Vi visar att med hänsyn till vävnadshierarkin leder till förbättrad prediktiv kraft. Anmärkningsvärt visar vi också att det är möjligt att utnyttja vävnadshierarkin för att effektivt överföra cellfunktioner till en funktionellt okaraktäriserad vävnad. Sammantaget går OhmNet från platta nätverk till flerskaliga modeller som kan förutsäga en rad fenotyper som spänner över cellulära delsystem. Tillgänglighet: Källkod och datauppsättningar finns tillgängliga på http://snap.stanford.edu/ohmnet. | Studien gjord av Zitnik et al. REF förlängde node2vek-algoritmen i ett flerskiktsnätverk som heter OhmNet, där varje skikt representerar molekylära interaktioner i olika mänskliga vävnader och rapporterade exakta förutsägelser för vävnadscellulära funktioner. | 4,640,611 | Predicting multicellular function through multi-layer tissue networks | {'venue': 'Bioinformatics 2017, 33 (14): i190-i198', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine', 'Biology', 'Mathematics']} | 6,697 |
Programvarans och hårdvarusystemens storlek och komplexitet har ökat betydligt under de senaste åren. Som ett resultat av detta är det svårare att garantera deras rätta beteende. En av de mest framgångsrika metoderna för automatisk verifiering av finita system är modellkontroll. De flesta av de nuvarande modellkontrollsystemen använder binära beslutsdiagram (BDD) för att representera den testade modellen och i verifieringsprocessen av dess egenskaper. Generellt, BDDs tillåter en kanonisk kompakt representation av en booleska funktion (med tanke på en ordning av dess variabler). Ju mer kompakt BDD är, desto bättre prestanda får man från kontrollanten. Att hitta en optimal ordning för en BDD är dock ett NP-komplett problem. Därför har flera heuristiska metoder baserade på expertkunskap utvecklats för variabla beställningar. Vi föreslår ett alternativt tillvägagångssätt där variabel orderalgoritmen får "beställerfarenhet" från utbildningsmodeller och använder den inlärda kunskapen för att hitta bra order. Vår metodik är baserad på offline inlärning av par företräde klassificerare från utbildningsmodeller, det vill säga lära vilken variabel par permutation är mer sannolikt att leda till en bra ordning. För varje träningsmodell utvärderas ett antal träningssekvenser. Varje träningsmodell variabel par permutation är sedan taggad baserat på dess prestanda på de utvärderade beställningarna. De taggade permutationerna skickas sedan genom en funktionsextraktor och ges som exempel till en klassificeringsskapelsealgoritm. Med tanke på en modell för vilken en order begärs konsulterar beställningsalgoritmen varje prioritetsklassificering och konstruerar en parprioritetstabell som används för att skapa ordern. Vår algoritm integrerades med SMV, som är ett av de mest använda verifieringssystemen. Preliminär empirisk utvärdering av vår metod, med hjälp av verkliga referensmodeller, visar prestanda som är bättre än slumpmässig beställning och är konkurrenskraftig med befintliga algoritmer som använder expertkunskap. Vi tror att i underdomäner av modeller (alu, caches, etc.) Vårt system kommer att visa sig ännu mer värdefullt. Detta beror på att det har förmågan att lära sig sub-domän kunskap, något som ingen annan beställning algoritm gör. | REF använder beslutsträd för att lära sig variabel parpermutation vilket är mer sannolikt att leda till en bra ordning. | 10,583,264 | Learning to Order BDD Variables in Verification | {'venue': 'Journal Of Artificial Intelligence Research, Volume 18, pages 83-116, 2003', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,698 |
Abstract-Forskare använder ofta segmentbaserade proxy caching strategier för att leverera strömmande medier genom delvis caching medieobjekt. De befintliga strategierna överväger främst att öka byte hit förhållandet och / eller minska klienten uppfattad start latency (betecknas av den metriska fördröjda start förhållandet). Dessa ansträngningar garanterar dock inte kontinuerlig medialeverans eftersom de objektsegment som ska ses inte kan cacheeras i proxyn när de efterfrågas. Den potentiella konsekvensen är uppspelningjitter på klientsidan på grund av proxyfördröjning i att hämta de ofångade segmenten, som vi kallar proxyjitter. Därför, för kundernas bästa, en korrekt modell för streaming proxy system design bör syfta till att minimera proxy jitter under förutsättning att minska den försenade start förhållandet och öka byte träff förhållandet. Vi har dock observerat två stora par av motstridiga intressen som ingår i denna modell: 1) en mellan att förbättra byte hit-förhållandet och minska proxyjitter, och 2) den andra mellan att förbättra byte träff-förhållandet och att minska den försenade start-förhållandet. I denna studie föreslår och analyserar vi först förhämtningsmetoder för förhämtning i tid av ofångade segment, vilket ger insikter i det första paret motstridiga intressen. För det andra, för att ta itu med det andra paret av motstridiga intressen, bygger vi en allmän modell för att analysera prestanda avvägning mellan det andra paret motstridiga prestationsmål. Slutligen, med tanke på vårt huvudsakliga mål att minimera proxyjitter och optimera de två kompromisser, föreslår vi ett nytt strömmande proxy system som kallas Hyper Proxy. Syntetiska och verkliga arbetsbelastningar används för att utvärdera vårt system. Prestandaresultaten visar att Hyper Proxy genererar minsta proxyjitter med en låg fördröjd startkvot och en liten minskning av byte hit ratio jämfört med befintliga system. | Chen och Al. föreslå en strömmande proxy system kallas Hyper Proxy, som använder aktiv förhämtning för i-tid leverans av ofångade segment för att ta itu med proxy jitter problem REF. | 15,373,025 | Segment-based streaming media proxy: modeling and optimization | {'venue': 'IEEE Transactions on Multimedia', 'journal': 'IEEE Transactions on Multimedia', 'mag_field_of_study': ['Computer Science']} | 6,699 |
Huvudkomponentanalys (PCA) har i stor utsträckning tillämpats vid datautvinning, mönsterigenkänning och informationssökning för oövervakad dimensionalitetsreduktion. När det finns etiketter på data, t.ex. i en klassificerings- eller regressionsuppgift, kan PCA dock inte använda denna information. Problemet är mer intressant om bara en del av inmatningsdata är märkta, dvs., i en semi-övervakad inställning. I detta dokument föreslår vi en övervakad PCA-modell kallad SPPCA och en semiövervakad PCA-modell kallad S 2 PPCA, som båda är förlängningar av en probabilistisk PCA-modell. De föreslagna modellerna kan införliva märkningsinformationen i projektionsfasen och kan naturligt hantera flera utgångar (dvs. i inlärningsproblem med flera uppgifter). Vi härleder en effektiv EM inlärningsalgoritm för båda modellerna, och ger även teoretiska motiveringar av modellens beteenden. SPPCA och S 2 PPCA jämförs med andra övervakade projektionsmetoder för olika inlärningsuppgifter, och visar inte bara lovande resultat utan också god skalbarhet. | Yu m.fl. REF föreslog också en delvis övervakad förlängning av SPPCA, kallad S 2 PPCA, som kan använda omärkta data också. | 2,091,304 | Supervised probabilistic principal component analysis | {'venue': "KDD '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,700 |
Multivariata tidsseriedata i praktiska tillämpningar, såsom hälso- och sjukvård, geovetenskap och biologi, kännetecknas av en mängd saknade värden. I tidsseriers förutsägelse och andra relaterade uppgifter har det noterats att saknade värden och deras saknade mönster ofta korreleras med måletiketterna, t.ex. informationsfel. Det finns mycket begränsat arbete på att utnyttja de saknade mönster för effektiv imputering och förbättra förutsägelse prestanda. I detta dokument utvecklar vi nya modeller för djupt lärande, nämligen GRU-D, som ett av de tidiga försöken. GRU-D baseras på Gated Recurrent Unit (GRU), ett toppmodernt återkommande neuralt nätverk. Det tar två representationer av saknade mönster, d.v.s., maskering och tidsintervall, och effektivt införliva dem i en djup modell arkitektur så att det inte bara fångar de långsiktiga temporal beroenden i tidsserier, men också använder de saknade mönster för att uppnå bättre förutsägelse resultat. Experiment av tidsserieklassificeringsuppgifter på verkliga kliniska dataset (MIMIC-III, PhysiNet) och syntetiska dataset visar att våra modeller uppnår toppmoderna prestanda och ger användbara insikter för bättre förståelse och utnyttjande av saknade värden i tidsserieanalys. Multivariata tidsseriedata är allmänt förekommande i många praktiska tillämpningar som sträcker sig från hälso- och sjukvård, geovetenskap, astronomi, biologi och andra. De bär ofta med sig felande observationer på grund av olika orsaker, såsom medicinska händelser, kostnadsbesparingar, anomalier, olägenheter och så vidare. Det har noterats att dessa saknade värden är oftast informativ saknashet 1, dvs. de saknade värden och mönster ger rik information om måletiketter i övervakade lärande uppgifter (t.ex. tidsserie klassificering). För att illustrera denna idé visar vi några exempel från MIMIC-III 2, en verklig värld sjukvård dataset, i Bild. 1................................................................ Vi ritar Pearson korrelationskoefficienten mellan variabla saknade frekvenser, vilket indikerar hur ofta variabeln saknas i tidsserierna, och etiketterna på våra intressen, som är dödlighet och ICD-9 diagnos kategorier. Vi observerar att värdet av saknad hastighet korreleras med etiketterna, och den saknade frekvensen av variabler med låg saknad hastighet är oftast hög (antingen positiv eller negativ) korrelerad med etiketterna. Med andra ord, den saknade frekvensen av variabler för varje patient är användbar, och denna information är mer användbar för de variabler som observeras oftare i datauppsättningen. Dessa fynd visar nyttan av saknade mönster för att lösa en förutsägelse uppgift. Under de senaste årtiondena har olika metoder utvecklats för att ta itu med saknade värden i tidsserie 3. En enkel lösning är att utelämna de saknade uppgifterna och att utföra analyser endast på de observerade uppgifterna, men det ger inte bra prestanda när den saknade frekvensen är hög och otillräckliga prover hålls. En annan lösning är att fylla i de saknade värdena med substituerade värden, som kallas dataimputation. Utjämning, interpolation 4, och spline 5 metoder är enkla och effektiva, vilket allmänt tillämpas i praktiken. Dessa metoder fångar dock inte upp variabla korrelationer och får inte fånga upp komplexa mönster för att utföra imputering. En mängd imputeringsmetoder har utvecklats för att bättre uppskatta saknade data. Dessa inkluderar spektralanalys 6, kärnmetoder 7, EM algoritm 8, matris komplettering 9 och matris faktorisering 10. Multipel imputation 11,12 kan tillämpas ytterligare med dessa imputation metoder för att minska osäkerheten, genom att upprepa imputation förfarande flera gånger och medelvärde resultaten. Att kombinera imputeringsmetoder med förutsägelsemodeller resulterar ofta i en tvåstegsprocess där imputering och förutsägelsemodeller separeras. Genom att göra detta, de saknade mönster inte effektivt utforskas i förutsägelsemodellen, vilket leder till suboptimala analyser resultat 13. Dessutom har de flesta imputeringsmetoder också andra krav som kanske inte är uppfyllda i verkliga tillämpningar, till exempel arbetar många av dem med data Publicerad: xx xx xxxx OPEN www.nature.com/science reports/ 2 ScIenTIFIc RAPPORTER (2018) 8:6085 | REF tillämpade en förlängning av recidiverande neurala nätverk (RNN) för multivariat tidsserieklassificering med saknade värden. | 4,900,015 | Recurrent Neural Networks for Multivariate Time Series with Missing Values | {'venue': 'Scientific Reports', 'journal': 'Scientific Reports', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']} | 6,701 |
Modellering är en viktig och tidskrävande del av livscykeln för hantering av affärsprocesser. En analytiker granskar befintlig dokumentation och frågor relevanta domänexperter för att konstruera både mentala och konkreta modeller av domänen. För att underlätta detta föreslår vi ramverket Rapid Business Process Discovery (R-BPD) och prototypverktyg som kan ifrågasätta heterogena informationsresurser (t.ex. Företagsdokumentation, webbinnehåll, kod e.t.c.) och snabbt konstruera protomodeller som gradvis anpassas till korrektheten av en analytiker. Detta utgör en avvikelse från att bygga och bygga modeller för att bara redigera dem. Vi anser att denna snabba modellering av blandade initiativ kommer att öka analytikernas produktivitet genom betydande storleksordningar jämfört med traditionella metoder. Dessutom verkar möjligheten att använda metoden i distribuerade och realtidsinställningar tilltalande och kan bidra till att avsevärt förbättra kvaliteten på de modeller som utvecklas w.r.t. vara konsekvent, komplett och koncis. | I synnerhet beskriver REF att källan till information från text är heterogena informationskällor (t.ex. företagsdokumentation, webbinnehåll, kod osv.).).............................................................................................. | 4,645,524 | Process Discovery from Model and Text Artefacts | {'venue': '2007 IEEE Congress on Services (Services 2007)', 'journal': '2007 IEEE Congress on Services (Services 2007)', 'mag_field_of_study': ['Computer Science']} | 6,702 |
Nya metoder till Automatic Postitation (APE) av Machine Translation (MT) har visat att bästa resultat erhålls av neurala multi-source modeller som korrigerar rå MT utdata genom att också överväga information från motsvarande käll mening. För detta ändamål presenterar vi för första gången en neural multi-source APE-modell baserad på Transformer-arkitekturen. Dessutom använder vi förlustfunktioner på sekvensnivå för att undvika exponeringsfördel under utbildningen och för att vara förenliga med de automatiska mätvärden som används för uppgiften. Dessa är huvuddragen i våra bidrag till WMT 2018 APE gemensamma uppgiften, där vi deltog både i PBSMT subtask (dvs.. Korrigering av MT-utgångar från ett frasbaserat system) och i NMT-deluppgiften (dvs. korrigering av neurala utgångar). I den första deluppgiften, vårt system förbättrar över baslinjen upp till -5.3 TER och +8.23 BLEU poäng ranking andra av 11 inlämnade körningar. I den andra, som kännetecknas av den högre kvaliteten på de ursprungliga översättningarna, rapporterar vi lägre men statistiskt signifikanta vinster (upp till -0,38 TER och +0,8 BLEU), rankning först av 10 inlagor. | Det vinnande teamet för NMT-uppgiften i WMT 2018 REF använder förlustfunktioner på sekvensnivå för att undvika exponeringsfördel under utbildningen och för att överensstämma med de automatiska utvärderingsmåtten. | 53,248,957 | Multi-source transformer with combined losses for automatic post editing | {'venue': 'WMT', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,703 |
De flesta toppmoderna 3D-objektdetektorer är starkt beroende av LiDAR-sensorer och det finns fortfarande en stor skillnad i prestanda mellan bildbaserade och LiDAR-baserade metoder, som orsakas av olämplig representation för förutsägelsen i 3D-scenarier. Vår metod, kallad Deep Stereo Geometrie Network (DSGN), minskar detta gap avsevärt genom att detektera 3D-objekt på en differentierad volymetrisk representation -3D geometrisk volym, som effektivt kodar 3D geometrisk struktur för 3D regelbundet utrymme. Med denna representation lär vi oss djupinformation och semantiska signaler samtidigt. För första gången tillhandahåller vi en enkel och effektiv stereobaserad 3D-detektionsrörledning som tillsammans uppskattar djupet och upptäcker 3D-objekt på ett endto-end-learning-sätt. Vårt tillvägagångssätt överträffar tidigare stereobaserade 3D-detektorer (ca 10 högre än AP) och uppnår till och med jämförbar prestanda med några LiDAR-baserade metoder på KITTI 3D-objektdetekteringslistan. Koden kommer att göras tillgänglig för allmänheten. | Den senaste state-of-the-art metoden, DSGN REF, föreslår användningen av en differentierad 3D volymetrisk representation av miljön för att lösa stereo 3D objektdetektion. | 210,156,953 | DSGN: Deep Stereo Geometry Network for 3D Object Detection | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,704 |
Abstract-The current-feed dual active bridge (CF-DAB) fm-dc omvandlare vinner växande applikationer i solceller (PV) och energilagringssystem på grund av dess fördelar, t.ex. en bred ingång spänningsområde, en hög steg-up-förhållande, en låg ingång ström krusning, och en multiport gränssnitt kapacitet. Dessutom gör CF-DAB-omvandlarens direkta ingångsströmsregleringsförmåga och extra kontrollfrihet det möjligt att bufferta den dubbellinjära energin i nätinteraktiva PV-system utan att använda elektrolytkondensatorer i fm-länken. Därför uppnår ett PV-system hög tillförlitlighet och högeffektiv maximal effektpunktsspårning. I detta papper studeras den optimerade driften av en CF-DAB-omvandlare för en PV-applikation för att förbättra systemets effektivitet. Driftsprincipen och soft-switching förhållanden över det breda driftsområdet analyseras noggrant med fasskiftning kontroll och duty-cycle kontroll, och ett optimerat driftläge föreslås för att uppnå den minsta rot-medel-kvadrattransformatorström. Det föreslagna driftläget kan förlänga den mjukswitchande regionen och minska effektförlusten, särskilt under en tung belastning och en hög ingångsspänning. Dessutom kan effektiviteten förbättras ytterligare med en högre fm-länkspänning. En 5-kW maskinvaruprototyp byggdes i laboratoriet och experimentella resultat tillhandahålls för verifiering. Detta papper ger en design riktlinje för CF-DAB omvandlare tillämpas på PV-system, liksom andra applikationer med en bred ingångsspänning variation. Index Terms-current-feed dual active bro (CF-DAB), optimerad drift, solcells (PV), rot-medel-kvadrat (RMS) ström, mjuk växling. | Y Shi et al., REF har gett tillämpningar av vinster som växer i PV (Photovoltaic) och i energilagringssystem genom att använda CF-DAB (current-feed dual-active bro) fm-dc omvandlare. | 13,104,973 | Optimized Operation of Current-Fed Dual Active Bridge DC–DC Converter for PV Applications | {'venue': 'IEEE Transactions on Industrial Electronics', 'journal': 'IEEE Transactions on Industrial Electronics', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 6,705 |
Motståndskraftiga exempel är skadliga ingångar utformade för att lura maskininlärning modeller. De överför ofta från en modell till en annan, vilket gör det möjligt för angripare att montera svarta box attacker utan kunskap om målmodellens parametrar. Motstående träning är en process för att uttryckligen träna en modell på kontradiktoriska exempel, för att göra den mer robust att attackera eller för att minska sitt testfel på rena ingångar. Hittills har kontradiktorisk utbildning i första hand tillämpats på små problem. I denna forskning tillämpar vi kontradiktorisk utbildning till ImageNet (Russakovsky et al., 2014). Våra bidrag inkluderar: (1) rekommendationer för hur man på ett framgångsrikt sätt kan skala upp kontradiktorisk träning till stora modeller och datauppsättningar, (2) observationen att kontradiktorisk träning ger robusthet till enstegs attackmetoder, (3) konstaterandet att flerstegs attackmetoder är något mindre överförbara än enstegs attackmetoder, så enstegsattacker är det bästa för montering av svart-box attacker, och (4) upplösning av en "märkning läckande" effekt som gör att adversariskt utbildade modeller att prestera bättre på adversariska exempel än på rena exempel, eftersom adversariska exempel byggprocessen använder den sanna etiketten och modellen kan lära sig att utnyttja regulariteter i byggprocessen. | Dessutom konstaterade Kurakin REF att motsträvigt utbildade modeller var mottagliga för kontradiktoriska prover som genererades med hjälp av flerstegsmetoder under white-box-inställning. | 9,059,612 | Adversarial Machine Learning at Scale | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,706 |
Abstrakt. I många fall kan mänskliga handlingar identifieras inte bara genom den enskilda observationen av människokroppen i rörelse, utan också egenskaper i den omgivande scenen och de relaterade objekten. I detta dokument undersöker vi detta problem och föreslår en strategi för erkännande av mänskliga åtgärder som integrerar flera funktionskanaler från flera enheter som objekt, scener och människor. Vi formulerar problemet i en flera instans lärande (MIL) ram, baserat på flera funktionskanaler. Genom att använda ett diskriminerande tillvägagångssätt ansluter vi oss till flera funktionskanaler inbäddade i MIL-utrymmet. Våra experiment över det stora YouTube-datasetet visar att scen- och objektinformation kan användas för att komplettera personfunktioner för igenkänning av mänskliga handlingar. | Ikizler m.fl. REF använde flera funktioner från scenen, objektet och personen, och kombinerade dem med en Multipel MIL (flera instans lärande) metod. | 9,645,996 | Object, Scene and Actions: Combining Multiple Features for Human Action Recognition | {'venue': 'In ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,707 |
Motivering: Flera programvaruverktyg specialiserar sig på att anpassa nästa generations sekvensering till en referenssekvens. Några av dessa verktyg rapporterar en kartläggning kvalitet poäng för varje anpassning-in princip, denna kvalitet poäng talar om för forskarna sannolikheten för att anpassningen är korrekt. Den rapporterade kartläggningskvaliteten korrelerar dock ofta svagt med den faktiska noggrannheten och kvaliteten på många kartläggningar underskattas, vilket uppmuntrar forskarna att kassera korrekta kartläggningar. Dessutom tenderar dessa kartläggningar av låg kvalitet att korrelera med variationer i genomet (både enstaka nukleotid och strukturella), och sådana kartläggningar är viktiga för att exakt identifiera genomiska varianter. Tillvägagångssätt: Vi utvecklar ett verktyg för maskininlärning, LoQuM (Logistic regressionsverktyg för kalibrering av kvaliteten på kortlästa kartläggningar, för att tilldela tillförlitliga kartläggningskvalitetspoäng till kartläggningar av Illumina avläsningar som returneras av någon justeringsverktyg. LoQuM använder statistik över läsningen (baskvalitetspoäng som rapporterats av sequencern) och anpassningen (antal träffar, missmatchningar och raderingar, kartläggning kvalitetspoäng som returneras av anpassningsverktyget, om tillgängligt, och antal kartläggningar) som funktioner för klassificering och använder simulerade avläsningar för att lära sig en logistisk regressionsmodell som relaterar dessa funktioner till faktisk karteringskvalitet. Resultat: Vi testar LoQuM:s förutsägelser på en oberoende datauppsättning som genereras av ART short read simuleringsprogram och observerar att LoQuM kan "återuppta" många kartläggningar som tilldelas noll kvalitetspoäng av anpassningsverktygen och därför sannolikt kommer att förkastas av forskare. Vi observerar också att omkalibreringen av kartläggning kvalitetspoäng avsevärt förbättrar precisionen av så kallade singelnukleotide polymorphisms. Tillgänglighet: LoQuM finns som öppen källkod på | Dessutom Ruffalo et al. REF använder en maskininlärningsmetod för att omberäkna karteringsegenskaperna hos kortavläsningskartläggningar som är mer exakta än de som rapporteras av de tillgängliga anpassningsverktygen. | 7,273,164 | Accurate estimation of short read mapping quality for next-generation genome sequencing | {'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,708 |
Faktoranalys (FA) ger linjära faktorer som beskriver sambanden mellan enskilda variabler i en datamängd. Vi utvidgar denna klassiska formulering till linjära faktorer som beskriver sambanden mellan grupper av variabler, där varje grupp representerar antingen en uppsättning relaterade variabler eller en datauppsättning. Modellen utökar också naturligt kanonisk korrelationsanalys till mer än två uppsättningar, på ett sätt som är mer flexibelt än tidigare förlängningar. Vår lösning är formulerad som en varierad slutledning av en latent variabel modell med strukturell sparhet, och den består av två hierarkiska nivåer: 1) de högre nivå modellerna förhållandet mellan grupperna och 2) de lägre modellerna de observerade variablerna med tanke på den högre nivån. Vi visar att den resulterande lösningen löser problemet med gruppfaktorn (GFA) exakt, överträffar alternativa FA-baserade lösningar samt enklare implementeringar av GFA. Metoden demonstreras på två life science datas, den ena om hjärnaktivering och den andra om systembiologi, som illustrerar dess tillämplighet på analysen av olika typer av högdimensionella datakällor. Index Terms-Factor analys (FA), multiview lärande, probabilistiska algoritmer, strukturerad sparhet. | Klami m.fl. REF föreslog en modell för gruppanalys och formulerade sin lösning som en variationsmässig slutsats av en latent variabel modell med strukturell gleshet. | 1,107,623 | Group Factor Analysis | {'venue': 'IEEE Transactions on Neural Networks and Learning Systems', 'journal': 'IEEE Transactions on Neural Networks and Learning Systems', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']} | 6,709 |
Cyberfysiska system förlitar sig i allt högre grad på dynamiskt anpassningsbara program för att reagera på förändringar i sin fysiska miljö; exempel inkluderar ekosystemövervakning och katastrofhjälpssystem. Dessa system betraktas som högsäkerhet eftersom fel under genomförandet kan leda till skador, förluster av människoliv, miljöpåverkan och/eller ekonomiska förluster. För att underlätta utveckling och verifiering av dynamiskt adaptiva system separerar vi funktionella problem från adaptiva problem. Specifikt modellerar vi ett dynamiskt adaptivt program som en samling av (icke-adaptiva) steady-state-program och en uppsättning anpassningar som realiserar övergångar bland steady-state-program som svar på miljöförändringar. Vi använder Linear Temporal Logic (LTL) för att ange egenskaper hos de icke-adaptiva delarna av systemet, och vi använder A-LTL (en adapt-operator förlängning till LTL) för att kortfattat specificera egenskaper som håller under anpassningsprocessen. Modellkontroll erbjuder ett attraktivt tillvägagångssätt för att automatiskt analysera modeller för anslutning till formella egenskaper och därmed ge garantier. För närvarande kan dock modellkontroller inte verifiera egenskaper som anges med hjälp av A-LTL. Eftersom antalet stationära program och anpassningar ökar kan dessutom kontrollkostnaderna (i fråga om rum och tid) bli otympliga. För att ta itu med dessa frågor föreslår vi en modulär modellkontrollmetod för att kontrollera att en formell modell av ett adaptivt program uppfyller kraven i LTL respektive A-LTL. | I ett annat arbete REF föreslår de ett modulärt tillvägagångssätt för att verifiera adaptivt program. | 13,273,680 | Modular verification of dynamically adaptive systems | {'venue': "AOSD '09", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,710 |
Abstract-befintliga djupa konvolutionella neurala nätverk (CNN) kräver en fast storlek (t.ex., 224×224) ingångsbild. Detta krav är "artificiellt" och kan minska igenkänningsnoggrannheten för bilder eller underbilder av godtycklig storlek/skala. I detta arbete utrustar vi nätverken med en annan pooling strategi, "spatial pyramid pooling", för att eliminera ovanstående krav. Den nya nätverksstrukturen, kallad SPP-net, kan generera en fast längd representation oavsett bildstorlek/skala. Pyramidpoolning är också robust mot objektdeformationer. Med dessa fördelar bör SPP-net generellt förbättra alla CNN-baserade bildklassificeringsmetoder. På ImageNet 2012 dataset visar vi att SPP-net ökar noggrannheten hos en mängd olika CNN-arkitekturer trots deras olika design. På Pascal VOC 2007 och Caltech101-datauppsättningar uppnår SPP-net toppmoderna klassificeringsresultat med hjälp av en enda fullbildsrepresentation och ingen finjustering. Kraften i SPP-net är också betydande i objektdetektering. Med hjälp av SPP-net beräknar vi funktionen kartor från hela bilden bara en gång, och sedan pool funktioner i godtyckliga regioner (sub-bilder) för att generera fasta-längd representationer för utbildning av detektorerna. Denna metod undviker upprepade gånger att beräkna de konvolutionella funktionerna. Vid bearbetning av testbilder är vår metod 24-102× snabbare än R-CNN-metoden, samtidigt som vi uppnår bättre eller jämförbar noggrannhet på Pascal VOC 2007. I ImageNet Large Scale Visual Recognition Challenge (ILSVRC) 2014 rankas våra metoder #2 i objektdetektering och #3 i bildklassificeringen bland alla 38 team. Detta manuskript introducerar också den förbättring som gjorts för denna tävling. | Eftersom beräkningen av warpprocessen är intensiv, förbättrar SPPNet REF R-CNN genom att utföra klassificering på poolade funktionskartor baserat på en rumslig pyramid pooling snarare än att klassificera på den ändrade storlek råa bilder. | 436,933 | Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,711 |
I den här artikeln diskuterar vi prestandan hos flerspråkiga information extraktionssystem med hjälp av en automatisk mönsterinhämtning modul. Denna modul, som skapar extraktionsmönster från en användares beskrivande uppgift, möjliggör snabb anpassning till nya extraktionsuppgifter. Vi jämför två metoder: 1) förvärva mönster i källspråket, utföra källspråk extraktion, och sedan översätta de resulterande mallar till målspråket, och 2) översätta texterna och utföra mönster upptäckt och extraktion i målspråket. Vi visar ett genomsnitt på 8-10 % mer återkallande med hjälp av den första metoden. Vi diskuterar några av problemen med maskinöversättning och deras effekt på mönster upptäckt som leder till denna skillnad i prestanda. | REF presenterar ett tillvägagångssätt för extraherade mönster i ett källspråk och översätter dessa mönster för användning på ett målspråk. | 18,312,172 | Cross-Lingual Information Extraction System Evaluation | {'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,712 |
Abstract-This paper ger en ny lösning till den samtidiga lokalisering och kartläggning (SLAM) problem med sex grader av frihet. En snabb variant av Iterative Closest Points (ICP) algoritm registrerar 3D-skanningar tagna av en mobil robot till ett gemensamt koordinatsystem och ger därmed omlokalisering. Härigenom reduceras dataföreningen till problemet med att söka efter närmaste punkter. Tillnärmningsalgoritmer för denna sökning, nämligen ungefärliga kd-träd och box sönderdelning träd, presenteras och utvärderas i detta dokument. En lösning till 6D SLAM som beaktar alla fria parametrar i robotposen är byggd på 3D scan matchning. Digitala 3D-modeller av miljön behövs för räddnings- och inspektionsrobotar, anläggningshantering och arkitektur. Problemet med automatisk miljöanalys och modellering är komplicerat, eftersom ett antal grundläggande vetenskapliga frågor är inblandade. Detta dokument fokuserar på hur man skapar en konsekvent 3D-scen till ett gemensamt koordinatsystem från flera skanningar. De föreslagna algoritmerna gör det möjligt att digitalisera stora miljöer snabbt och tillförlitligt utan några ingrepp och att lösa problemet med samtidig lokalisering och kartläggning (SLAM). Slutligen, robot rörelse på naturliga utomhusytor måste hantera förändringar i gir, pitch och rullvinklar, vridning utgör uppskattning samt skanna matchning eller registrering i ett problem i sex matematiska dimensioner. I detta dokument presenteras en ny lösning på SLAM-problemet med sex frihetsgrader (6D SLAM). En snabb variant av de iterativa närmaste punkterna (ICP) algoritm registrerar 3D-scanning i ett gemensamt koordinatsystem och omlokaliserar roboten. Beräkningstiden minskas med två nya metoder: För det första minskar vi 3D-data, dvs. vi beräknar punktmoln som ungefär motsvarar den skannade 3D-ytan och endast innehåller en liten del av det ursprungliga 3D-punktmolnet. För det andra presenterar vi en snabb approximation av motsvarande punkt för ICP-algoritmen. Flera approximativa metoder utvärderas i detta dokument. Dessa förlängningar av ICP resulterar i en snabb och robust algoritm för att generera övergripande konsekventa 3D-kartor, med hjälp av global felminimering. I tidigare arbete har vi utvecklat 6D SLAM algoritm [20], [27]. Detta dokuments huvudsakliga bidrag är att utvärdera den ungefärliga databindningen för att påskynda algoritmen. Resten av tidningen är organiserad enligt följande: Avsnitt II diskuterar den senaste tekniken i 3D-kartläggning. Sedan presenterar vi den använda 3D-laserskannern och den mobila roboten. Avsnitt IV beskriver scanning matchning och pose uppskattning, följt av tillämpning av närmaste punkt approximation i data | Genom att använda ett ungefärligt kd-tree minskar beräkningstiden för ICP REF. | 8,108,622 | 6D SLAM with approximate data association | {'venue': "ICAR '05. Proceedings., 12th International Conference on Advanced Robotics, 2005.", 'journal': "ICAR '05. Proceedings., 12th International Conference on Advanced Robotics, 2005.", 'mag_field_of_study': ['Mathematics']} | 6,713 |
I denna artikel, författarna syftar till att maximalt utnyttja multimodalitet neuroimaging och genetiska data för att identifiera Alzheimers sjukdom (AD) och dess prodromal status, Mild Cognitive Impairment (MCI), från normala åldrande individer. Multimodalitet neuroimaging data såsom MRI och PET ger värdefulla insikter i hjärnan avvikelser, medan genetiska data såsom singelnukleotid polymorfism (SNP) ger information om en patients AD riskfaktorer. När dessa data används tillsammans, exaktheten av AD diagnos kan förbättras. Dessa data är dock heterogena (t.ex. med olika datafördelningar) och har olika antal prover (t.ex. med mycket färre PET-prover än antalet MRI eller SNP). Det är därför svårt att lära sig en effektiv modell med hjälp av dessa data. I detta syfte presenterar vi en ny trestegs djupinlärning och fusionsram, där djupa neurala nätverk tränas stegmässigt. Varje steg i nätverket lär sig innehålla representationer för olika kombinationer av metoder, genom effektiv utbildning med hjälp av maximalt antal tillgängliga prover. Särskilt i det första steget lär vi oss latenta representationer (dvs. högnivåfunktioner) för varje modalitet oberoende, så att heterogeniteten mellan modaliteterna delvis kan åtgärdas, och högnivåfunktioner från olika modaliteter kan kombineras i nästa steg. I det andra steget lär vi oss gemensamma latenta funktioner för varje par modalitetskombination genom att använda de högnivåfunktioner som man lärt sig från det första steget. I det tredje steget lär vi oss de diagnostiska etiketterna genom att blanda de inlärda gemensamma latenta dragen från det andra steget. För att ytterligare öka antalet prover under utbildningen använder vi även data vid flera skanningstidpunkter för varje utbildningsämne i datasetet. Vi utvärderar den föreslagna ramen med hjälp av Alzheimers sjukdom neuroimaging initiative (ADNI) dataset för AD diagnos, och de experimentella resultaten visar att den föreslagna ramen överträffar andra state-of-the-art metoder. | Multimodala metoder som utnyttjar flera avbildningsdata, såsom MRT och PET, har också undersökts, t.ex. Hoppa över det. | 53,147,766 | Effective feature learning and fusion of multimodality data using stage‐wise deep neural network for dementia diagnosis | {'venue': None, 'journal': 'Human Brain Mapping', 'mag_field_of_study': ['Psychology', 'Medicine']} | 6,714 |
Detta dokument beskriver en empirisk jämförelse av eektiviteten hos sex sammanhangsokänsliga algoritmer för pekaranalys som använder olika grader av ow-sensitivitet. Fyra av algoritmerna är okänsliga, en är okänslig, och en annan är okänslig, men använder förkomputerad ow-känslig information. Varje analyss eektivitet är quantid i termer av kompileringstidseffektivitet och precision. E ektivitet rapporteras genom mätning av CPU-tid och minnesförbrukning för varje analys. Precision rapporteras genom att mäta de beräknade lösningarna vid de programpunkter där en pekare dereferenseras. Resultaten av detta dokument kommer att hjälpa genomförandeorganen att avgöra vilken punktanalys som är lämplig för deras tillämpning. | Hind och Pioli REF implementerade sex kontext-okänslig alias analysalgoritmer och jämförde deras precision, tid och minnesförbrukning på 24 program upp till 30 K rader kod. | 7,880,610 | Evaluating the Effectiveness of Pointer Alias Analyses | {'venue': 'SCIENCE OF COMPUTER PROGRAMMING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,715 |
Särskiljande subtila skillnader i attribut är värdefullt, men att lära sig att göra visuella jämförelser förblir icke-trivial. Inte bara är antalet möjliga jämförelser fyrhörning i antalet träningsbilder, men också tillgång till bilder som på ett adekvat sätt spänner över utrymmet för finkorniga visuella skillnader är begränsad. Vi föreslår att man övervinner det glesa tillsynsproblem som uppstår genom syntetiskt framtagna bilder. Bygga på en state-of-theart bildgenerering motor, vi provpar par av träningsbilder som uppvisar små ändringar av individuella attribut. Förstärka verkliga träningsbild par med dessa exempel, vi tränar sedan attribut ranking modeller för att förutsäga den relativa styrkan av ett attribut i nya par av verkliga bilder. Våra resultat på datauppsättningar av ansikten och modebilder visar det stora löftet om att bootstrappa ofullkomliga bildgeneratorer för att motverka prov gleshet för att lära sig att rangordna. | Yu och Grauman REF använder GANs för att syntetisera bildpar för att övervinna det glesa i övervakningen när du lär dig att jämföra bilder. | 4,668,606 | Semantic Jitter: Dense Supervision for Visual Comparisons via Synthetic Images | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,716 |
Djupa konvolutionella neurala nätverk-baserade metoder har medfört stora genombrott i bildklassificering, vilket ger en end-to-end lösning för handskrivna kinesiska teckenigenkänning (HCR) problem genom att lära sig diskriminerande funktioner automatiskt. Icke desto mindre verkar de senaste CNN:erna medföra enorma beräkningskostnader och kräva lagring av ett stort antal parametrar, särskilt i fullt anslutna lager, vilket är svårt att distribuera sådana nätverk till alternativa hårdvaruenheter med begränsad beräkningskapacitet. För att lösa lagringsproblemet föreslår vi en ny teknik som kallas viktad genomsnittlig poolning för att minska parametrarna i fullt uppkopplade lager utan förlust av noggrannhet. Dessutom implementerar vi en kaskadmodell i enstaka CNN genom att lägga till mellanutgång till fullständig igenkänning så tidigt som möjligt, vilket minskar den genomsnittliga inferenstiden avsevärt. Experiment utförs på ICDAR-2013 offline HCCR dataset. Det visar sig att vårt föreslagna tillvägagångssätt endast behöver 6,9 ms för att klassificera en karaktärsbild i genomsnitt och uppnå den senaste noggrannheten på 97,1 % samtidigt som det endast krävs 3,3 MB för lagring. | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF utformade en effektiv CNN-arkitektur och implementerade en kaskadmodell i ett enda nätverk, som uppnådde de senaste resultaten för HCCR offline. | 4,717,203 | Building efficient CNN architecture for offline handwritten Chinese character recognition | {'venue': 'International Journal on Document Analysis and Recognition (IJDAR)', 'journal': 'International Journal on Document Analysis and Recognition (IJDAR)', 'mag_field_of_study': ['Computer Science']} | 6,717 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.