src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
ABSTRACT Eftersom Internet of Things förväntas bli genomträngande i vardagen, förväntas det också att många tillämpningar och tjänster med ett stort antal bluetooth lågenergi (BLE) enheter kommer att utvecklas för områden som sportarenor, tunnelbana, köpcentra och många andra hektiska offentliga platser. Den snabba upptäckten av alla BLE annonsörer är en av de mest utmanande uppgifterna att stödja ett så stort antal BLE-aktiverade tjänster framgångsrikt. Men det har inte publicerats någon forskning hittills som presenterar en metod för att ställa in parametrar som ger bästa prestanda i BLE granne upptäckt process. I den här artikeln föreslår vi en metod för att bestämma ett optimalt värde för BLE-annonsintervallet för att minimera den tid då alla omgivande BLE-annonsörer upptäcks av en scanner. För att få det optimala annonsintervallet tar vi fram en ny analytisk modell för att karakterisera BLE-upptäcktstiden med alla möjliga parametrar. Vi analyserar också effekten av det optimala annonsintervallet på energiförbrukningen. Analysmodellen valideras genom att analysresultaten jämförs med simuleringarna. Simuleringsresultaten visar att det optimala annonsintervallet för ett givet antal BLE-annonsörer kan minimera upptäcktstiden, och energiförbrukningen minskas också avsevärt. INDEX TERMS Bluetooth låg energi, Internet of Things, granne upptäckt process, minimal upptäckt tid, annons intervall.
Shan och Al. REF föreslog en metod för att minimera upptäckt latensen hos alla annonsörer runt en scanner.
5,037,111
Advertisement Interval to Minimize Discovery Time of Whole BLE Advertisers
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
80,297
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Ytterligare förbättringar gjordes i REF genom att CNN-funktioner delades med både regionala förslagsnätverk (RPN) och detektionsnätverk.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
80,298
Abstrakt. Vi anser att problemet med att extrahera strukturerade poster från halvstrukturerade webbsidor utan mänsklig övervakning krävs för varje målwebbplats. Tidigare arbete med detta problem har antingen krävt betydande mänsklig ansträngning för varje målplats eller använt sköra heuristik för att identifiera semantiska datatyper. Vår metod kräver endast annotering för några sidor från några få platser i måldomänen. Efter en liten investering i mänsklig ansträngning tillåter vår metod därför automatisk utvinning från potentiellt tusentals andra platser inom samma domän. Vårt tillvägagångssätt utökar tidigare metoder för att upptäcka datafält på halvstrukturerade webbsidor genom att matcha dessa fält med domänschemakolumner med hjälp av robusta modeller av datavärden och sammanhang. Observera 2-5 sidor för 4-6 webbplatser ger en extraktion noggrannhet på 83,8% på jobberbjudanden webbplatser och 91,1% på semester hyresplatser. Dessa resultat överträffar betydligt en baslinjemetod.
Carlson och Al. REF föreslog ett tillvägagångssätt för att extrahera strukturerade poster från webbsidor.
9,040,930
Bootstrapping Information Extraction from Semi-structured Web Pages ⋆
{'venue': 'ECML/PKDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,299
Middleboxar spelar en viktig roll i dagens nätverk, eftersom spediteringspaket ofta inte räcker för att möta operatörens krav, och andra funktioner (t.ex. säkerhet, QoS/QoE-försörjning och lastbalansering) krävs. Trafiken leds vanligen genom en sekvens av sådana mellanboxar, som antingen befinner sig tvärs över nätet eller på en enda konsoliderad plats. Även om middleboxar ger ett brett utbud av olika funktioner, finns det komponenter som delas mellan många av dem. En uppgift som är gemensam för nästan alla mellanboxar som hanterar L7-protokoll är Deep Packet Inspection (DPI). I dag inspekteras trafiken från grunden av alla middleboxar på rutten. I detta dokument föreslår vi att DPI ska behandlas som en tjänst till mellanboxarna, vilket innebär att trafiken endast skannas en gång, men mot data från alla mellanboxar som använder tjänsten. DPI-tjänsten skickar sedan avsökningsresultaten till lämpliga mellanrutor. Att ha DPI som tjänst har betydande fördelar när det gäller prestanda, skalbarhet, robusthet och som katalysator för innovation i mellanboxen. Dessutom gör teknik och lösningar för nuvarande programvarudefinierade nätverk (t.ex. SIMPLE [41] ) det möjligt att genomföra en sådan service- och rutttrafik till och från dess instanser.
Referensreferensreferensen föreslår att DPI ska behandlas som en tjänst i SDN-nät som har betydande fördelar när det gäller prestanda, skalbarhet och robusthet.
3,356,322
Deep Packet Inspection as a Service
{'venue': "CoNEXT '14", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,300
ABSTRACT I fordonsspecifika ad hoc-nät (VANET) sänder fordon regelbundet sin statusinformation i beacons för att göra de omgivande fordonen medvetna om sin närvaro. För att maximera medvetenheten krävs en mekanism för kontroll av överbelastning för att undvika förlust av fyrar på grund av kollisioner i tät trafikmiljö. Utöver trängselkontroll är det önskvärt att fordon delar nätbandbredd på ett sätt som står i proportion till deras dynamik eller säkerhetskrav. De nuvarande mekanismerna för kontroll av överbelastning har ett antal frågor, bland annat allmänna omkostnader för kontrollinformation, rättvisa och medvetenhet. I detta dokument föreslås en mekanism för beacon rate och medvetenhetskontroll baserad på icke-kooperativ spelteori som kallas icke-kooperativ bacon rate och medvetenhetskontroll (NORAC). Förekomsten och unikheten av Nash jämvikt i spelet bevisas matematiskt och en algoritm föreslås för att hitta jämviktspunkten på ett distribuerat sätt. Den föreslagna algoritmen används för att tilldela varje fordon en beacon-hastighet som är proportionell mot dess krav, samtidigt som rättvisa mellan fordon med samma krav garanteras. NORAC jämförs med de två andra kända mekanismerna för kontroll av överbelastning. Simuleringsresultaten visar den föreslagna NORAC-algoritmens effektivitet och stabilitet i flera trafikscenarier med hög densitet. Resultaten visar på dess fördelar när det gäller rättvisa och trängsel och kontroll av medvetenheten om de andra två algoritmerna, samtidigt som det inte krävs att alltför stor information ska ingå i fyrar. INDEX TERMS Awareness control, beacon rate control, icke-kooperativt spel, VANETS.
Bland de förslag som faktiskt integrerar CC och AC effektivt, är NORAC REF en frekvens och medvetenhet distribuerad kontroll baserad på icke-kooperativ spelteori, vars mer relevanta funktion är att det inte kräver utbyte av kontrollinformation.
21,644,246
Non-Cooperative Beacon Rate and Awareness Control for VANETs
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
80,301
Att identifiera en föredragen rutt är ett viktigt problem som hittar applikationer i karttjänster. När en användare planerar en resa inom en stad, kanske användaren vill hitta "en mest populära rutt så att den passerar genom köpcentrum, restaurang och pub, och restiden till och från hans hotell är inom 4 timmar." Ingen av algoritmerna i det befintliga arbetet med ruttplanering kan dock användas för att besvara sådana frågor. Motiverade av detta definierar vi problemet med keywordaware optimal rutt fråga, betecknad av KOR, vilket är att hitta en optimal rutt så att den täcker en uppsättning användardefinierade sökord, en specificerad budget begränsning är nöjd, och en objektiv poäng för rutten är optimal. Problemet med att svara på KOR-frågor är NP- hårt. Vi utformar en approximationsalgoritm OSScaling med bevisbara approximationsgränser. Baserat på denna algoritm, ytterligare en effektivare approximation algoritm BucketBound föreslås. Vi designar också en girig approximationsalgoritm. Resultat av empiriska studier visar att alla föreslagna algoritmer är kapabla att svara på KOR frågor effektivt, medan BucketBound och Greedy algoritmer kör snabbare. De empiriska studierna ger också insikt i exaktheten hos de föreslagna algoritmerna.
REF konstruerar en optimal rutt som täcker användardefinierade kategorier av platser.
10,171,004
Keyword-aware Optimal Route Search
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
80,302
Vi undersöker metoder för att kombinera flera självövervakade uppgifter-d.v.s. övervakade uppgifter där data kan samlas in utan manuell märkning-in för att träna en enda visuell representation. Först ger vi en äppel-till-apples jämförelse av fyra olika självövervakade uppgifter med hjälp av den mycket djupa ResNet-101 arkitekturen. Vi kombinerar sedan uppgifter för att gemensamt utbilda ett nätverk. Vi utforskar också lasso legalisering för att uppmuntra nätverket att faktorisera informationen i sin representation, och metoder för att "harmonisera" nätverksingångar för att lära sig en mer enhetlig representation. Vi utvärderar alla metoder på ImageNet klassificering, PASCAL VOC detektion, och NYU djup förutsägelse. Våra resultat visar att djupare nätverk fungerar bättre, och att kombinera uppgifter-även via en naiv multihead arkitektur-alltid förbättrar prestanda. Vårt bästa gemensamma nätverk matchar nästan PASCAL prestanda för en modell som är förträngd på ImageNet klassificering, och matchar ImageNet nätverk på NYU djup förutsägelse.
Doersch m.fl. REF föreslog att man gemensamt skulle utbilda fyra olika självövervakande uppgifter och fann att det var fördelaktigt.
473,729
Multi-task Self-Supervised Visual Learning
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
80,303
I detta dokument presenteras ett alternativt tillvägagångssätt, där gång samlas in av de sensorer som är fästa vid personens kropp. Sådana bärbara sensorer registrerar rörelse (t.ex. acceleration) av kroppsdelarna under gång. De inspelade rörelsesignalerna undersöks sedan för personigenkänningsändamål. Vi analyserade accelerationssignaler från fot, höft, ficka och arm. Med hjälp av olika metoder var den bästa EER som erhållits för fot-, fick-, arm- och hip-baserad användarautentisering 5 %, 7 %, 10 % respektive 13 %. Dessutom presenterar vi resultaten av vår analys av säkerhetsbedömningen av gångar. Studera gångbaserad användarautentisering (i händelse av höftrörelse) under tre attackscenarier, visade vi att en minimal insats imitering inte bidrar till att förbättra acceptans chanserna för bedragare. Men bedragare som känner sin närmaste person i databasen eller kön användare kan vara ett hot mot gångbaserad autentisering. Vi ger också några nya insikter om det unika i gång i händelse av fotrörelse. I synnerhet avslöjade vi följande: en sidorörelse av foten ger mest diskriminering, jämfört med en upp-och-nedåt riktningar, och olika segment av gångcykeln ger olika nivå av diskriminering.
Gafurov & Snekkenes REF analyserade data som samlats in från accelerometerbaserade sensorer placerade på foten, höften, fickan och armen för att autentisera användarens identiteter.
17,496,297
Gait recognition using wearable motion recording sensors
{'venue': None, 'journal': 'EURASIP Journal on Advances in Signal Processing', 'mag_field_of_study': ['Computer Science']}
80,304
Vi anser att problemet med att lära allmänna ändamål, parafrastiska mening inbäddningar baserat på övervakning från Parafrasdatabasen (Ganitkevitch et al., 2013). Vi jämför sex kompositionsarkitekturer och utvärderar dem på annoterade textliknande datauppsättningar hämtade både från samma distribution som träningsdata och från ett brett spektrum av andra domäner. Vi finner att de mest komplexa arkitekturer, såsom långtidsminne (LSTM) återkommande neurala nätverk, presterar bäst på in-domain data. Emellertid, i out-of-domain scenarier, enkla arkitekturer såsom ord i genomsnitt mycket bättre än LSTMs. Vår enklaste genomsnittsmodell är även konkurrenskraftig med system anpassade för de specifika uppgifterna samtidigt som den är extremt effektiv och enkel att använda. För att bättre förstå hur dessa arkitekturer jämför utför vi ytterligare experiment på tre övervakade NLP-uppgifter: meningslikhet, förnimmelse och känsloklassificering. Vi finner återigen att ordet medelvärde modeller fungerar bra för mening likhet och inbegripenhet, outperforming LSTMs. När det gäller känsloklassificeringen finner vi dock att LSTM mycket starkt till och med spelar in nya toppmoderna prestationer på Stanford Sentiment Treebank. Vi visar sedan hur vi kombinerar våra förtränade straff inbäddningar med dessa övervakade uppgifter, använder dem både som en tidigare och som en svart låda funktionsextraktor. Detta leder till prestanda rivaliserande state of the art on the SICK likhet och utförande uppgifter. Vi släpper alla våra resurser till forskarsamhället 1 med förhoppningen att de kan fungera som den nya utgångspunkten för ytterligare arbete med universella meningar.
I detta dokument strävar vi också efter att lära oss allmänna syften, parafrastiska mening inbäddningar, samma syfte som REF.
5,882,977
Towards Universal Paraphrastic Sentence Embeddings
{'venue': 'ICLR 2016', 'journal': 'arXiv: Computation and Language', 'mag_field_of_study': ['Computer Science']}
80,305
Abstract-Cloud computing är det senaste distribuerade datorparadigmet och erbjuder enorma möjligheter att lösa storskaliga vetenskapliga problem. Det innebär dock olika utmaningar som måste hanteras för att effektivt kunna användas för arbetsflöden. Även om problemet med schemaläggning av arbetsflödet har studerats i stor utsträckning finns det mycket få initiativ som är skräddarsydda för molnmiljöer. Dessutom uppfyller de befintliga verken inte vare sig användarens krav på tjänsternas kvalitet (QoS) eller införlivar vissa grundläggande principer för datormoln, såsom elasticiteten och heterogeniteten hos datorresurserna. I detta dokument föreslås en resursförsörjnings- och schemaläggningsstrategi för vetenskapliga arbetsflöden på infrastruktur som moln (IaaS). Vi presenterar en algoritm baserad på den meta-heuristiska optimeringstekniken, partikelsvärmoptimering (PSO), som syftar till att minimera den totala kostnaden för arbetsflödets utförande samtidigt som deadlinebegränsningarna uppfylls. Vår heuristic utvärderas med hjälp av CloudSim och olika välkända vetenskapliga arbetsflöden av olika storlekar. Resultaten visar att vår strategi fungerar bättre än de nuvarande toppmoderna algoritmerna.
Ref har föreslagit en resursförsörjnings- och schemaläggningsstrategi för vetenskapliga arbetsflöden i molninfrastrukturer.
10,064,076
Deadline Based Resource Provisioningand Scheduling Algorithm for Scientific Workflows on Clouds
{'venue': 'IEEE Transactions on Cloud Computing', 'journal': 'IEEE Transactions on Cloud Computing', 'mag_field_of_study': ['Computer Science']}
80,306
Att automatiskt beskriva videoinnehåll med naturligt språk är en grundläggande utmaning för datorseendet. Recurrent Neural Networks (RNN), som modellerar sekvensdynamik, har fått ökad uppmärksamhet på visuell tolkning. De flesta befintliga metoder genererar dock ett ord lokalt med de givna tidigare orden och det visuella innehållet, medan förhållandet mellan meningsemantik och visuellt innehåll inte utnyttjas holistiskt. Som ett resultat av detta kan de skapade meningarna vara kontextuellt korrekta, men semantiken (t.ex. subjekt, verb eller objekt) är inte sann. Denna uppsats presenterar en ny enhetlig ram, kallad Long Short-Term Memory med visuell-semantiska Embedding (LSTM-E), som samtidigt kan utforska lärandet av LSTM och visuell-semantiska inbäddning. Det förstnämnda syftar till att lokalt maximera sannolikheten för att generera nästa ord givet tidigare ord och visuellt innehåll, medan det senare är att skapa en visuell-semantisk inbäddning utrymme för att upprätthålla förhållandet mellan semantiken i hela meningen och visuellt innehåll. Experimenten på YouTube2Text dataset visar att vår föreslagna LSTM-E uppnår den bästa publicerade prestandan när det gäller att generera naturliga meningar: 45,3% och 31,0% när det gäller BLEU@4 respektive METEOR. Överlägsen prestanda redovisas också på två filmbeskrivningsdataset (M-VAD och MPII-MD). Dessutom visar vi att LSTM-E överträffar flera toppmoderna tekniker för att förutsäga Subject-Verb-Object (SVO) trillingar.
REF föreslog att man samtidigt skulle lära sig RNN-ordet sannolikheter och ett visuellt semantiskt gemensamt inbäddat utrymme som upprätthåller förhållandet mellan semantiken i hela meningen och det visuella innehållet.
14,432,549
Jointly Modeling Embedding and Translation to Bridge Video and Language
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,307
Abstract-Obemannade flygfordon (UAV) kan användas som ett relä för att ansluta noder med lång sträcka, vilket kan uppnå betydande genomströmningsvinst på grund av sin rörlighet och linje-avsikt (LoS) kanal med marknoder. Sådana LoS-kanaler gör dock UAV-överföringen lätt att tjuvlyssna. I detta dokument föreslår vi ett nytt system för att garantera säkerheten för UAV-relayed trådlösa nätverk med cache genom att gemensamt optimera UAV-banan och tidsplanering. För varannan användare som har cachat den nödvändiga filen för den andra, UAV sänder filerna tillsammans till dessa två användare, och tjuvlyssnandet kan störas. För användarna utan caching, maximerar vi deras minsta genomsnittliga sekretessgrad genom att gemensamt optimera banan och schemaläggning, med sekretessgraden för caching användare nöjda. Motsvarande optimeringsproblem är svårt att lösa på grund av dess icke-konvexitet, och vi föreslår en iterativ algoritm via successiv konvex optimering för att lösa det ungefär. Dessutom överväger vi också ett referenssystem där vi maximerar den lägsta genomsnittliga sekretessgraden bland alla användare genom att gemensamt optimera UAV-banan och tidsplanering när ingen användare har caching förmåga. Simuleringsresultat ges för att visa effektiviteten och ändamålsenligheten i vårt föreslagna system.
Cheng m.fl. REF föreslog ett säkerhetsalternativ för UAV-banor och tidsplanering med en iterativ algoritm som löser ett problem med konvex optimering.
86,841,770
UAV-Relaying-Assisted Secure Transmission With Caching
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science']}
80,308
Analysen av stora mängder nyheter är ett framväxande område inom området dataanalys och visualisering. Internationella organ samlar tusentals nyheter varje dag från ett stort antal källor och det blir alltmer komplicerat att förstå dem på grund av de inkommande nyheterna, liksom den inneboende komplexiteten i att analysera stora mängder föränderlig textkorpora. Nuvarande visuella tekniker som hanterar temporal utveckling av sådana komplexa dataset, tillsammans med forskningsinsatser inom relaterade områden som textbrytning och ämnesdetektering och spårning, representerar tidiga försök att förstå, få insikt och förstå dessa data. Trots dessa inledande förslag, det finns fortfarande en brist på tekniker som hanterar direkt problemet med att visualisera nyhetsströmmar på ett "on-line" sätt, det vill säga på ett sätt som utvecklingen av nyheter kan övervakas i realtid av operatören. I detta dokument föreslår vi en rent visuell teknik som gör det möjligt att se utvecklingen av nyheter i realtid. Tekniken gör det möjligt att visa strömmen av nyheter när de kommer in i systemet samt en serie viktiga trådar som beräknas i farten. Genom att slå samman enstaka artiklar till trådar gör tekniken det möjligt att lasta av visualiseringen och behålla endast den mest relevanta informationen. Den föreslagna tekniken tillämpas på visualisering av nyhetsströmmar som genereras av ett nyhetsaggregeringssystem som övervakar över 4000 webbplatser från 1600 viktiga nyhetsportaler över hela världen och hämtar över 80000 rapporter per dag på 43 språk.
Brist på tekniker som direkt hanterar problemet med att visualisera nyhetsströmmar på ett "on-line" sätt identifieras i REF.
6,371,335
Visual analysis of news streams with article threads
{'venue': "StreamKDD '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,309
Vi föreslår ett nytt tillvägagångssätt för att estimera det optiska flödet, som är inriktat på stora förskjutningar med betydande ocklusioner. Den består av två steg: i) tät matchning av kantbevarande interpolering från en gles uppsättning av matcher; ii) variationsenergi minimering initieras med de täta matcher. Den sparse-to-dense interpolationen bygger på ett lämpligt val av avståndet, nämligen en kant medveten geodesisk avstånd. Detta avstånd är skräddarsytt för han dle ocklusions och rörelsegränser - två vanliga och svåra frågor för optisk flödesberäkning. Vi föreslår också ett approximationssystem för geodesiska avstånd för att möjliggöra snabb beräkning utan förlust av prestanda. I enlighet med det täta interpoleringssteget utförs normal ennivå variationsenergiminimering på de täta tändstickorna för att erhålla den slutliga flödesberäkningen. Det föreslagna tillvägagångssättet, som kallas Edge-Preserving Interpolation of Corre spondences (EpicFlow), är snabbt och robust mot stora förskjutningar. Det överträffar avsevärt den senaste tekniken på MPI-Sintel och uppträder på par på Kitti och Middlebury.
Revaud m.fl. REF använder ett edge-aware geodesiskt avstånd för sparse-to-dense optisk flödesinterpolering, men resultatet är sårbart för felaktig inmatning.
12,184,146
EpicFlow: Edge-preserving interpolation of correspondences for optical flow
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,310
Vi studerar typkontroll problem för XML (eXtensible Markup Language) transformatorer: givet en XML omvandlingsprogram och en DTD för indata XML-dokument, kontrollera om varje resultat av programmet överensstämmer med en specificerad utdata DTD. Vi modellerar XML-transformatorer med hjälp av en ny enhet som kallas en k-pebble transducer, som kan uttrycka de flesta frågor utan data-värde ansluter sig till XML-QL, XSLT, och andra XML-fråga språk. Typer modelleras av vanliga trädspråk, en robust förlängning av DTD:er. Det huvudsakliga resultatet av papperet är att typkontroll för k-pebble transducers är decidable. Följaktligen kan typkontroll utföras för ett brett spektrum av XML-transformationsspråk, inklusive XML-QL och ett fragment av XSLT. r 2003 Publicerad av Elsevier Science (USA).
Milo, Suciu och Vianu har studerat ett typkontroll problem för den allmänna ramen för k-pebble trädgivare, som kan fånga ett brett utbud av frågespråk för XML REF.
205,894,377
Typechecking for XML transformers
{'venue': 'J. Comput. Syst. Sci.', 'journal': 'J. Comput. Syst. Sci.', 'mag_field_of_study': ['Computer Science']}
80,311
Abstract-I detta papper, presenterar vi resultaten av att använda påsar av system kallar för att lära beteendet hos Linux behållare för användning i anomali-detektion baserad intrång upptäckt system. Genom att använda systemanrop från de behållare som övervakas från värdkärnan för att upptäcka anomalier, kräver systemet ingen förkunskaper om behållarens natur, inte heller kräver det att behållaren eller värdkärnan ändras.
Abed m.fl. REF tillämpar metoden att använda strace på behållare och fann att det är lämpligt att användas för att upptäcka anomalier utan att kräva några förkunskaper om behållaren.
11,183,969
Applying Bag of System Calls for Anomalous Behavior Detection of Applications in Linux Containers
{'venue': '2015 IEEE Globecom Workshops (GC Wkshps), San Diego, CA, 2015, pp. 1-5', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,312
Genom att erbjuda lagringstjänster i flera geografiskt distribuerade datacenter gör molnbaserade datorplattformar det möjligt för applikationer att erbjuda låg latent tillgång till användardata. Application utvecklare lämnas dock att hantera de komplexiteter som är förknippade med att välja lagringstjänster där något objekt replikeras och upprätthålla överensstämmelse mellan dessa kopior. I detta dokument presenterar vi SPANSTORE, en central värdelager som exporterar en enhetlig syn på lagringstjänster i geografiskt distribuerade datacenter. För att minimera en applikationsleverantörs kostnad kombinerar vi tre huvudprinciper. För det första, SPANStore spänner över flera molnleverantörer för att öka den geografiska densiteten av datacenter och för att minimera kostnaderna genom att utnyttja prisskillnader mellan leverantörer. För det andra, genom att uppskatta applikationsbelastningen vid rätt granularitet, avlastar SPANSto omdömesgillt större geo-distribuerad replikering som krävs för att uppfylla latensmålen med de högre lagrings- och datautbredningskostnader som detta innebär för att uppfylla kraven på feltolerans och överensstämmelse. Slutligen minimerar SPANStore användningen av beräkna resurser för att genomföra uppgifter som t.ex. tvåfaslåsning och datautbredning, som är nödvändiga för att erbjuda en global bild av de lagringstjänster som den bygger på. Vår utvärdering av SPANStore visar att det kan sänka kostnaderna med över 10x i flera scenarier, i jämförelse med alternativa lösningar som antingen använder en enda lagringsleverantör eller replikera varje objekt till varje datacenter som det nås från.
SPANSTORE REF antar en hybrid cloud-strategi genom att sprida data över flera leverantörer av molntjänster och utnyttja skillnader i prissättning mellan olika leverantörer.
15,239,989
SPANStore: cost-effective geo-replicated storage spanning multiple cloud services
{'venue': "SOSP '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,313
Abstract-På grund av sin förmåga att kombinera flera baskluster till en förmodligen bättre och mer robust klusterbildning, har ensembleklusterteknik lockat till sig ökad uppmärksamhet under de senaste åren. Trots den betydande framgången är en begränsning till de flesta av de befintliga ensembleklustringsmetoderna att de i allmänhet behandlar alla baskluster lika oavsett deras tillförlitlighet, vilket gör dem sårbara för baskluster av låg kvalitet. Även om vissa ansträngningar har gjorts för att (globalt) utvärdera och väga basklustren, tenderar dessa metoder att betrakta varje baskluster som en individ och försumma den lokala mångfalden av kluster inom samma baskluster. Det är fortfarande ett öppet problem hur man kan utvärdera klusterens tillförlitlighet och utnyttja den lokala mångfalden i ensemblen för att förbättra samförståndet, utan tillgång till datafunktioner eller specifika antaganden om datadistribution. För att ta itu med detta föreslår vi i detta dokument en ny strategi för ensemblekluster baserad på skattning av ensembledriven klusterosäkerhet och lokal viktningsstrategi. I synnerhet uppskattas osäkerheten i varje kluster genom att man tar hänsyn till klusteretiketterna i hela ensemblen genom ett entropiskt kriterium. En ny ensemble-driven kluster giltighet åtgärd införs, och en lokalt viktad sam-association matris presenteras för att fungera som en sammanfattning för ensemblen av olika kluster. Med den lokala mångfalden i ensembler som utnyttjas föreslås ytterligare två nya konsensusfunktioner. Omfattande experiment på en mängd olika verkliga datauppsättningar visar att det föreslagna tillvägagångssättet är överlägset den senaste tekniken.
Huang m.fl. REF utformar ett ensemblestyrt klustersystem genom att uppskatta klusterosäkerheten och den lokala viktningsmatrisen.
4,600,560
Locally Weighted Ensemble Clustering
{'venue': 'IEEE Transactions on Cybernetics, 2018, vol.48, no.5, pp.1460-1473', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']}
80,314
Flera maskininlärning modeller, inklusive neurala nätverk, konsekvent felklassificera adversariala exempel-ingångar bildas genom att tillämpa små men avsiktligt värsta fall perturbations till exempel från datasetet, så att den perturbed input resulterar i modellen som ger ett felaktigt svar med hög tillförlitlighet. Tidiga försök att förklara detta fenomen fokuserade på icke-linjäritet och översittande. Vi argumenterar istället för att den primära orsaken till neurala nätverks sårbarhet för kontradiktorisk perturbation är deras linjära natur. Denna förklaring stöds av nya kvantitativa resultat samtidigt som den ger den första förklaringen till de mest spännande fakta om dem: deras generalisering över arkitekturer och utbildningsset. Dessutom ger denna uppfattning en enkel och snabb metod för att generera kontradiktoriska exempel. Med hjälp av detta tillvägagångssätt för att ge exempel på kontradiktorisk utbildning, minskar vi testuppsättningsfelet för ett maxout-nätverk på MNIST-datasetet.
Orsaken till att kontradiktoriska exempel kan påverka modellens prestanda undersöktes i REF, och de fokuserade på lineariteten i modellen arkitektur.
6,706,414
Explaining and Harnessing Adversarial Examples
{'venue': 'ICLR 2015', 'journal': 'arXiv: Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,315
Abstract-I energiskörd kommunikationssystem, en exogen laddningsprocess levererar energi som behövs för dataöverföring och den ankommande energin kan buffras i ett batteri före förbrukning. Vi bestämmer den informations-teoretiska kapaciteten hos den klassiska tillsatsen vit Gaussian brus (AWGN) kanal med en energi skörd sändare med en obegränsad storlek batteri. När energin anländer slumpmässigt och kan sparas i batteriet, måste kodord lyda kumulativa stokastiska energibegränsningar. Vi visar att kapaciteten hos AWGN-kanalen med sådana stokastiska kanalinmatningsbegränsningar är lika med kapaciteten med en genomsnittlig effektbegränsning som motsvarar den genomsnittliga laddningshastigheten. Vi tillhandahåller två system för kapacitetsuppnående: spar-och-överföring och bästa-insats-överföring. I spar-och-överföringssystemet samlar sändaren in energi i en sparfas av lämplig varaktighet som garanterar att det inte kommer att bli någon energibrist under överföringen av kodsymboler. I det bästa sändningsschemat, startar överföringen direkt utan en inledande sparperiod, och sändaren skickar en kodsymbol om det finns tillräckligt med energi i batteriet, och en noll symbol annars. Slutligen, vi anser ett system där den genomsnittliga laddningshastigheten är tid varierar i en större tid skala och härleda den optimala offline effektpolicy som maximerar den genomsnittliga genomströmningen, genom att använda majorization teori. Index Terms-Additive vit Gaussian brus (AWGN) kanal, energi skörd, offline strömförsörjning, Shannon kapacitet.
I synnerhet visar REF att när B = ❌ är kapaciteten hos energiupptagningskanalen densamma som hos en AWGN-kanal med en genomsnittlig effektbegränsning som motsvarar den genomsnittliga energiupptagningshastigheten E[E t ].
12,417,250
Achieving AWGN Capacity Under Stochastic Energy Harvesting
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science']}
80,316
I en multi-armad bandit (MAB) problem, en online-algoritm gör en sekvens av val. I varje omgång väljer man en tidsinvariant uppsättning alternativ och får den utdelning som är förknippad med detta alternativ. Medan fallet med små strategiuppsättningar är nu välförståeligt, har en hel del av det senaste arbetet fokuserat på MAB-problem med exponentiellt eller oändligt stora strategiuppsättningar, där man behöver anta extra struktur för att göra problemet hanterbart. Särskilt den senaste litteraturen behandlade information om likheter mellan armar. Vi anser likhetsinformation i inställningen av kontextuella banditer, en naturlig förlängning av det grundläggande MAB-problemet där före varje omgång en algoritm ges sammanhanget - en antydan om vinsterna i denna omgång. Sammanhangsbanditer är direkt motiverade genom att placera annonser på webbsidor, ett av de avgörande problemen i sponsrad sökning. Ett särskilt enkelt sätt att representera likhetsinformation i kontextuell banditinställning är genom ett likhetsavstånd mellan context-arm-paren, vilket ger en övre gräns för skillnaden mellan respektive förväntad vinst. Tidigare arbete på kontextuella banditer med likhet använder "uniforma" partitioner av likhetsutrymmet, så att i huvudsak varje sammanhang-arm par approximeras av närmaste par i partitionen. Algoritmer baserade på "uniforma" partitioner bortser från strukturen av utbetalningar och kontexten ankomster. Detta är potentiellt slösaktigt, eftersom det kan vara fördelaktigt att upprätthålla en finare uppdelning i högavlönade regioner av likheten utrymme och populära regioner i sammanhanget utrymme. I detta dokument designar vi algoritmer som är baserade på adaptiva partitioner som är anpassade till de populära och hög payoff regioner, och därmed kan dra nytta av problemfall med "benig" utbetalningar eller sammanhang ankomster.
Ett annat relaterat arbete föreslår den kontextuella zoomningsalgoritm REF som klokt partitionerar likhetsutrymmet baserat på belöningsstrukturen i likhetsutrymmet och tidigare sammanhang ankomster.
15,132,124
Contextual Bandits with Similarity Information
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,317
Detta papper introducerar Deep Recurrent Attentive Writer (DRAW) neurala nätverk arkitektur för bildgenerering. DRAW nätverk kombinerar en ny spatial uppmärksamhetsmekanism som efterliknar foveation av det mänskliga ögat, med en sekventiell variation av auto-encoding ram som möjliggör iterativ konstruktion av komplexa bilder. Systemet förbättras avsevärt på state of the art för generativa modeller på MNIST, och när tränas på Street View House Numbers dataset, genererar det bilder som inte kan skiljas från verkliga data med blotta ögat.
REF införde vidare den djupgående uppmärksamhetsskrivaren (DRAW) genom att utvidga VEA-metoden genom att införa en ny, differentierad uppmärksamhetsmekanism.
1,930,231
DRAW: A Recurrent Neural Network For Image Generation
{'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,318
Abstract-In dator-stödd diagnos (CAD), maskininlärning tekniker har i stor utsträckning tillämpas för att lära sig en hypotes från diagnostiserade prover för att hjälpa de medicinska experterna i att göra en diagnos. För att lära sig en väl genomförd hypotes krävs en stor mängd diagnostiserade prover. Även om proverna lätt kan samlas in från rutinmässiga läkarundersökningar, är det vanligtvis omöjligt för medicinska experter att ställa en diagnos för vart och ett av de insamlade proven. Om en hypotes kunde läras i närvaro av en stor mängd odiagnostiserade prover, skulle den tunga bördan på de medicinska experterna kunna frigöras. I den här artikeln föreslås en ny semiövervakad inlärningsalgoritm som heter Co-Forest. Det utökar samträning paradigm genom att använda en välkänd ensemble metod som heter Random Forest, vilket gör det möjligt Co-Forest att uppskatta märkningen förtroende odiagnostiserade prover och lätt producera den slutliga hypotesen. Experiment på referensdatauppsättningar verifierar den föreslagna algoritmens effektivitet. Fallstudier på tre medicinska datamängder och en framgångsrik tillämpning på mikroförkalkning detektion för bröstcancer diagnos visar att odiagnostiserade prover är till hjälp i att bygga CAD-system, och Co-Forest kan förbättra prestandan av hypotesen som lärs på endast en liten mängd diagnostiserade prover genom att använda tillgängliga odiagnostiserade prover. Index Terms-Computer-stödd diagnos (CAD), co-utbildning, ensemble lärande, maskininlärning, mikroförkalkning klusterdetektion, slumpmässig skog, halvövervakad lärande.
Vid applicering av mikroförkalkning detektion för bröstcancer diagnos, Ming Li et al. REF visade att samskogen framgångsrikt kan förbättra prestandan hos en modell som är utbildad på endast en liten mängd diagnostiserade prover genom att använda tillgängliga odiagnostiserade prover.
2,758,814
Improve Computer-Aided Diagnosis With Machine Learning Techniques Using Undiagnosed Samples
{'venue': 'IEEE Transactions on Systems, Man, and Cybernetics - Part A: Systems and Humans', 'journal': 'IEEE Transactions on Systems, Man, and Cybernetics - Part A: Systems and Humans', 'mag_field_of_study': ['Computer Science']}
80,319
Abstract-Vi modellerar dynamiken hos icke-linjära point-topoint robotrörelser som ett tidsoberoende system som beskrivs av ett autonomt dynamiskt system (DS). Vi föreslår en iterativ algoritm för att uppskatta formen av DS genom en blandning av Gaussiska distributioner. Vi bevisar att den resulterande modellen är asymptotiskt stabil vid målet. Vi bekräftar exaktheten i modellen på ett bibliotek med 2D mänskliga rörelser och att lära sig en kontrollpolicy genom mänskliga demonstrationer för två flergraders frihetsrobotar. Vi visar realtidsanpassningen till perturbationer av den lärda modellen när vi styr de två kinematiskt drivna robotarna.
Billard föreslog att modellera den icke-linjära dynamiska punkt-till-punkt robot rörelser som ett tidsoberoende system med hjälp av en iterativ algoritm för att uppskatta formen av det dynamiska systemet genom en blandning av Gaussiska distributioner REF.
15,930,717
BM: An iterative algorithm to learn stable non-linear dynamical systems with Gaussian mixture models
{'venue': '2010 IEEE International Conference on Robotics and Automation', 'journal': '2010 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,320
Maskininlärning (ML) algoritmer har gjort en enorm inverkan inom området medicinsk avbildning. Medan medicinska bilddata har ökat i storlek, en utmaning för övervakade ML algoritmer som ofta nämns är bristen på kommenterade data. Till följd av detta har olika metoder som kan lära sig med mindre/andra typer av tillsyn föreslagits. Vi ger en översikt över halvövervakade, flera instans, och överföra lärande i medicinsk avbildning, både i diagnos eller segmentering uppgifter. Vi diskuterar också kopplingar mellan dessa inlärningsscenarier och möjligheter till framtida forskning. En datauppsättning med uppgifter om de undersökta tidningarna finns tillgänglig via https://figshare.com/artiklar/Database _ of _ surveyed _ little _ in _ Not-so-övervakad _ a _ survey _ of _ semi-övervakad _ multi-instance _ och _ transfer _ learning _ in _ medicinsk _ bild _ analys _ /7479416.
REF granskade halvövervakat lärande med flera intance och överför lärande i medicinsk bildanalys, som omfattar både djupinlärning och traditionella segmenteringsmetoder.
4,903,005
Not‐so‐supervised: A survey of semi‐supervised, multi‐instance, and transfer learning in medical image analysis
{'venue': None, 'journal': 'Medical Image Analysis', 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics']}
80,321
Abstract-Med den snabba utvecklingen av trådlös kommunikation, vehicular ad hoc-nätverk (VANET) har nyligen fått stor uppmärksamhet. Även om IEEE 802.11p har godkänts som standardprotokoll för medelhög åtkomstkontroll (MAC) för kommunikation mellan fordon, kan dess tvistebaserade karaktär och oförmåga att hantera dolda terminalproblem medföra hög sannolikhet för kollision i paket i situationer med hög trafiktäthet. För att övervinna bristen på IEEE 802.11p föreslås tidsdelningsbaserade protokoll baserade på flera åtkomster (TDMA). Paketkollisioner kan dock fortfarande inträffa på grund av stridigheter eller flera fordon som använder samma spår samtidigt som de närmar sig varandra, dvs. stöter på kollisioner, särskilt på tvåvägstrafikvägar. Vissa föreslog att man skulle åtgärda sammanstötningarna för tvåvägstrafik genom att dela upp en ram i två uppsättningar: en för trafiken i varje riktning. Dessa föreslagna protokoll är dock svårare att anpassa till de ojämna trafikbelastningarna i båda riktningarna och kan inte lösa problemet med fyrvägskorsningar. I detta dokument föreslår vi ett nytt TDMA-protokoll som kallas prediktionsbaserat TDMA MAC (PTMAC) baserat på ett nytt sätt att förutsäga kollisioner och effektivt minska antalet kollisioner. Såvitt vi vet är PTMAC det första protokollet som är utformat för både tvåvägstrafik och fyrvägskorsningar. Det har visat sig att kollisionerna på grund av denna förutsägbarhet kan minskas avsevärt i både tvåvägstrafik och fyrvägskorsningar, oavsett trafikbelastningen på olika vägsegment. Index Terms-Medium access control (MAC), paket kollision förutsägelse, time-division multipel access (TDMA), vehicular ad hoc-nätverk (VANET).
I referens-REF presenterade de en TDMA-baserad MAC som hette PTMAC (Prediction-baserad TDMA MAC).
19,312,081
PTMAC: A Prediction-Based TDMA MAC Protocol for Reducing Packet Collisions in VANET
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
80,322
Rekommenderar system är en viktig del av många webbplatser. Två av de mest populära tillvägagångssätten är baserade på matris factorization (MF) och Markov kedjor (MC). MF metoder lära sig den allmänna smaken av en användare genom att faktorisera matrisen över observerade användarobjekt preferenser. Å andra sidan, MC metoder modellera sekventiellt beteende genom att lära sig en övergång graf över objekt som används för att förutsäga nästa åtgärd baserat på de senaste åtgärderna av en användare. I detta dokument presenterar vi en metod som för samman båda tillvägagångssätten. Vår metod är baserad på personliga övergångsdiagram över underliggande Markov kedjor. Det innebär för varje användare en egen övergångsmatris är inlärd - sålunda totalt metoden använder en övergångskub. Eftersom observationer för att uppskatta övergångarna vanligtvis är mycket begränsade, vår metod faktoriserar övergången kub med en parvis interaktion modell som är ett specialfall av Tucker Decomposition. Vi visar att vår faktoriserade personliga MC (FPMC) modell subsumerar både en gemensam Markov kedja och den normala matris factorization modell. För att lära sig modellparametrarna, introducerar vi en anpassning av Bayesian Personalized Ranking (BPR) ram för sekventiella korgdata. Empiriskt visar vi att vår FPMC-modell överträffar både den gemensamma matrisfaktoriseringen och den opersonliga MC-modellen både lärt med och utan faktorisering.
Rendle REF förlängde MC med faktorisering av övergångsmatrisen och beräknade sannolikheten för varje beteende baserat på tidigare beteenden.
207,178,809
Factorizing personalized Markov chains for next-basket recommendation
{'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,323
Nuvarande algoritmer för minimienergi routing i trådlösa nätverk väljer normalt minsta kostnad multi-hop banor. I scenarier där transmissionseffekten är fast, har varje länk samma kostnad och minimihoppsbanan väljs. I situationer där överföringseffekten kan varieras med avståndet till länken är länkkostnaden högre för längre humle, och energimedvetna routingalgoritmer väljer en väg med ett stort antal små humle. I detta dokument hävdar vi att en sådan formulering som enbart bygger på den energi som förbrukas i en enda sändning är vilseledande - den korrekta mätningen bör omfatta den totala energi (inklusive som förbrukas för eventuella vidaresändningar som krävs) som används för att på ett tillförlitligt sätt leverera paketet till dess slutdestination. Vi studerar först hur felfrekvensen för länkar påverkar denna mätmetod för vidaresändning och hur den leder till ett effektivt val mellan en stig med ett stort antal kortdistanshopp och ett annat med ett mindre antal långdistanshopp. Sådana studier motiverar definitionen av en länkkostnad som är en funktion av både den energi som krävs för ett enda överföringsförsök över länken och felfrekvensen för länken. Denna kostnadsfunktion fångar upp den ackumulerade energi som förbrukas i tillförlitlig dataöverföring, för både tillförlitliga och opålitliga länklager. Slutligen, genom detaljerade simuleringar, visar vi att våra system kan leda till upp till 30-70% energibesparingar jämfört med de mest kända nuvarande systemen, under realistiska miljöer.
Banerjee och Misra Ref modellerade länkkostnaden som en funktion av energiförbrukningen för ett enda överföringsförsök över länken och felfrekvensen för länken, och föreslog flera omsändningsmedvetna routingsystem.
222,765
Minimum energy paths for reliable communication in multi-hop wireless networks
{'venue': "MobiHoc '02", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,324
De flesta djupt förstärkande inlärningsalgoritmer är dataineffektiva i komplexa och rika miljöer, vilket begränsar deras tillämplighet till många scenarier. En riktning för att förbättra dataeffektiviteten är multitask-inlärning med delade neurala nätverksparametrar, där effektiviteten kan förbättras genom överföring över relaterade uppgifter. I praktiken observeras dock inte detta vanligtvis, eftersom gradienter från olika uppgifter kan störa negativt, vilket gör lärande instabila och ibland ännu mindre data effektiva. En annan fråga är de olika belöningssystemen mellan uppgifter, vilket lätt kan leda till att en uppgift dominerar inlärningen av en gemensam modell. Vi föreslår ett nytt tillvägagångssätt för gemensam utbildning av flera uppgifter, som vi kallar Distral (Distill & transfer learning). I stället för att dela parametrar mellan de olika arbetstagarna föreslår vi att vi delar en "destillerad" politik som fångar upp ett gemensamt beteende mellan olika uppgifter. Varje arbetare utbildas för att lösa sin egen uppgift samtidigt som de är tvungna att hålla sig nära den gemensamma politiken, medan den gemensamma politiken genom destillation utbildas till centroid för all uppgiftspolitik. Båda aspekterna av inlärningsprocessen erhålls genom att man optimerar en gemensam objektiv funktion. Vi visar att vårt tillvägagångssätt stöder effektiv överföring på komplexa 3D-miljöer och överträffar flera relaterade metoder. Dessutom är den föreslagna inlärningsprocessen mer robust och stabilare attribut som är avgörande för djupt förstärkande lärande.
REF tillämpar destillation på multi-task-inställningen genom att lära sig en gemensam (destillerad) politik i ett antal 3D-miljöer.
31,009,408
Distral: Robust Multitask Reinforcement Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,325
Abstract-The brett utplacerade cellulära nätverk, assisterad med enhet-till-enhet (D2D) kommunikation, kan ge en lovande lösning för att stödja effektiv och tillförlitlig fordonskommunikation. Snabba kanalvariationer som orsakas av hög rörlighet i en fordonsmiljö måste beaktas ordentligt vid utformningen av resursfördelningssystem för D2D-aktiverade fordonsnätverk. I detta dokument utför vi spektrumdelning och maktfördelning endast baserat på långsamt varierande storskalig bleknande information om trådlösa kanaler. I enlighet med olika krav för olika typer av länkar, dvs. hög kapacitet för fordons-till-infrastruktur (V2I) länkar och ultratillförlitlighet för fordons-till-fordon (V2V) länkar, försöker vi maximera ergodisk kapacitet för V2I anslutningar samtidigt som tillförlitlighet garanteras för varje V2V-länk. Summa ergodisk kapacitet för alla V2I-länkar tas först som optimeringsmål för att maximera den totala V2I-länkgenomströmningen. Minimikapacitetsmaximering anses då ge en mer enhetlig kapacitetsprestanda för alla V2I-länkar. Nya algoritmer som ger optimal resursfördelning och är robusta för att kanalisera variationer föreslås. Deras önskvärda prestanda bekräftas genom datorsimulering. Index Terms-Device-to-device (D2D) kommunikation, fordonskommunikation, spektrumdelning, strömfördelning.
REF ) utformade ett spektrumdelningsresurser för både V2V- och V2I-länkar för att garantera tillförlitligheten för varje V2V-länk samtidigt som V2I-anslutningarnas ergodiska kapacitet maximerades.
19,516,622
Resource Allocation for D2D-Enabled Vehicular Communications
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science']}
80,326
De senaste åren har det förekommit en aldrig tidigare skådad spridning av sociala medier. Människor runt om i världen författare, varje dag, miljontals blogginlägg, sociala nätverk statusuppdateringar, etc. Denna rika ström av information kan användas för att kontinuerligt identifiera nya berättelser och händelser som fångar allmänhetens uppmärksamhet. Berättelser kan identifieras via grupper av tätt sammankopplade verkliga enheter, nämligen människor, platser, produkter, etc, som är involverade i berättelsen. Den rena skalan och snabba utvecklingen av de data som ingår kräver mycket effektiva tekniker för att identifiera viktiga berättelser vid varje tidpunkt. Den största utmaningen vid identifiering av berättelser i realtid är underhåll av täta subgrafer (motsvarande grupper av tätt sammankopplade enheter) under uppdateringar av streaming edge vikt (till följd av en ström av användargenererat innehåll). Detta är det första arbetet för att studera effektivt underhåll av täta subgrafer under sådan strömmande A. Angel Work [4] och dess T.R. gjort under tiden vid University of Toronto. Uppdateringar av kantvikt. För ett brett spektrum av definitioner av densitet, vi härleda teoretiska resultat avseende omfattningen av förändring som en enda kant vikt uppdatering kan orsaka. Baserat på dessa föreslår vi en ny algoritm, DynDens, som överträffar anpassningar av befintliga tekniker till denna inställning och ger meningsfulla, intuitiva resultat. Vårt tillvägagångssätt är validerat genom en grundlig experimentell utvärdering av storskaliga reella och syntetiska dataset.
REF bygger ett enhetsnätverk från sociala medier med hjälp av metoden "streaming edge vikt".
2,185,310
Dense subgraph maintenance under streaming edge weight updates for real-time story identification
{'venue': 'The VLDB Journal', 'journal': 'The VLDB Journal', 'mag_field_of_study': ['Computer Science']}
80,327
Modellfria metoder för att stärka inlärningen (RL) lyckas i ett växande antal uppgifter, med hjälp av den senaste tidens framsteg i det djupa lärandet. De tenderar dock att lida av stor urval komplexitet som hindrar deras användning i verkliga domäner. Alternativt, modellbaserad förstärkning lärande lovar att minska urvalet komplexitet, men tenderar att kräva noggrann inställning och hittills har det lyckats främst på restriktiva områden där enkla modeller är tillräckliga för lärande. I detta dokument analyserar vi beteendet hos vanilj modellbaserade förstärkande inlärningsmetoder när djupa neurala nätverk används för att lära sig både modellen och politiken, och vi visar att den lärda politiken tenderar att utnyttja regioner där otillräckliga data finns tillgängliga för modellen att lära sig, vilket orsakar instabilitet i utbildningen. För att lösa denna fråga föreslår vi att man använder en ensemble av modeller för att upprätthålla modellens osäkerhet och reglera inlärningsprocessen. Vi visar vidare att användningen av sannolikhetskvotderivat ger mycket stabilare inlärning än backpropagation genom tiden. Sammantaget minskar vår metod Modell-Ensemble Trust-Region Policy Optimization (ME-TRPO) avsevärt urvalet komplexitet jämfört med modellfria djupa RL-metoder på utmanande kontinuerlig kontroll benchmarking uppgifter 1 2.
I REF föreslås att man använder en uppsättning modeller för att mildra denna fråga.
3,536,221
Model-Ensemble Trust-Region Policy Optimization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,328
När tillverkningen stoppas måste tillverkaren besluta om partistorleken i den slutliga produktionen för att täcka reservdelsefterfrågan under slutbehandlingsfasen. Detta beslut kan stödjas genom att man förutser hur stor efterfrågan som förväntas i framtiden. Prognoser kan erhållas från den installerade basen av produkten, dvs. antalet produkter som fortfarande används. Konsumentens beslut om huruvida en felfunktionsprodukt ska repareras eller inte beror på den specifika produkten och reservdelen. Dessutom kan konsumenterna skilja sig åt i sina beslut, till exempel när det gäller produkter med snabba innovationer och förändrade sociala trender. Konsumentbeteende kan redovisas genom att använda lämpliga typer av installerade bas, till exempel full installerad bas för billiga men väsentliga reservdelar av dyra produkter, och garanti installerad bas för dyra reservdelar av produkter med kort livscykel. I dokumentet presenteras en allmän metod för installation av basprognoser för reservdelsefterfrågan vid uttjänta produkter och man formulerar forskningshypoteser om vilka av fyra installerade bastyper som fungerar bäst under vilka förhållanden. Metoden illustreras av fallstudier för arton reservdelar på sex produkter från ett konsumentelektronikföretag. Forskningshypoteser stöds i de flesta fall, och prognoser som erhållits från installerade bas är betydligt bättre än enkla svart box prognoser. Inbegripet tidigare försäljning via installerad bas stöder slutliga produktionsbeslut för att tillgodose konsumenternas framtida efterfrågan på reservdelar.
Installerad bas definieras som antalet sålda produkter som kan leda till efterfrågan på reservdelar REF.
2,296,431
Spare part demand forecasting for consumer goods using installed base information
{'venue': 'Comput. Ind. Eng.', 'journal': 'Comput. Ind. Eng.', 'mag_field_of_study': ['Engineering', 'Computer Science']}
80,329
Mål: Betydande variation i akutmottagning (ED) patientens ankomsthastighet kräver justering av bemanningsmönster för att optimera snabb vård av patienter. Denna studie utvärderade effektiviteten av en kömodell i att identifiera leverantörer bemanning mönster för att minska andelen patienter som lämnar utan att ses. Författarna samlade in detaljerade ED ankomstdata från ett stadssjukhus och använde en Lag SIPP köanalys för att få insikter om hur man byter leverantör personal för att minska andelen patienter som lämnar utan att bli sedd. Författarna jämförde sedan denna andel under samma 39-veckorsperiod före och efter de resulterande förändringarna. Resultat: Trots att ankomstvolymen ökade med 1 078 patienter (6,3 %), resulterade en genomsnittlig ökning av leverantörstimmarna med 12 timmar per vecka (3,1 %) i 258 färre patienter som inte sågs. Detta motsvarar en minskning av andelen patienter som inte sågs med 22,9%. Begränsad uppmärksamhet till en fyra dagar lång undergrupp av veckan under vilken det inte förekom någon ökning av totala leverantörstimmar, resulterade en omfördelning av leverantörer baserat på kömodellen i 161 färre patienter som lämnade utan att ses (21,7%), trots att ytterligare 548 patienter (5,5%) anlände under den andra halvan av studien. Slutsatser: Tillgång i rätt tid till en leverantör är en kritisk aspekt av ED-kvalitetsprestanda. I en miljö där ED ofta är underbemannade kan analyser av ankomstmönster och användning av kömodeller vara mycket användbara för att identifiera den mest effektiva fördelningen av personal. AKADEMIC EMERGENCY MEDICIN 2006; 13:61-68 a
Grön et al. REF samlade in detaljerade HED ankomstdata från ett stadssjukhus och använde en köbaserad analys för att få insikter om hur man byter leverantör personal för att minska andelen patienter som lämnar utan att bli sedd.
10,886,990
Using Queueing Theory to Increase the Effectiveness of Emergency Department Provider Staffing
{'venue': 'Academic emergency medicine : official journal of the Society for Academic Emergency Medicine', 'journal': 'Academic emergency medicine : official journal of the Society for Academic Emergency Medicine', 'mag_field_of_study': ['Medicine']}
80,330
häst zebra zebra häst Sommar Vinter vinter vinter vinter sommar Fotografering Van Gogh Cezanne Monet Ukiyo-e Monet Bilder Monet foto foto Monet Figur 1: Med tanke på två oordnade bildsamlingar X och Y, vår algoritm lär sig att automatiskt "översätta" en bild från en till den andra och vice versa. Exempel ansökan (botten): med hjälp av en samling målningar av en berömd konstnär, lära sig att göra en användares fotografi i deras stil. Image-to-image översättning är en klass av vision och grafik problem där målet är att lära sig kartläggningen mellan en ingångsbild och en utgångsbild med hjälp av en utbildning uppsättning av anpassade bildpar. För många uppgifter kommer dock inte parade träningsdata att finnas tillgängliga. Vi presenterar ett tillvägagångssätt för att lära sig översätta en bild från en källkodsdomän X till en måldomän Y i avsaknad av parade exempel. Vårt mål är att lära sig en kartläggning G : X → Y sådan att distributionen av bilder från G(X) är oskiljaktig från distributionen Y med hjälp av en kontradiktorisk förlust. Eftersom denna kartläggning är mycket underkonsekventa, vi par det med en invers kartläggning F : Y → X och införa en cykelkonsistens förlust att push F (G(X)) på X (och vice versa). Kvalitativa resultat presenteras på flera uppgifter där parade träningsdata inte finns, inklusive insamling stil överföring, objekttransfiguration, säsong överföring, fotoförbättring, etc. Kvantitativa jämförelser mot flera tidigare metoder visar hur överlägsen vår strategi är.
På så sätt används ett Cycle Generative Adversarial Network (CycleGAN) REF för att översätta bilder från en källa till en måldomän.
206,770,979
Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
80,331
På grund av mängden data som smartphone-program kan komma åt, genomdriver plattformar tillståndssystem som gör det möjligt för användare att reglera hur applikationer får tillgång till skyddade resurser. Om användarna uppmanas att fatta säkerhetsbeslut alltför ofta och i välvilliga situationer, kan de bli vana och godkänna alla framtida förfrågningar utan hänsyn till konsekvenserna. Om de uppmanas att fatta alltför få säkerhetsbeslut kan de bli oroade över att plattformen avslöjar för mycket känslig information. För att utforska denna kompromiss, instrumenterade vi Android-plattformen för att samla in data om hur ofta och under vilka omständigheter smartphone-program har tillgång till skyddade resurser som regleras av behörigheter. Vi utförde en 36-personers fältstudie för att utforska begreppet "kontextuell integritet", det vill säga, hur ofta använder applikationer skyddade resurser när användarna inte förväntar sig det? Baserat på vår insamling av 27 miljoner datapunkter och exitintervjuer med deltagare undersöker vi i vilka situationer användarna vill ha möjlighet att neka ansökningar tillgång till skyddade resurser. Vi fick reda på att minst 80% av våra deltagare skulle ha föredragit att förhindra minst en begäran om tillstånd, och totalt sett trodde de att över en tredjedel av förfrågningarna var invasiva och ville ha en mekanism för att blockera dem.
En nyligen publicerad tidning av Wijesekera m.fl. REF visade att minst 80 % av deltagarna under en studie angav att de skulle förhindra minst en begäran om tillstånd för en experimentell ansökan om de var medvetna om dess syfte och funktion.
2,514,478
Android Permissions Remystified: A Field Study on Contextual Integrity
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,332
Hashing har varit en allmänt antagen teknik för närmaste grannsökning i storskaliga bildsökningsuppgifter. Den senaste tidens forskning har visat att utnyttjande av övervakad information kan leda till hasch av hög kvalitet. Kostnaden för att annotera uppgifter är dock ofta ett hinder vid tillämpning av övervakad haschning på en ny domän. Dessutom kan resultaten drabbas av robusthetsproblemet eftersom data på tränings- och teststadiet kan komma från olika distributioner. I detta dokument studeras utforskandet av att generera syntetiska data genom semiövervakade generativa kontrariska nätverk (GAN), som utnyttjar till stor del omärkta och begränsade utbildningsdata för att producera mycket övertygande data med inneboende invariant och global samstämmighet, för att bättre förstå statistiska strukturer av naturliga data. Vi visar att ovanstående två begränsningar kan minskas väl genom att använda de syntetiska uppgifterna för hashing. Specifikt presenteras en ny djup semantisk hashing med GANs (DSH-Gans) som huvudsakligen består av fyra komponenter: en djup konvolution neurala nätverk (CNN) för att lära bildrepresentationer, en motståndare ström för att skilja syntetiska bilder från verkliga, en hash ström för att koda bildrepresentationer till hashkoder och en klassificering ström. Hela arkitekturen tränas endto-end genom att gemensamt optimera tre förluster, d.v.s., kontrarimal förlust för att korrigera märkning av syntetiska eller verkliga för varje prov, triplet ranking förlust för att bevara den relativa likheten beställning i den ingående realsyntetiska tripletter och klassificering förlust för att klassificera varje prov korrekt. Omfattande experiment som utförts på både CIFAR-10 och NUS-WIDE-bildriktmärken validerar * Detta arbete utfördes på Microsoft Research Asia. De två första författarna bidrog lika mycket till verket. Förmågan att utnyttja syntetiska bilder för haschning. Vårt ramverk uppnår också överlägsna resultat jämfört med toppmoderna djuphashmodeller.
Djup semantisk hashing med GANs (DSH-Gans) REF presenteras för att optimera hela arkitekturen av hashing modell genom att skilja syntetiska bilder från verkliga.
4,080,754
Deep Semantic Hashing with Generative Adversarial Networks
{'venue': "SIGIR '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,333
Sammanfattning av denna webbsida: I den nya eran av konnektivitet, som kännetecknas av det explosiva antalet trådlösa elektroniska enheter och behovet av smarta och genomträngande tillämpningar, är maskin-till-maskin-kommunikation (M2M) en ny teknik som möjliggör den sömlösa sammankopplingen av enheter utan behov av mänsklig interaktion. Användningen av M2M-teknik kan ge liv åt ett brett spektrum av m-hälsotillämpningar, med avsevärda fördelar för både patienter och vårdgivare. Många tekniska utmaningar måste dock mötas för att säkerställa ett brett införande av m-hälsolösningar i framtiden. I detta sammanhang strävar vi efter att tillhandahålla en omfattande kartläggning av M2M-system för m-hälsoapplikationer ur ett trådlöst kommunikationsperspektiv. En helhetssyn antas med fokus på olika kommunikationsaspekter av M2M-arkitekturen. Därför ger vi först en systematisk genomgång av trådlösa Body Area Networks (WBAN), som utgör den möjliggörande tekniken vid patientens sida, och sedan diskuterar end-to-end-lösningar som involverar designsensorerna 2014, 14 18010 och implementering av praktiska m-hälsoapplikationer. Vi avslutar undersökningen genom att identifiera utmaningar och öppna forskningsfrågor, vilket banar väg för framtida forskningsmöjligheter.
Maskin-till-maskin (M2M) kommunikation REF är en framväxande teknik som föreställer sammankoppling av maskiner utan behov av mänskliga ingrepp.
303,976
A Survey on M2M Systems for mHealth: A Wireless Communications Perspective
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
80,334
Över ett halvt sekel gamla och visar inga tecken på åldrande, k-medel är fortfarande en av de mest populära databehandling algoritmer. Som bekant är en korrekt initiering av k-medel avgörande för att få en bra slutlig lösning. Den nyligen föreslagna k-means++ initieringsalgoritm uppnår detta, erhålla en inledande uppsättning av centra som är bevisligen nära den optimala lösningen. En stor nackdel med k-means++ är dess inneboende sekventiella natur, som begränsar dess tillämplighet till massiva data: man måste göra k passerar över data för att hitta en bra första uppsättning centra. I detta arbete visar vi hur man drastiskt kan minska antalet passerkort som behövs för att parallellt få en god initialisering. Detta är olikt rådande ansträngningar på parallellisering k-medel som mest har fokuserat på post-initialization faser av k-medel. Vi bevisar att vår föreslagna initieringsalgoritm k-means en nästan optimal lösning efter ett logaritmiskt antal pass, och sedan visa att i praktiken ett konstant antal pass räcker. Experimentell utvärdering av storskaliga data i realworld visar att k-means på ett bättre sätt än k-means++ i både sekventiella och parallella inställningar.
Bahman Bahmani m.fl. REF föreslog en initialiseringsalgoritm för att få en nästan optimal lösning efter ett logaritmiskt antal pass och visade sedan att det i praktiken räcker med ett konstant antal pass.
117,058
Scalable K-Means++
{'venue': 'Proceedings of the VLDB Endowment (PVLDB), Vol. 5, No. 7, pp. 622-633 (2012)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,335
Abstract Cloud computing datacenter blir allt populärare för att tillhandahålla dataresurser. Kostnaderna och driftskostnaderna för datacenter har skjutit i höjden med ökningen av datorkapaciteten. Flera statliga, industriella och akademiska undersökningar visar att den energi som används av dator- och kommunikationsenheter inom ett datacenter bidrar till en betydande del av datacenterets driftskostnader. I den här artikeln presenterar vi en simuleringsmiljö för energimedvetna molndatacenter. Tillsammans med arbetsbördan distribution, simulatorn är utformad för att fånga in detaljer om den energi som förbrukas av datacenterkomponenter (servrar, switchar och länkar) samt paket-nivå kommunikationsmönster i realistiska inställningar. De simuleringsresultat som erhållits för två-tier, tre-tier, och tre-tier high-speed data center arkitekturer visar effektiviteten i simulatorn för att utnyttja effekthantering schema, såsom spänningsskalning, frekvensskalning, och dynamisk avstängning som tillämpas på datorer och nätverkskomponenter.
En simuleringsmiljö för energimedvetna molndatacenter beskrivs i REF som också modellerar kommunikationsmönster för den energi som förbrukas av datacenterkomponenter.
9,615,195
GreenCloud: a packet-level simulator of energy-aware cloud computing data centers
{'venue': 'The Journal of Supercomputing', 'journal': 'The Journal of Supercomputing', 'mag_field_of_study': ['Computer Science']}
80,336
Detta dokument presenterar en ny metod för automatisk upptäckt av maskar med hjälp av beteendesignaturer. En beteendemässig signatur beskriver aspekter av någon viss mask beteende som är vanliga över manifestationer av en given mask och som spänner dess noder i temporal ordning. Karakteristiska mönster av maskbeteenden i nätverkstrafik inkluderar 1) att skicka liknande data från en maskin till nästa, 2) trädliknande spridning och spaning, och 3) att ändra en server till en klient. Dessa beteendesignaturer presenteras inom ramen för en allmän maskförökningsmodell. Tillsammans har de potential att upptäcka hela klasser av maskar, inklusive de som ännu inte har observerats. I detta dokument introduceras begreppet nätverksapplikationsarkitektur (NAA) som ett sätt att distribuera nätverkstillämpningar. En analys visar att valet av NAA påverkar känsligheten hos beteendesignaturer. En NAA som uppfyller vissa krav avsevärt förbättrar maskdetektionskänsligheten. Matematiska modeller av trafikflöde, NAA, maskförökning och maskdetektering ger ett sammanhang för hela diskussionen.
Sådana beteenden kan representeras av en generisk maskförökningsmodell REF.
5,493,832
A behavioral approach to worm detection
{'venue': "WORM '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,337
Web Services-standarden håller på att bli lingua franca för löst kopplade distribuerade applikationer. Eftersom antalet noder och komplexiteten i dessa program växer under de kommande åren, kommer det att bli mer utmanande för utvecklare att förstå, felsökning, och optimera dem. I denna uppsats beskriver vi Web Services Navigator, ett visualiseringsverktyg som främjar en bättre förståelse för applikationer för serviceorienterad arkitektur (SOA). Vi bygger på vår erfarenhet av verkliga SOA-tillämpningar för att visa hur detta verktyg har tillämpats på praktiska problem som sträcker sig från affärslogiska missförstånd till prestationsflaskhalsar till syntax- och semantiska fel. Web Services Navigator hjälper till att lösa dessa problem genom att visualisera hur applikationer verkligen kör, vilket gör det möjligt för företagsägare, applikationsdesigners, projektledare, programmerare och driftspersonal att förstå hur deras program faktiskt beter sig. Vi skissar arkitekturen för Web Services Navigator, beskriver hur den rekonstruerar applikationsutförande från händelseloggar, och beskriver hur användare interaktivt utforskar sina program med hjälp av sina fem länkade vyer. Stora delar av företagens produktivitetsvinster under de senaste årtiondena beror på införandet av ny informationsteknik. Vid något tillfälle förändras den ekonomiska balansen; företagen börjar lägga större vikt vid att minska kostnaderna för att stödja befintliga IT-funktioner än vid att lägga till nya funktioner. Idag strävar många företag efter att förbättra den totala kostnadseffektiviteten för sina IT-investeringar genom att se över företagens behov och minska kostnaderna. Dessa insatser omfattar vanligtvis att utnyttja befintliga tillgångar, konsolidera uppsägningar och lägga en grund för framtida tillväxt. Denna trend driver övergången från tätt kopplade komponentiserade system till löst kopplade servicebaserade system, såsom de som bygger på serviceorienterade arkitekturer (SOAs) som använder standardbaserade gränssnitt. 1, 2 För att illustrera skillnaderna mellan komponentiserade system och servicebaserade system gör vi en analogi med lufttransportsektorn. Denna industri flyttar passagerare som anländer med hjälp av marktransport till flygplan, flyger dem till en Ó Copyright 2005 av International Business Machines Corporation. Kopiering i tryckt form för privat bruk är tillåten utan betalning av royalty, under förutsättning att 1) varje reproduktion sker utan ändring och 2) tidningsreferensen och IBM-meddelandet om upphovsrätt ingår på första sidan. Titel och abstract, men inga andra delar, av detta papper får kopieras eller distribueras royalty gratis utan ytterligare tillstånd av datorbaserade och andra informationssystem. Tillstånd att återpublicera någon annan del av papperet måste erhållas från Redaktören. destination, och släpper dem till marktransport på destinationen. Flygplan, som är en viktig del av historien, är tillverkade av stora samlingar av tätt integrerade komponenter. Enligt Boeing, ett enda 747-400** flygplan innehåller mer än 6 miljoner delar, 3 visar att det komponentiserade systemet tillvägagångssätt kan fungera för mycket komplexa system. Trots detta är det övergripande flygtransportsystemet bäst formulerat som en sammansättning av "koreograferade" tjänster: bränsletjänster, livsmedelstjänster, bagagetjänster, flygkontrolltjänster och marktransporttjänster, för att bara nämna några få. Flygtransporter beror på både komponentstrategier och servicestrategier. Vilka krafter driver företag mot det ena eller det andra? Ett sätt att ta itu med denna fråga är att observera några av skillnaderna mellan integrerade komponenter och koreograferade tjänster. Komponentiserade system tenderar att vara djupt hierarkiska, med komponenter konstruerade av delkomponenter som själva är konstruerade av andra delkomponenter. När ett komponentiserat system inte fungerar ska den felande delkomponenten identifieras och repareras eller bytas ut. Ofta förekommande flygpassagerare kan till exempel känna till förseningar i samband med flygplansfel. Att borra ner sig i sådana "vertikala" komponenthierarkier för att identifiera grundorsaken till fel är styrkan i dagens diagnostiska verktyg, som ofta är inbyggda i komplexa system. Hur står detta i kontrast till den koreograferade servicemiljön? Tjänsterna har väldefinierade och allmänt tillgängliga gränssnitt med en förutsägbar eller specificerad tjänstekvalitet. De är vanligtvis tillgängliga för olika typer av konsumenter. Tjänster ger i allmänhet en komplett användbar arbetsenhet, och likvärdiga tjänster är ofta tillgängliga som alternativ. Utbytbara tjänster utgör grunden för konkurrensen. När en tjänst misslyckas, det föredragna botemedlet kan vara ersättning snarare än reparation. Om till exempel en bränslelastbil skulle gå sönder, skulle alla flygpassagerare förvänta sig att en ersättningslastbil skulle avsändas i stället för att vänta på att den trasiga lastbilen skulle repareras. Till skillnad från komponentiserade system stannar området för kontroll och synlighet för konsumenten av tjänsten i allmänhet vid servicegränssnittet. Denna servicemiljö leder till många "horisontella" interaktionsmönster som tar formen av en bred och ytlig hierarki. Utmaningen när det gäller att hantera och förstå tjänstesammansättningen är att hantera denna horisontella komplexitet. När systemen består av flera oberoende affärsprocesser är kartläggningen mellan sådana processer och de tillämpningar som utförs i IT-skikten inte alltid självklar. Överväga sådana grundläggande uppgifter som att kontrollera att ett arbetsflöde är korrekt eller att lokalisera flaskhalsar i prestandan, där loggar från en mängd olika servrar måste kollas och tolkas. Detta är svårt även när antalet servrar är litet och kan bli opraktiskt när den horisontella komplexiteten ökar. Uppkomsten av SOA i IT-industrin drivs av samma tryck som har format lufttransportsystemet. Web Services Navigator 4 har utformats och byggts från grunden för att möta utmaningarna med horisontell komplexitet i servicemiljön och dess tillhörande användningsmönster. Detta verktyg bygger på Data Collector för IBM Web Services Navigator 5 för att fånga händelser. Verktyget korrelerar sedan händelserna, modellerar de transaktioner de representerar och extraherar utförandemönster från modellen. Verktyget rekonstruerar således enskilda transaktioner från slut till slut och producerar visuella abstraktioner, såsom servicetopologier och flödesmönster, samt konkreta vyer över transaktionsflöden och datainnehåll. De abstrakta vyerna minskar stora volymer av exekveringsdata till mer meningsfulla former för människor. De kan avslöja viktiga affärstrender som döljs i konkreta synpunkter och samtidigt kan länka till tillhörande detaljerade uppgifter när det behövs. Eftersom SOAs överensstämmer med öppna standarder, Data Collector för Web Services Navigator kan fånga program exekveringsdata i middleware. Följaktligen kan utvecklare och operativ personal dra nytta av visualiseringsteknik utan att ändra sina tillämpningar, antingen före eller efter installation, även när deras miljö innehåller en blandning av programmeringsspråk och operativa plattformar. I nästa avsnitt beskriver vi de fem vyer som används av Web Services Navigator för att visa information. 822 visade sig vara användbara; vi visar först hur verktyget användes för att diagnostisera ett antal problem i affärslogiken, och sedan visar vi ett antal fall där verktyget hjälpte till att diagnostisera problem i IT-lagret. De problem som presenteras i detta dokument möttes i verkliga Web Services-baserade applikationer som utvecklats inom IBM eller för IBM:s kunder. I synnerhet användes två tillämpningar för att illustrera verktygsfunktionerna: en online-ordervalideringstjänst och ett system för försäljningsställen i detaljistledet. Därefter diskuterar vi kort datasamlaren. Sedan, i ''Arkitektur och genomförande,', beskriver vi den allmänna arkitekturen av verktyget och diskuterar ett antal genomförandefrågor av intresse: kompensera för klocka skevar bland noder, vår algoritm för att lägga ut topologi grafer, och identifiera transaktionsmönster. Vi diskuterar relaterat arbete och avslutar med en sammanfattning.
Web Services Navigator-verktyget, beskrivet av en grupp på IBM, samlar in spårdata från en SOA-applikation och ger fem olika vyer över det verkställande systemet REF.
207,737,020
Web Services Navigator : Visualizing the execution of Web Services &
{'venue': 'IBM Syst. J.', 'journal': 'IBM Syst. J.', 'mag_field_of_study': ['Computer Science']}
80,338
häst zebra zebra häst Sommar Vinter vinter vinter vinter sommar Fotografering Van Gogh Cezanne Monet Ukiyo-e Monet Bilder Monet foto foto Monet Figur 1: Med tanke på två oordnade bildsamlingar X och Y, vår algoritm lär sig att automatiskt "översätta" en bild från en till den andra och vice versa. Exempel ansökan (botten): med hjälp av en samling målningar av en berömd konstnär, lära sig att göra en användares fotografi i deras stil. Image-to-image översättning är en klass av vision och grafik problem där målet är att lära sig kartläggningen mellan en ingångsbild och en utgångsbild med hjälp av en utbildning uppsättning av anpassade bildpar. För många uppgifter kommer dock inte parade träningsdata att finnas tillgängliga. Vi presenterar ett tillvägagångssätt för att lära sig översätta en bild från en källkodsdomän X till en måldomän Y i avsaknad av parade exempel. Vårt mål är att lära sig en kartläggning G : X → Y sådan att distributionen av bilder från G(X) är oskiljaktig från distributionen Y med hjälp av en kontradiktorisk förlust. Eftersom denna kartläggning är mycket underkonsekventa, vi par det med en invers kartläggning F : Y → X och införa en cykelkonsistens förlust att push F (G(X)) på X (och vice versa). Kvalitativa resultat presenteras på flera uppgifter där parade träningsdata inte finns, inklusive insamling stil överföring, objekttransfiguration, säsong överföring, fotoförbättring, etc. Kvantitativa jämförelser mot flera tidigare metoder visar hur överlägsen vår strategi är.
I detta arbete är vi inspirerade av en ny metod för oövervakad bild-till-bild översättning REF, där det huvudsakliga målet är att lära sig kartläggningen mellan bilder, snarare än att maximera prestandan av modellen i synnerhet uppgift.
206,770,979
Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
80,339
Sammanfattning av denna webbsida: Gait Event Detektion är viktigt för diagnos och utvärdering. Detta är en utmanande strävan på grund av subjektivitet, stor mängd data, bland annat problem. ANFIS (Artificial Neural Fuzzy Inference Systems), ARX (Autoregressive Models with Exogenous Variables), OE (Output Error models), NARX (Nonlinear Autoregressive Models with Exogenous Variables) och modeller baserade på NN (neurala nätverk) utvecklades för att upptäcka gånghändelser utan de problem som nämns. Målet var att jämföra utvecklade modellers prestanda och fastställa den lämpligaste modellen för att upptäcka gånghändelser. Knäledsvinkel, hälfotsbrytare och tåfotsbrytare under normal gång i löpband samlades in från en frisk volontär. Gait händelser klassificerades av tre experter i mänsklig rörelse. Experternas medelklassificering erhölls och alla modeller utbildades och testades med de insamlade uppgifterna och experternas medelklassificering. För att utvärdera modellernas prestanda erhölls en fast procentuell andel. Motsvarande procentandelar var: ANFIS: 79,49 %, ARX: 68,8 %, OE: 71,39 %, NARX: 88,59 %, NNARX: 67,66 %, NNRARX: 68,25 % och NNARMAX: 54,71 %. NARX hade den bästa prestandan för gånghändelser klassificering. För ARX och OE krävs tidigare filtrering. NN:s modeller visade den bästa prestandan för högfrekvenskomponenter. ANFIS och NARX kunde integrera kriterier från tre experter för gånganalys. NARX och ANFIS är lämpliga för att identifiera gånghändelser. Test med ytterligare ämnen behövs.
I REF jämförs artificiella neurala fuzzy inference system (ANFIS), autoregressiva modeller med exogena variabler (ARX), utdatafelmodeller (OE), NARX och andra NN-baserade modeller för detektering av gånghändelser.
14,177,709
Comparison between Classical and Intelligent Identification Systems for Classification of Gait Events
{'venue': 'J. of Control Science and Engineering', 'journal': 'J. of Control Science and Engineering', 'mag_field_of_study': ['Computer Science']}
80,340
Abstract-The Web har potential att bli världens största kunskapsbas. För att frigöra denna potential, den mängd information som finns tillgänglig på webben måste extraheras och organiseras. Det finns ett behov av nya frågetekniker som är enkla och ännu mer uttrycksfulla än de som tillhandahålls av standard sökordsbaserade sökmotorer. Söka efter kunskap snarare än webbsidor måste överväga inneboende semantiska strukturer som entiteter (person, organisation, etc.) och relationer (isA, locatedIn, etc.). I detta dokument föreslår vi NAGA, en ny semantisk sökmotor. NAGA bygger på en kunskapsbas, som är organiserad som en graf med maskinskrivna kanter, och består av miljontals enheter och relationer som utvunnits ur webbaserad korpora. Ett grafbaserat frågespråk gör det möjligt att formulera frågor med ytterligare semantisk information. Vi introducerar en ny poängsättningsmodell, baserad på principerna för generativa språkmodeller, som formaliserar flera föreställningar såsom förtroende, informativhet och kompaktitet och använder dem för att rangordna frågeresultat. Vi visar NAGA:s överlägsna resultatkvalitet över toppmoderna sökmotorer och frågesvarssystem.
När det gäller att utnyttja även semantiska relationer använde NAGA REF en poängmodell baserad på principerna för generativa språkmodeller, från vilka åtgärder som förtroende, informativhet och kompaktitet härleds, som sedan används för att rangordna resultat.
6,137,903
NAGA: Searching and Ranking Knowledge
{'venue': '2008 IEEE 24th International Conference on Data Engineering', 'journal': '2008 IEEE 24th International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']}
80,341
Abstrakt. Tree-Decompositions är hörnstenen i många dynamiska programmeringsalgoritmer för att lösa grafproblem. Eftersom komplexiteten hos sådana algoritmer i allmänhet beror exponentiellt på bredden (storleken på påsarna) av nedbrytningen, har mycket arbete ägnats åt att beräkna trädindelningar med liten bredd. Praktiska algoritmer som beräknar trädnedbrytningar finns dock bara för grafer med trädbredd mindre än 4. I sådana grafer domineras tidskomplexiteten hos dynamiska programmeringsalgoritmer baserade på trädnedbrytningar av storleken (antal påsar) på trädnedbrytningarna. Det är då intressant att försöka minimera storleken på träd-nedbrytningar. I detta utvidgade abstrakt, vi anser problemet med att beräkna en träd-nedbrytning av en graf med bredd som mest k och minsta storlek. Mer exakt, vi fokuserar på följande problem: med tanke på en fast k ≥ 1, vad är komplexiteten i att beräkna en träd-dekomposition av bredd som mest k med minsta storlek i klassen av grafer med trädbredd som mest k? Vi bevisar att problemet är NP-komplett för alla fasta k ≥ 4 och polynomial för k ≤ 2. Pågående arbete tyder också på att det är polynom för k = 3.
Det är känt att ett sådant problem är NP-komplett för varje fast k ≥ 4, det är polynom för k ≤ 2 och för k = 3 det är polynom för träd och 2-anslutna yttre planar grafer REF.
16,595,772
Minimum Size Tree-decompositions
{'venue': 'Electron. Notes Discret. Math.', 'journal': 'Electron. Notes Discret. Math.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,342
Förutsägelse uppgifter över noder och kanter i nätverk kräver noggrann ansträngning i tekniska funktioner som används för att lära algoritmer. Den senaste forskningen inom det bredare området representationsinlärning har lett till betydande framsteg när det gäller att automatisera förutsägelser genom att själva lära sig funktionerna. Dagens inlärningsmetoder är dock inte tillräckligt uttrycksfulla för att fånga upp den mångfald av konnektivitetsmönster som observerats i nätverk. Här föreslår vi node2vek, ett algoritmiskt ramverk för att lära sig kontinuerliga funktions representationer för noder i nätverk. I node2vec, vi lär oss en kartläggning av noder till en låg-dimensionell utrymme av funktioner som maximerar sannolikheten för att bevara nätverk av noder. Vi definierar en flexibel uppfattning om en nod nätverk område och utforma en partisk slumpmässig promenad förfarande, som effektivt utforskar olika stadsdelar. Vår algoritm generaliserar tidigare arbete som bygger på stela föreställningar om nätverk kvarter, och vi hävdar att den ökade flexibiliteten i att utforska stadsdelar är nyckeln till att lära rikare representationer. Vi demonstrerar effektiviteten av node2vek över befintliga toppmoderna tekniker på multi-märkning klassificering och länk förutsägelse i flera verkliga nätverk från olika domäner. Tillsammans utgör vårt arbete ett nytt sätt att på ett effektivt sätt lära sig de senaste uppgifternas oberoende representationer i komplexa nätverk.
Node2vec REF ändrade sättet att generera nodsekvenser och föreslog en flexibel uppfattning om nodens grannskap.
207,238,980
node2vec: Scalable Feature Learning for Networks
{'venue': "KDD '16", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics']}
80,343
Abstrakt. Webbtjänsternas heterogena, dynamiska, distribuerade och föränderliga karaktär kräver anpassningsteknik för att övervinna olika typer av missmatchningar som kan uppstå bland tjänster som utvecklats av olika parter. I detta dokument presenterar vi en metod för automatiserad generering av (service)-adaptrar som kan lösa beteendestörningar bland BPEL-processer. Anpassningsprocessen, med tanke på två kommunicerande BPEL-processer vars interaktion kan låsas, bygger (om möjligt) en BPEL-process som gör det möjligt för de två processerna att framgångsrikt samarbeta. En viktig ingrediens i anpassningsmetoden är omvandlingen av BPEL-processer till YAWL-arbetsflöden.
I samband med webbtjänster och BPEL beskriver REF en metod för generering av adaptrar som kan lösa beteendestörningar mellan BPEL-processer.
7,883,086
Automated Generation of BPEL Adapters
{'venue': 'CIbSE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,344
Vi studerar adaptiv nätverkskodning (NC) för schemaläggning av realtidstrafik över ett trådlöst nätverk med en enda hop. För att uppfylla de hårda tidsfristerna för realtidstrafik, är det viktigt att hitta en balans mellan att maximera genomströmningen och minimera risken för att hela block av kodade paket inte kan decodable inom tidsfristen. Således motiverade, vi utforska adaptiv NC, där blockstorleken anpassas baserat på den återstående tiden till tidsfristen, genom att kasta detta sekventiella block storlek anpassningsproblem som en ändlig-horisont Markov beslutsprocess. Ett intressant fynd är att den optimala blockstorleken och dess motsvarande åtgärdsutrymme monotont minskar när tidsfristen närmar sig, och den optimala blockstorleken begränsas av den "grå" blockstorleken. Dessa unika strukturer gör det möjligt att begränsa sökområdet för dynamisk programmering, bygger på vilken vi utvecklar en monotonitet-baserad bakåt induktionsalgoritm (MBIA) som kan lösa för optimal blockstorlek i polynom tid. Eftersom sannolikheten för kanalradering skulle vara tidsvariation i ett mobilt nätverk, utvecklar vi ytterligare ett gemensamt schemaläggnings- och kanalinlärningsprogram i realtid med adaptiv NC som kan anpassas till kanaldynamiken. Vi generaliserar också analysen till flera flöden med hårda deadlines och långsiktiga leveransförhållande begränsningar, utforma en låg-komplexitet online schemaläggning algoritm integrerad med MBIA, och sedan etablera sin asymptotic throughput-optimality. Förutom analys- och simuleringsresultat utför vi trådlösa emuleringstester med hög trohet med riktiga radiosändningar för att visa att MBIA är genomförbart när det gäller att hitta den optimala blockstorleken i realtid.
En gemensam strategi för schemaläggning och kodlängdsanpassning utvecklades för multicasttjänster med hårda tidsfrister med hjälp av dynamisk programmering REF.
2,332,886
Adaptive network coding for scheduling real-time traffic with hard deadlines
{'venue': "MobiHoc '12", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,345
Sammanfattning av denna webbsida: Topologikontroll i sensornätverk har studerats starkt på senare tid. Olika geometriska topologier föreslogs vara de underliggande nättopologierna för att uppnå kommunikationsnätens gleshet eller för att garantera paketleveransen av specifika routingmetoder. De flesta av de föreslagna topologistyralgoritmerna tillämpades dock endast på tvådimensionella (2D) nätverk där alla sensornoder är fördelade i ett 2D-plan. I praktiken är sensornätverken ofta utplacerade i 3D-utrymme, t.ex. sensornoder i skog. Denna uppsats syftar till att undersöka effektiva topologi kontrollprotokoll för 3D-sensornätverk. I våra nya protokoll, utökar vi flera 2D geometriska topologier till 3D-fall, och föreslår några nya 3D Yao-baserade topologier för sensornätverk. Vi bevisar också flera egenskaper (t.ex. begränsad grad och konstant effekt stretch faktor) för dem i 3D utrymme. Simuleringsresultaten bekräftar våra teoretiska bevis för dessa föreslagna 3D-topologier.
I REF har författarna utvidgat de två geometriska 2D-topologierna såsom Relativt Grannskapsdiagram (RNG) och Gabriel Graph (GG) till 3D-fall och föreslagit 3D Yao-baserade topologier för sensornätverk.
14,838,532
Energy-efficient topology control for three-dimensional sensor networks
{'venue': 'IJSNet', 'journal': 'IJSNet', 'mag_field_of_study': ['Computer Science']}
80,346
Distant övervakad relation extrahering har använts i stor utsträckning för att hitta nya relationsfakta från text. Långsiktig övervakning följer dock oundvikligen med fel märkningsproblem, och dessa bullriga data kommer att avsevärt skada prestandan av relationsextraktion. För att lindra denna fråga föreslår vi en exponeringsbaserad modell på straffnivå för relationsextraktion. I denna modell använder vi konvolutionella neurala nätverk för att bädda semantiken av meningar. Efteråt, vi bygga mening-nivå uppmärksamhet över flera fall, vilket förväntas dynamiskt minska tyngderna av dessa bullriga fall. Experimentella resultat på verkliga dataset visar att, vår modell kan utnyttja alla informativa meningar fullt ut och effektivt minska påverkan av fel märkta instanser. Vår modell uppnår betydande och konsekventa förbättringar av relationsextraktionen jämfört med baslinjerna. Källkoden för detta papper kan erhållas från https: // github.com/ tunk/ NRE.
I REF föreslogs uppmärksamhet på meningsnivå, vilket förväntas minska vikterna för dessa bullriga fall på ett dynamiskt sätt.
397,533
Neural Relation Extraction with Selective Attention over Instances
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,347
Den klassiska miljön för samhällsdetektion består av nätverk som uppvisar en klusterstruktur. För att mer exakt modellera verkliga system anser vi en klass av nätverk (i) vars kanter kan bära etiketter och (ii) som kan sakna en klusterstruktur. Speciellt antar vi att noder har latenta attribut hämtade från ett allmänt kompakt utrymme och kanter mellan två noder genereras slumpmässigt och märkas enligt någon okänd fördelning som en funktion av deras latenta attribut. Vårt mål är då att härleda kantetikettdistributionerna från ett delvis observerat nätverk. Vi föreslår en beräkningseffektiv spektralalgoritm och visar att den möjliggör asymptotiskt korrekt slutledning när den genomsnittliga nodgraden kan vara så låg som logaritmisk i det totala antalet noder. Omvänt, om den genomsnittliga nodgraden är under en specifik konstant tröskel, visar vi att ingen algoritm kan uppnå bättre slutledning än gissning utan att använda observationer. Som en biprodukt av vår analys visar vi att vår modell ger en allmän procedur för att konstruera slumpmässiga grafmodeller med ett spektrum asymptotiskt till en förspecificerad eigen value distribution såsom en power-law distribution.
I REF föreslogs en spektral klustereringsmetod för att sluta sig till eggetikettdistributionen för ett nätverk som provtagits från en generaliserad stokastisk blockmodell.
6,088,744
Edge Label Inference in Generalized Stochastic Block Models: from Spectral Theory to Impossibility Results
{'venue': 'COLT', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,349
Flera vyer 3D-videorekonstruktion av skådespelarens prestanda fångar en detaljnivå för kropps- och klädrörelser som är tidskrävande att producera med hjälp av befintliga animationsverktyg. I detta dokument presenterar vi en ram för concatenativ syntes från flera 3D-videosekvenser enligt användarens begränsningar för rörelse, position och timing. Flera 3D-videosekvenser av en skådespelare som utför olika rörelser är automatiskt konstruerade i en ytrörelsekurva som representerar möjliga övergångar med liknande form och rörelse mellan sekvenser utan onaturliga rörelseartefakter. Form likhet över en adaptiv temporal fönster används för att identifiera övergångar mellan 3D-videosekvenser. Nya 3D-videosekvenser syntetiseras genom att hitta den optimala vägen i ytrörelsegrafen mellan användarens specificerade nyckel-ramar för kontroll av rörelse, plats och timing. Den optimala vägen som uppfyller användarens begränsningar samtidigt minimera den totala övergångskostnaden mellan 3D-videosekvenser hittas med heltal linjär programmering. Resultat visar att detta ramverk möjliggör flexibel produktion av nya 3D-videosekvenser som bevarar den detaljerade dynamiken i den fångade rörelsen för en skådespelerska med lösa kläder och långt hår utan synliga artefakter.
På liknande sätt, Huang et al. REF syntetiserar nya 3D-videosekvenser genom att hitta den optimala vägen i rörelsegrafen mellan användarspecificerade nyckelramar för kontroll av rörelse, plats och timing.
5,712,534
Human motion synthesis from 3D video
{'venue': '2009 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2009 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
80,350
Nästan varje populärt programmeringsspråk kommer med en eller flera paket chefer. Programpaketen som distribueras av sådana pakethanterare bildar stora programvaruekosystem. Dessa förpackningsekosystem innehåller ett stort antal paketutgåvor som uppdateras regelbundet och som har många beroenden av andra paketutgåvor. Förpackningsekosystem är mycket användbara för sina respektive samhällen av utvecklare, men de står inför utmaningar relaterade till sin omfattning, komplexitet och utvecklingshastighet. Typiska problem är bakåtkompatibla paketuppdateringar, och risken för (transitivt) beroende på paket som har blivit föråldrade eller inaktiva. Detta manuskript använder biblioteken.io dataset för att utföra en kvantitativ empirisk analys av likheterna och skillnaderna mellan utvecklingen av paketberoende nätverk för sju förpackningsekosystem i olika storlekar och åldrar: Cargo for Rust, CPAN for Perl, CRAN for R, npm for JavaScript, NuGet for the.NET platform, Packagist for PHP och Ruby Gems for Ruby. Vi föreslår nya mått för att fånga tillväxt, förändringsförmåga, återanvändbarhet och sårbarhet i dessa beroendenätverk, och använda dessa mått för att analysera och jämföra deras utveckling. Vi observerar att beroendenätverken tenderar att växa över tid, både i storlek och i antal paketuppdateringar, medan en minoritet av paketen är ansvariga för de flesta paketuppdateringarna. Majoriteten av paketen beror på andra paket, men endast en liten del av paketen står för de flesta av de omvända beroendena. Vi observerar en hög andel av "fragila" paket på grund Kommuniceras av: till ett stort och ökande antal transitiva beroenden. Dessa resultat är avgörande för att bedöma kvaliteten på ett paketberoende nätverk och förbättra det genom verktyg för beroendehantering och påtvingad politik.
Dekan m.fl. REF jämförde utvecklingen av paketberoende nätverk av Cargo, CPAN, CRAN, npm, NuGet, Packagist och Rubygems.
2,983,755
An empirical comparison of dependency network evolution in seven software packaging ecosystems
{'venue': 'Empirical Software Engineering', 'journal': 'Empirical Software Engineering', 'mag_field_of_study': ['Computer Science']}
80,351
Vi tar itu med problemet med gemensam del-of-tal märkning (POS) och beroende tolkning på kinesiska. På kinesiska, vissa POS-taggar är ofta svåra att disambiguera utan att överväga långdistans syntaktisk information. Den traditionella pipelinemetoden för märkning av POS och tolkning av beroendet kan också drabbas av problemet med felspridning. I detta dokument föreslår vi det första stegvisa tillvägagångssättet för uppgiften gemensam märkning av producentorganisationer och tolkning av beroendet, som bygger på en övergångsmässig tolkningsram med dynamisk programplanering. Även om det stegvisa tillvägagångssättet stöter på svårigheter med underspecificerade POS-taggar av look-ahead-ord, övervinner vi denna fråga genom att införa så kallade fördröjda funktioner. Vår gemensamma strategi har lett till betydande förbättringar av rörlednings- och bassystem både när det gäller märkning av POS-system och tolkning av beroende, vilket har lett till att vi uppnått de senaste resultaten av denna gemensamma uppgift.
I REF föreslås den första övergångsbaserade gemensamma modellen för kinesisk POS-märkning och omärkt tolkning av beroende och en stor förbättring av tolkningsnoggrannheten.
5,404,235
Incremental Joint POS Tagging and Dependency Parsing in Chinese
{'venue': 'IJCNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,352
Abstract-Vi presenterar en ram för att göra beräkning offloading beslut i beräknings rutnät inställningar där schemaläggare bestämma när man ska flytta delar av en beräkning till mer kapabla resurser för att förbättra prestanda. Sådana schemaläggare måste förutsäga när en avlastad beräkning kommer att överträffa en som är lokal genom att förutsäga den lokala kostnaden (exekveringstid för beräkning lokalt) och fjärrkostnaden (exekveringstid för beräkning på distans och överföringstid för input/output av beräkningen till/från fjärrsystemet). Vanligtvis innebär detta beslut att förutsäga bandbredden mellan de lokala och avlägsna systemen för att uppskatta dessa kostnader. Vårt ramverk förenar sådana beslutsmodeller genom att formulera problemet som ett statistiskt beslutsproblem som antingen kan behandlas "klassiskt" eller med en Bayesiansk strategi. Med hjälp av ett genomförande av denna ram utvärderar vi effektiviteten hos ett antal olika beslutsstrategier (varav flera har använts av tidigare system). Våra resultat visar att en Bayesian metod som använder automatisk förändringspunktsdetektering när man uppskattar den tidigare fördelningen är den bäst presterande metoden.
I REF formuleras problemet med avlastning av beslut baserat på bandbreddsprognoser för fjärrsystem och lokala system.
14,478,656
Using bandwidth data to make computation offloading decisions
{'venue': '2008 IEEE International Symposium on Parallel and Distributed Processing', 'journal': '2008 IEEE International Symposium on Parallel and Distributed Processing', 'mag_field_of_study': ['Computer Science']}
80,353
Att lära sig generiska och robusta funktioner representationer med data från flera domäner för samma problem är av stort värde, särskilt för de problem som har flera datauppsättningar men ingen av dem är tillräckligt stor för att ge rikliga datavariationer. I detta arbete presenterar vi en pipeline för att lära sig djupa funktioner representationer från flera områden med Convolutional Neural Networks (CNN). När man tränar ett CNN med data från alla domäner, lär sig vissa neuroner representationer delas över flera domäner, medan vissa andra är effektiva endast för en specifik. Baserat på denna viktiga observation, föreslår vi en Domain Guidade Dropout algoritm för att förbättra funktionen lärande förfarande. Experiment visar effektiviteten i vår pipeline och den föreslagna algoritmen. Våra metoder på personen om-identifiering problem outperform state-of-the-art metoder på flera datauppsättningar med stora marginaler.
Xiao m.fl. REF införde en Domänstyrd Dropout-algoritm för att träna en CNN-klassificeringsmodell med hjälp av kombinationen av flera datauppsättningar.
4,234,245
Learning Deep Feature Representations with Domain Guided Dropout for Person Re-identification
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,354
Att införliva flerskaliga funktioner i helt konvolutionella neurala nätverk (FCN) har varit ett viktigt element för att uppnå state-of-the-art prestanda på semantiska bildsegmentering. Ett vanligt sätt att extrahera flerskaliga funktioner är att mata flera storlekssorterade inmatningsbilder till ett delat djupt nätverk och sedan slå samman de resulterande funktionerna för pixelvis klassificering. I detta arbete föreslår vi en uppmärksamhetsmekanism som lär sig att mjukt väga de flerskaliga funktionerna på varje pixel plats. Vi anpassar en toppmodern semantisk bildsegmenteringsmodell, som vi tränar tillsammans med flerskaliga indatabilder och uppmärksamhetsmodellen. Den föreslagna uppmärksamhetsmodellen överträffar inte bara genomsnitt och max-pooling, utan gör det möjligt för oss att diagnostiskt visualisera betydelsen av funktioner på olika positioner och skalor. Dessutom visar vi att det är viktigt att lägga till extra övervakning till produktionen i varje skala för att uppnå utmärkta resultat vid sammanslagning av flerskaliga funktioner. Vi demonstrerar effektiviteten i vår modell med omfattande experiment på tre utmanande datauppsättningar, inklusive PASCAL-Person-Part, PASCAL VOC 2012 och en delmängd MS-COCO 2014.
Till exempel använde REF ) en uppmärksamhetsmodell för att bestämma vilka skalfunktioner som är mer användbara på varje plats.
206,594,196
Attention to Scale: Scale-Aware Semantic Image Segmentation
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,355
I detta dokument föreslås en metod för att mäta semantisk likhet mellan ord som ett nytt verktyg för textanalys. Likheten mäts på ett semantiskt nätverk konstruerat systematiskt från en delmängd av det engelska lexikonet LDOCE (Longman Dictionary of Contemporary English). Spridning aktivering på nätverket kan direkt beräkna likheten mellan två ord i Longman Defining Vocabulary, och indirekt likheten av alla andra ord i LDOCE. Likheten representerar styrkan i den lexiska sammanhållningen eller det semantiska förhållandet och ger också värdefull information om texternas likhet och samstämmighet.
I Ref föreslogs också en ordliknande åtgärd genom att sprida aktiveringen på ett semantiskt nät som består av den webbaserade ordboken LDOCE.
813,476
Similarity Between Words Computed By Spreading Activation On An English Dictionary
{'venue': 'Conference Of The European Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,356
I detta dokument undersöks effektiv användning och rörlighet av flera obemannade luftfartyg (UAV), som används som flygbasstationer för att samla in data från Internet of Things (IoT)-enheter. För att möjliggöra tillförlitlig upplänkkommunikation för IoT-enheter med en minsta total sändningseffekt föreslås ett nytt ramverk för att gemensamt optimera 3D-placeringen och rörligheten för UAV-enheter, enhet-UAV-förening och upplänkkraftstyrning. För det första, med tanke på platserna för aktiva IoT-enheter vid varje tidpunkt omedelbart, de optimala UAV: s platser och föreningar bestäms. Därefter, för att dynamiskt tjäna IoT-enheter i ett tidsvarierande nätverk, analyseras de optimala rörlighetsmönster UAVs analyseras. För detta ändamål, baserat på aktiveringsprocessen för IoT-enheter, den tid då UAVs måste uppdatera sina platser härleds. Dessutom erhålls den optimala 3D-banan för varje UAV på ett sätt som den totala energi som används för rörligheten av UAVs minimeras medan du servar IoT-enheter. Simuleringsresultat visar att den totala överföringen av IoT-enheter med den föreslagna metoden minskar med 45 % jämfört med ett fall där stationära flygbasstationer används. Dessutom kan det föreslagna tillvägagångssättet ge högst 28 % ökad systemtillförlitlighet jämfört med det stationära fallet. Resultaten visar också en inneboende kompromiss mellan antalet uppdateringstider, rörligheten för UAVs, och överföringskraften hos IoT-enheter. I huvudsak kan ett högre antal uppdateringar leda till lägre överföringsbefogenheter för IoT-enheter till priset av en ökad rörlighet för UAV-enheter. ).............................................................................................. M. Bennis är verksam vid Centrum för trådlös kommunikation, 90014 Uleåborg, Finland, och även hos
Arbetet REF presenterar en studie som mobila UAVs används som antenn basstationer för att samla in data från mark IoT-enheter.
8,834,036
Mobile Unmanned Aerial Vehicles (UAVs) for Energy-Efficient Internet of Things Communications
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,357
För att övervinna bristen på tvåspråkig corpora för vissa språkpar i maskinöversättning, pivot-baserad SMT använder pivot språk som en "bro" för att generera käll-målöversättning från sourcepivot och pivot-målöversättning. En av de viktigaste frågorna är att uppskatta sannolikheterna för de genererade frasparen. I det här dokumentet presenterar vi ett nytt tillvägagångssätt för att beräkna översättningssannolikheten genom att pivotera co-occurence-talet för käll-pivot- och pivot-målfraspar. Experimentella resultat på Europarl-data och webbdata visar att vår metod leder till betydande förbättringar jämfört med baslinjesystemen.
För att lösa denna nackdel föreslog REF metoden för att beräkna cooccurence-talet för käll-pivot- och pivot-mål-fraspar.
2,196,577
Improving Pivot-Based Statistical Machine Translation by Pivoting the Co-occurrence Count of Phrase Pairs
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,358
Abstract-En viktig utmaning för moderna datacenter är att minska energiförbrukningen, av vilken en betydande andel beror på nätverket. Energy Efficient Ethernet (EEE) är en ny standard som syftar till att minska strömförbrukningen i nätet, men nuvarande praxis är att inaktivera den vid produktionsanvändning, eftersom det har en dåligt förstådd inverkan på verkliga tillämpningar prestanda. Ett viktigt programramverk som ofta används i moderna datacenter är Apache Hadoop, som implementerar MapReduce programmeringsmodell. Detta dokument är det första som analyserar EEE:s inverkan på MapReduce-arbetsbelastningen när det gäller allmänna omkostnader för prestanda och energibesparingar. Vi finner att optimala energibesparingar är möjliga om länkarna använder paketsammanslagning. Packets sammansmältning måste dock vara noggrant konfigurerad för att undvika överdriven prestandanedbrytning.
Vårt tidigare arbete var det första att studera effekterna av Energy Efficient Ethernet, inklusive Packet Coalescing, på MapReduce arbetsbelastningar REF.
15,205,450
Exploring interconnect energy savings under east-west traffic pattern of mapreduce clusters
{'venue': '2015 IEEE 40th Conference on Local Computer Networks (LCN)', 'journal': '2015 IEEE 40th Conference on Local Computer Networks (LCN)', 'mag_field_of_study': ['Computer Science']}
80,360
Uppmärksamhetsbaserade neural kodare-dekoder ramar har allmänt antagits för bildtextning. De flesta metoder tvingar visuell uppmärksamhet att vara aktiv för varje genererat ord. Dekoder kräver dock knappast någon visuell information från bilden för att förutsäga icke-visuella ord som "den" och "av". Andra ord som kan verka visuella kan ofta förutsägas på ett tillförlitligt sätt bara från språkmodellen, t.ex. "tecken" efter "bakom ett rött stopp" eller "telefon" efter "prata på en cell". I detta dokument föreslår vi en ny adaptiv uppmärksamhetsmodell med en visuell indikator. Varje gång bestämmer sig vår modell för om bilden (och i så fall till vilka regioner) eller den visuella vaktposten ska visas. Modellen avgör om bilden ska användas och var, för att extrahera meningsfull information för sekventiell ordgenerering. Vi testar vår metod på COCO bildtext 2015 utmaning dataset och Flickr30K. Vår strategi sätter den nya toppmoderna tekniken med en betydande marginal.
För bildtextering, REF utbilda en visuell indikator med en förtränad CNN och finjustera modellen med en mindre inlärningshastighet.
18,347,865
Knowing When to Look: Adaptive Attention via a Visual Sentinel for Image Captioning
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,361
Abstract-Blandad-kritiska realtidssystem, där uppgifter kan förknippas med olika kritiska och säkra nivåer, har rönt stor uppmärksamhet under den senaste tiden. I det här dokumentet överväger vi partitionering-baserad multiprocessor schemaläggning av blandade kritiska realtid uppgiftsuppsättningar. Att garantera genomförbarhet i denna miljö visar sig vara NP-Hard. Med fokus på förebyggande schemaläggning med fast prioritet på varje processor identifierar vi de två huvudaspekterna av problemet, nämligen uppgiftsfördelningen och de prioriterade tilldelningsdimensionerna. För uppgiftsfördelningsdimensionen föreslår och jämför vi bin-packing-inspirerade heuristik, baserat på offline-uppgiftsbeställning enligt användning och kritikalitet. För den prioriterade uppdragsdimensionen jämför vi den välkända Rate Monotonic prioritetstilldelningspolicyn med Audsleys prioriterade uppdragsalgoritm. Genom simuleringar utvärderar och diskuterar vi också den relativa betydelsen av dessa två primära dimensioner på det övergripande problemet med blandkritisk genomförbarhet för multiprocessorplattformar.
Kelly på Al. föreslagna bin-packing algoritmer för partitionering av blandade kritiska realtid uppgiftsuppsättningar REF.
3,129,124
On Partitioned Scheduling of Fixed-Priority Mixed-Criticality Task Sets
{'venue': '2011IEEE 10th International Conference on Trust, Security and Privacy in Computing and Communications', 'journal': '2011IEEE 10th International Conference on Trust, Security and Privacy in Computing and Communications', 'mag_field_of_study': ['Computer Science']}
80,362
I det här dokumentet presenterar vi Epsilon Wizard Language (EWL), ett verktygsbaserat språk för att specificera och utföra automatiserade uppdateringsomvandlingar i det lilla baserat på befintliga modellelement och indata från användaren. Vi diskuterar kraven och designbesluten samt vilken infrastruktur språket har utvecklats på. Vi ger också konkreta arbetsexempel för att visa hur EWL kan användas för att automatisera processen med att konstruera och refaktorisera modeller i praktiken.
Ett särskilt språk är Epsilon Wizard Language (EWL) REF vars syfte är att refaktor, förfina och uppdatera modeller.
6,926,509
Update Transformations in the Small with the Epsilon Wizard Language
{'venue': 'Journal of Object Technology (JOT), Special Issue for TOOLS Europe', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,363
Vi rapporterar om utvecklingen av HoTT biblioteket, en formalisering av homotopy typ teori i Coq bevis assistent. Det formaliserar de flesta av grundläggande homotopy typ teori, inklusive unvalence, högre induktiva typer, och betydande mängder av syntetisk homotopy teori, liksom kategori teori och villkor. Biblioteket har använts som grund för flera självständiga utvecklingar. Vi diskuterar de beslut som ledde till utformningen av biblioteket, och vi kommenterar interaktionen av homotopy typ teori med nyligen införda funktioner i Coq, såsom universum polymorfism och privata induktiva typer.
Homotopy Type Teori [Univalent Foundations Program 2013], och dess förkroppsligande i HoTT biblioteket REF ] behandlar jämlikhet av typer som likvärdighet.
5,953,361
The HoTT library: a formalization of homotopy type theory in Coq
{'venue': 'CPP 2017', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,364
Abstract-This paper tar upp problemet med gemensam spektrumdelning och strömfördelning för kommunikation mellan enheter (D2D) underlaying ett cellulärt nätverk (CN). Inom ramen för den ortogonala frekvensdelningen av flera åtkomstsystem, med de upplänksresurser som delas med D2D-länkar, föreslås både centraliserade och decentraliserade metoder. Om man antar global kanalstatsinformation (CSI) är resursfördelningsproblemet först formulerat som ett icke-konvext optimeringsproblem, som löses med konvex approximationsteknik. Vi bevisar att approximationsmetoden konvergerar till en suboptimal lösning och är ofta mycket nära den globala optimala lösningen. Å andra sidan, genom att utnyttja den decentraliserade nätverksstrukturen med endast lokal CSI vid varje nod, antas Stackelbergs spelmodell för att utforma ett distribuerat resursfördelningssystem. I detta spel-teoretisk modell, basstationen (BS), som är modellerad som ledare, samordnar interferensen från D2D-överföringen till de cellulära användarna (CUs) genom att prissätta interferensen. Därefter, D2D par, som anhängare, tävlar om spektrumet på ett icke-kooperativt sätt. Tillräckliga villkor för förekomsten av Nash jämvikt (NE) och unikheten i lösningen presenteras, och en iterativ algoritm föreslås för att lösa problemet. Dessutom jämförs de signalerande omkostnaderna mellan de centraliserade och decentraliserade systemen. Slutligen presenteras numeriska resultat för att kontrollera de föreslagna systemen. Det har visat sig att det distribuerade systemet är effektivt för resurstilldelningen och skulle kunna skydda CU med begränsade signalerande omkostnader.
I REF, baserat på Stackelbergs spelmodell, föreslås ett distribuerat iterativt system för resursfördelning.
18,985,947
Joint Spectrum and Power Allocation for D2D Communications Underlaying Cellular Networks
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
80,365
Abstract-A utmanande problem i multi-band multi-cell självorganiserade trådlösa system, såsom flerkanaliga WiFi-nätverk, femto / pico celler i 3G/4G cellulära nätverk, och nyare trådlösa nätverk över TV vita utrymmen, är distribuerade resursallokering. Detta omfattar fyra komponenter: kanalval, klientförening, kanalåtkomst och kundschemaläggning. I detta dokument presenterar vi en enhetlig ram för att gemensamt ta itu med de fyra komponenterna med det globala systemets mål att maximera kundernas omsättning på ett proportionellt rättvist sätt. Vår formulering tillåter en naturlig dissociation av problemet i två delar. Vi visar att den första delen, med kanalåtkomst och kundschemaläggning, är konvex och härleder en distribuerad anpassningsprocess för att uppnå Pareto-optimal lösning. För den andra delen, med kanalval och kundförening, utvecklar vi en Gibbs-sampler-baserad strategi för lokal anpassning för att uppnå det globala målet, samt härleda snabba giriga algoritmer från det som uppnår bra lösningar.
I REF tillhandahålls en distribuerad lösning för resurstilldelning för proportionell rättvisa för trådlösa system med flera band.
1,123,891
Distributed resource allocation for proportional fairness in multi-band wireless systems
{'venue': '2011 IEEE International Symposium on Information Theory Proceedings', 'journal': '2011 IEEE International Symposium on Information Theory Proceedings', 'mag_field_of_study': ['Computer Science']}
80,366
Inom modelldriven teknik är evolution oundviklig under hela livscykeln för komplexa programvaruintensiva system och ännu viktigare för hela produktfamiljer. Inte bara exempelmodeller, utan också hela modellering språk är föremål för förändring. Detta gäller särskilt för domänspecifika språk, vars språkkonstruktioner är nära kopplade till en applikationsdomän. Det mest populära synsättet på evolution inom modelleringsdomänen är en manuell process, med tråkig och felbenägen migration av artefakter som exempelmodeller som ett resultat. Detta dokument ger en taxonomi för utveckling av modellering av språk och diskuterar de olika utvecklingsscenarierna för olika typer av modellering av artefakter, såsom exempelmodeller, metamodeller och transformationsmodeller. Därefter bryts konsekvenserna av evolutionen och de nödvändiga avhjälpande åtgärderna ned i primitiva scenarier så att alla möjliga evolutioner kan täckas på ett uttömmande sätt. Dessa primitiver används sedan i en ram på hög nivå för utvecklingen av modellering av språk. Vi föreslår att vårt strukturerade tillvägagångssätt möjliggör utformning av (semi-)automatiska modellering av språkutvecklingslösningar.
I REF ) föreslår författarna en ram för utvecklingen av metamodeller och co-evolution av olika typer av beroende artefakter, såsom modeller och transformationer.
14,735,624
A framework for evolution of modelling languages
{'venue': 'Sci. Comput. Program.', 'journal': 'Sci. Comput. Program.', 'mag_field_of_study': ['Computer Science']}
80,367
Målberoende uppfattningsklassificering är fortfarande en utmaning: att modellera ett måls semantiska överensstämmelse med dess sammanhangsord i en mening. Olika sammanhangsord har olika influenser när det gäller att bestämma känslan av en mening mot målet. Därför är det önskvärt att integrera sambanden mellan målord och sammanhangsord när man bygger upp ett inlärningssystem. I detta dokument utvecklar vi två målberoende modeller för korttidsminne (LSTM) där målinformation automatiskt beaktas. Vi utvärderar våra metoder på ett referensdataset från Twitter. Empiriska resultat visar att modellering av meningsrepresentation med standard LSTM inte fungerar bra. Att införliva målinformation i LSTM kan avsevärt öka klassificeringsnoggrannheten. De målberoende LSTM-modellerna uppnår toppmoderna prestationer utan att använda syntaktisk parser eller externa känslolexikon. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Tang REF utvecklade en målberoende LSTM (TD-LSTM) modell för att fånga kopplingen mellan målord och deras sammanhang.
10,870,417
Effective LSTMs for Target-Dependent Sentiment Classification
{'venue': 'COLING 2016', 'journal': 'arXiv: Computation and Language', 'mag_field_of_study': ['Computer Science']}
80,368
Vi föreslår en ny verifieringsmetod för tidsmässiga egenskaper hos funktionsprogram med högre ordning, som drar nytta av Ongs senaste resultat när det gäller att avgöra om modellkontrollproblemen för system för rekursion med högre ordning (HORS's). Ett program omvandlas till en HORS som genererar ett träd som representerar alla möjliga händelsesekvenser av programmet, och sedan HORS är modellkontrollerad. Till skillnad från de flesta av de tidigare metoderna för verifiering av högre ordningsprogram är vår verifieringsmetod sund och komplett. Dessutom möjliggör detta nya verifieringsramverk en smidig integrering av abstrakta modellkontrolltekniker i verifieringen av högre ordningsprogram. Vi presenterar även en typbaserad verifieringsalgoritm för HORS. Algoritmen kan endast hantera ett fragment av egenskaperna uttryckta av modal μ-calculus, men algoritmen och dess korrekthet bevis är (argumentabelt) mycket enklare än de av Ongs spel-semantik-baserade algoritm. Dessutom, medan HORS-modellens kontrollproblem är n-EXPTIME i allmänhet, är vår algoritm linjär i storleken på HORS, under antagandet att storleken på typer och specifikationer begränsas av en konstant.
Trots de teoretiska resultaten om att modellen kontroll problem ovan, har det varit lite arbete på dess ansökan till programverifiering tills Kobayashi nyligen arbete REF.
5,912,057
Types and higher-order recursion schemes for verification of higher-order programs
{'venue': "POPL '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,369
Abstrakt. Semantisk sökning har varit en av motiven till den semantiska webben sedan den föreställdes. Vi föreslår en modell för utnyttjande av ontologibaserade KB för att förbättra sökningen över stora dokumentarkiv. Vårt tillvägagångssätt inkluderar ett ontologibaserat system för semiautomatisk annotering av dokument, och ett hämtningssystem. Återhämtningsmodellen är baserad på en anpassning av den klassiska vektor-rymd-modellen, inklusive en notation viktningsalgoritm, och en rankningsalgoritm. Semantisk sökning kombineras med sökordsbaserad sökning för att uppnå tolerans mot KB- ofullständighet. Vårt förslag illustreras med provexperiment som visar förbättringar när det gäller sökordsbaserad sökning och ger underlag för ytterligare forskning och diskussion.
En domän ontologi som kunskapsbas för informationssökning används för att förbättra sökningen över stora dokumentarkiv genom REF.
8,611,604
An Ontology-Based Information Retrieval Model
{'venue': 'ESWC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,370
Att förutse flödet av folkmassor är av stor betydelse för trafikledning och allmän säkerhet, och mycket utmanande eftersom det påverkas av många komplexa faktorer, såsom trafik mellan regioner, händelser och väder. Vi föreslår ett djuplärande-baserat tillvägagångssätt, som kallas ST-ResNet, för att gemensamt förutse inflödet och utflödet av folkmassor i varje region i en stad. Vi utformar en end-to-end struktur av ST-ResNet baserat på unika egenskaper spatio-temporal data. Mer specifikt använder vi resterande neurala nätverk ram för att modellera temporal närhet, period, och trend egenskaper crowd traffic. För varje egenskap, vi utformar en gren av kvarvarande convolutional enheter, som var och en modellerar de rumsliga egenskaperna hos crowd traffic. ST-ResNet lär sig att dynamiskt aggregera produktionen av de tre kvarvarande neurala nätverken baserat på data, tilldela olika vikter till olika grenar och regioner. Aggregeringen kombineras ytterligare med externa faktorer, såsom väder och veckodag, för att förutsäga den slutliga trafiken av folkmassor i varje region. Experiment på två typer av folkmassor i Peking och New York City (NYC) visar att de föreslagna ST-ResNet överträffar sex välkända metoder.
Zhang m.fl. REF föreslog en djupgående konvolutionsbaserad neuralnätsmodell för att uppskatta inflöde och utflöde av nätbaserade kartsegment.
9,082,946
Deep Spatio-Temporal Residual Networks for Citywide Crowd Flows Prediction
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,371
Att lära en dator att läsa och besvara allmänna frågor som rör ett dokument är ett utmanande men olöst problem. I denna uppsats beskriver vi en ny neural nätverksarkitektur som kallas ReasoNet (ReasoNet) för maskinförståelse uppgifter. ReasoNets använder sig av flera vändningar för att effektivt utnyttja och sedan resonera över förhållandet mellan frågor, dokument och svar. Avskilj från tidigare tillvägagångssätt med hjälp av ett xed antal varv under inference, ReasoNets införa en uppsägningstillstånd för att slappna av denna begränsning på resonemanget djup. Med hjälp av förstärkande inlärning, kan ReasoNets dynamiskt avgöra om man ska fortsätta förståelse processen efter att smälta mellanliggande resultat, eller att avsluta läsningen när den drar slutsatsen att befintlig information är tillräcklig för att producera ett svar. ReasoNets uppnår överlägsen prestanda i maskinförståelse dataset, inklusive ostrukturerade CNN och Daily Mail dataset, Stanford SQuAD dataset, och en strukturerad Graph Reachability dataset.
I REF föreslås en multi-hop uppmärksamhet modell som använde förstärkning lärande för att dynamiskt avgöra när man ska sluta smälta mellanliggande information och producera ett svar.
6,300,274
ReasoNet: Learning to Stop Reading in Machine Comprehension
{'venue': "KDD '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,372
Märkningsdata för klassificering kräver betydande mänskliga insatser. För att minska märkningskostnaden, i stället för att märka varje instans, är en grupp fall (påse) märkt med en enda påse etikett. Datoralgoritmer används sedan för att härleda etiketten för varje instans i en påse, en process som kallas t.ex. annotering. Denna uppgift är utmanande på grund av tvetydigheten när det gäller exemplifierande etiketter. Vi föreslår en diskriminativ probabilistisk modell för t.ex. notationsproblem och inför en ram för förväntan om maximering av slutsatser, baserad på metoden med maximal sannolikhet. För många probabilistiska metoder, brute-force beräkning av instansen etikett bakre sannolikhet med tanke på sin väska etikett är exponentiellt i antalet fall i väskan. Vårt bidrag är en dynamisk programmeringsmetod för att beräkna det bakre som är linjärt i antalet instanser. Vi utvärderar vår metod med hjälp av både riktmärken och verkliga datauppsättningar, inom området fågelsång, bild annotering och aktivitetsigenkänning. I många fall överträffar den föreslagna ramen, ibland betydligt, de nuvarande moderna MIML inlärningsmetoder, både i till exempel etikett förutsägelse och påse etikett förutsägelse. Ç 0162-8828 ß.........................................................................................................
För att nämna några, en discriminativ probabilistisk modell föreslås i REF.
6,391,323
Dynamic Programming for Instance Annotation in Multi-Instance Multi-Label Learning
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']}
80,373
Abstract-Vi presenterar en ny metod för klusterering baserad på kompression. Metoden använder inte ämnesspecifika egenskaper eller bakgrundskunskap, och fungerar enligt följande: För det första bestämmer vi ett parameterfritt, universellt, likhetsavstånd, det normaliserade kompressionsavståndet eller NCD, beräknat från längden på komprimerade datafiler (singly och i parvis konkatenering). För det andra tillämpar vi en hierarkisk klustermetod. NCD är inte begränsad till ett specifikt tillämpningsområde och fungerar över tillämpningsområdets gränser. En teoretisk prekursor, det normaliserade informationsavståndet, som samutvecklats av en av författarna, är bevisligen optimal. Optimaliteten kommer dock till priset av att använda den icke-kompletterbara begreppet Kolmogorov komplexitet. Vi föreslår axioms för att fånga den verkliga miljön, och visa att NCD approximerar optimalitet. För att utvinna en hierarki av kluster från avståndsmatrisen bestämmer vi ett dendrogram (permanent träd) med en ny kvartettmetod och en snabb heuristisk för att genomföra den. Metoden är implementerad och tillgänglig som offentlig programvara, och är robust under val av olika kompressorer. För att underbygga våra anspråk på universalitet och robusthet rapporterar vi bevis på framgångsrik tillämpning inom så skilda områden som genomik, virologi, språk, litteratur, musik, handskrivna siffror, astronomi och kombinationer av objekt från helt olika domäner, med hjälp av statistik, ordbok och blockera sorteringskompressorer. I genomik lade vi fram nya bevis för stora frågor i mammas evolution, baserade på helmitochondrial genomic analys: Eutherian orders och Marsupionta hypotes mot Theria hypotesen. Index Termer-Heterogen dataanalys, hierarkisk oövervakad klusterbildning, Kolmogorov komplexitet, normaliserad kompression avstånd, parameter-fri databrytning, kvartet träd metod, universell olikhet avstånd.
I ett nyligen publicerat dokument REF presenteras en ny metod för klustring baserad på kompression.
911
Clustering by compression
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Physics', 'Biology']}
80,374
Vi beskriver utformningen av MPI-NetSim och integreringen av OMNeT++:s INET-ramverk i MPICH2:s MPI middleware. Vi introducerar en ny teknik för att jämnt sakta ner driften av systemet för att göra det möjligt för den diskreta händelsenätverkssimulatorn att hålla jämna steg med utförandet och ge en konsekvent bild av kommunikationen. Vi validerar vår teknik med syntetiska program samt standard-NAS-riktmärken. Vi demonstrerar MPI-NetSims användbarhet när vi analyserar nätverkets effekt på kommunikationen genom att använda vår miljö för att studera effekterna av en långsam länk på NAS-riktmärkena.
Undantag är MPI-NetSim on-line simulator REF, som bygger på en långsam paket-nivå diskret händelse nätverk simulator.
4,671,019
MPI-NeTSim: A Network Simulation Module for MPI
{'venue': '2009 15th International Conference on Parallel and Distributed Systems', 'journal': '2009 15th International Conference on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
80,375
En central utmaning för en agent att lära sig interagera med världen är att förutsäga hur dess handlingar påverkar objekt i sin omgivning. Många befintliga metoder för att lära sig dynamiken i fysiska interaktioner kräver märkt objektinformation. Men att skala verklig interaktion lärande till en mängd olika scener och objekt, förvärva märkta data blir alltmer opraktiskt. För att lära oss om fysisk objektrörelse utan etiketter, utvecklar vi en action-konditionerad video förutsägelse modell som explicit modellerar pixel rörelse, genom att förutsäga en distribution över pixel rörelse från tidigare ramar. Eftersom vår modell uttryckligen förutsäger rörelse, är det delvis invariant att objekt utseende, vilket gör det möjligt att generalisera till tidigare osynliga objekt. För att utforska video förutsägelser för interaktiva agenter i verkliga världen, introducerar vi också en datauppsättning på 50.000 robotinteraktioner som innebär att driva rörelser, inklusive en testuppsättning med nya objekt. I detta dataset, exakt förutsägelse av videor som är beroende av robotens framtida åtgärder innebär att lära sig en "visuell fantasi" av olika framtider baserat på olika handlingsvägar. Våra experiment visar att vår föreslagna metod inte bara producerar mer exakta video förutsägelser, men också mer exakt förutsäger objekt rörelse, jämfört med tidigare metoder.
Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF introducerar en action-konditionerad modell som kan förutsäga objekt rörelse utan etiketter, och Wu et.
2,659,157
Unsupervised Learning for Physical Interaction through Video Prediction
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,376
Vi introducerar två taktiker, nämligen den strategiskt timade attacken och den förtrollande attacken, för att attackera förstärkande inlärningsagenter tränade av djupt förstärkande inlärningsalgoritmer med hjälp av kontradiktoriska exempel. I den strategiskt tidsinställda attacken, syftar motståndaren till att minimera agentens belöning genom att bara attackera agenten i en liten del av tid steg i en episod. Att begränsa attackaktiviteten till denna delmängd hjälper till att förhindra att agenten upptäcker attacken. Vi föreslår en ny metod för att avgöra när ett kontradiktoriskt exempel ska utformas och tillämpas. I den förtrollande attacken, syftar motståndaren till att lura agenten till en utsedd målstat. Detta uppnås genom att kombinera en generativ modell och en planeringsalgoritm: medan den generativa modellen förutsäger framtida tillstånd, genererar planeringsalgoritmen en föredragen sekvens av åtgärder för att lura agenten. En sekvens av kontradiktoriska exempel skapas sedan för att locka agenten att ta den föredragna sekvensen av åtgärder. Vi tillämpar den föreslagna taktiken på de agenter som utbildas av den toppmoderna djupt förstärkande inlärningsalgoritmen inklusive DQN och A3C. I 5 Atari spel, vår strategiskt tidsinställda attack minskar lika mycket belöning som den enhetliga attacken (dvs. att attackera varje gång steg) gör genom att attackera agenten 4 gånger mindre ofta. Vår förtrollande attack lockar agenten mot utsedda målstater med mer än 70% framgång. Exempel på videor finns på http: //yklin.me/ adversarial_attack_ RL/.
Nyligen utfört arbete av REF genererar en sekvens av störningar som leder offret till ett måltillstånd.
4,476,190
Tactics of Adversarial Attack on Deep Reinforcement Learning Agents
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,378
Abstract-Problemet att dela flera kanaler som ägs av primäranvändare med flera kognitiva användare beaktas. Varje primär användare överför på sin dedikerade kanal, och dess beläggning modelleras av en kontinuerlig tid Markov process. Varje kognitiv användare är kapabel att känna av en kanal i taget och den överför enligt en slitsig struktur. Överföringarna av kognitiva användare på varje kanal är föremål för en föreskriven kollisionsrestriktion. Under snäva kollisionsbegränsningar erhålls den maximala genomströmningsregionen genom en policy som kallas Orthogonalized Periodic Sensing with Memoryless Access (OPS-MA). Karakteriseringar av den maximala genomströmningsregionen ges också när kollisionsbegränsningarna är lösta. Det visas att OPS-MA-policyn uppnår den högsta summan under alla kollisionsbegränsningar när antalet kognitiva användare är lika stort som antalet primära användare. Inre och yttre gränser för den effektiva bandbredd regionen är formulerade som ett par konvexa optimeringar. När det bara finns två kanaler erhålls även hörnpunkter (det enda användarscenariot) i den optimala effektiva bandbreddsregionen. Index termer-Kognitiva radionät, dynamisk spektrumåtkomst, opportunistisk multiaccess, effektiv bandbredd, Konstnärlig POMDP, könätverk.
Optimaliteten hos OPS-MA visas i REF för Markovian kanalbeläggning.
15,380,444
Multiuser cognitive access of continuous time Markov channels: Maximum throughput and effective bandwidth regions
{'venue': '2010 Information Theory and Applications Workshop (ITA)', 'journal': '2010 Information Theory and Applications Workshop (ITA)', 'mag_field_of_study': ['Computer Science']}
80,379
Att upptäcka avvikelser som skiljer sig grovt från eller är oförenliga med återstående datauppsättning är en stor utmaning i verkliga KDD-applikationer. Befintliga outlier detektionsmetoder är ineffektiva på spridda verkliga datauppsättningar på grund av implicita datamönster och parameterinställningsproblem. Vi definierar en roman Local Distance-based Outlier Factor (LDOF) för att mäta objekts ytterlighet i spridda datauppsättningar som tar itu med dessa problem. LDOF använder den relativa platsen för ett objekt till sina grannar för att avgöra i vilken utsträckning föremålet avviker från sitt närområde. Egenskaper hos LDOF analyseras teoretiskt, inklusive LDOF:s nedre gräns och dess falska detekteringsannolikhet, samt parameterinställningar. För att underlätta parameterinställningar i verkliga tillämpningar använder vi en top-n-teknik i vår outlier detektionsmetod, där endast objekt med de högsta LDOF-värdena betraktas som extremvärden. Jämfört med konventionella metoder (t.ex. top-n KNN och top-n LOF) är vår metod top-n LDOF effektivare när det gäller att upptäcka avvikelser i spridda data. Det är också lättare att ställa in parametrar, eftersom dess prestanda är relativt stabil över ett stort antal parametervärden, vilket illustreras av experimentella resultat på både verkliga och syntetiska datauppsättningar.
Zhange et al REF föreslog en ny definition av avvikande detektion, lokal avståndsbaserad avvikelsefaktor (LDOF), som är känslig för avvikelser i spridda datauppsättningar (figur 5).
15,553,875
A New Local Distance-Based Outlier Detection Approach for Scattered Real-World Data
{'venue': 'Proc. 13th Pacific-Asia Conf. on Knowledge Discovery and Data Mining (PAKDD 2009) pages 813-822', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,380
: Vår modell omvandlar punkter som provtas från en enkel före realistiska punktmoln genom kontinuerlig normalisering flöden. Videorna av omvandlingarna kan ses på vår projektwebbplats: https://www.guandaoyang.com/ PointFlow/. När 3D-punktmoln blir representationen av valet för flera syn- och grafikapplikationer, förmågan att syntetisera eller rekonstruera högupplösning, high-fidelity punktmoln blir avgörande. Trots den senaste tidens framgångar med djupinlärningsmodeller i diskriminerande uppgifter för punktmoln är det fortfarande svårt att generera punktmoln. I detta dokument föreslås en principiell probabilistisk ram för att generera 3D-punktmoln genom att modellera dem som en fördelning av distributioner. Speciellt lär vi oss en två-nivå hierarki av distributioner där den första nivån är fördelningen av former och den andra nivån är fördelningen av punkter ges en form. Denna formulering tillåter oss att både prov former och prov ett godtyckligt antal punkter från en form. Vår generativa modell, PointFlow, lär sig varje nivå av distributionen med ett kontinuerligt normaliserande flöde. Normaliseringsflödenas invertibilitet gör det möjligt att beräkna sannolikheten under utbildningen och * Lika bidrag. gör det möjligt för oss att träna vår modell i den variationsbaserade inferensramen. Empiriskt visar vi att PointFlow uppnår toppmodern prestanda i punktmolnsgenerering. Vi visar dessutom att vår modell troget kan rekonstruera punktmoln och lära sig användbara framställningar på ett oövervakat sätt. Koden finns på https://github.com/stevenyd/PointFlow.
En av de senaste tidningarna REF använder VAE tillsammans med kontinuerlig normalisering flöden för att generera 3D-punktmoln.
195,750,453
PointFlow: 3D Point Cloud Generation With Continuous Normalizing Flows
{'venue': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'journal': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
80,381
Taobao, som är den största online-handel plattform i världen, ger miljarder av online-display reklam intryck för miljontals annonsörer varje dag. För kommersiella ändamål bjuder annonsörerna på specifika platser och målgrupper för att konkurrera om affärstrafik. Plattformen väljer de mest lämpliga annonser att visa i tiotals millisekunder. Gemensamma prissättningsmetoder inkluderar kostnad per mille (CPM) och kostnad per klick (CPC). Traditionella reklamsystem riktar in sig på vissa egenskaper hos användare och annonsplaceringar med fasta anbud, som i huvudsak betraktas som grovkornig matchning av anbuds- och trafikkvalitet. De fasta bud som ställs av annonsörerna och som konkurrerar om olika kvalitetskrav kan dock inte helt optimera annonsörernas centrala krav. Dessutom måste plattformen ansvara för företagsintäkterna och användarupplevelsen. Således föreslog vi ett budoptimeringsstrategi kallas optimerad kostnad per klick (OCPC) som automatiskt justerar erbjudandet för att uppnå finare matchning av bud och trafikkvalitet av sidvy (PV) begäran granularity. Vår strategi optimerar annonsörernas krav, plattformsintäkter och användarupplevelse och förbättrar trafikallokeringseffektiviteten som helhet. Vi har bekräftat vår strategi i Taobao visningssystem i produktionen. Online A/B test visar vår algoritm ger betydligt bättre resultat än tidigare fast budsätt.
Zhu m.fl. REF föreslår OCPC för att optimera annonsörernas krav, plattformsintäkter och användarupplevelse och som helhet förbättrar trafikallokeringseffektiviteten, och ger bättre resultat än tidigare fasta bud i Taobao-reklamsystemet i produktionen.
8,879,805
Optimized Cost per Click in Taobao Display Advertising
{'venue': "KDD '17", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,382
I detta dokument tar vi upp problemet med att minimera en stor klass av energifunktioner som uppstår i tidiga visioner. Den största begränsningen är att energifunktionens släthetsterm endast får omfatta par bildpunkter. Vi föreslår två algoritmer som använder graf skär för att beräkna ett lokalt minimum även när mycket stora rörelser är tillåtna. Den rst flytta vi anser är en --swap: för ett par etiketter ;, Detta drag utbyter etiketter mellan en godtycklig uppsättning pixlar märkta och en annan godtycklig uppsättning märkt. Vår rst algoritm genererar en märkning så att det inte finns någon swap flytta som minskar energin. Det andra draget vi anser är en -expansion: för en etikett, Detta drag tilldelar en godtycklig uppsättning pixlar etiketten. Vår andra algoritm, som kräver att släthetstermen är ett mått, genererar en märkning så att det i s n o expansion flytta som minskar energin. Dessutom ligger denna lösning inom en känd faktor för det globala minimivärdet. Vi demonstrerar experimentellt effektiviteten i vår strategi för bildrenovering, stereo och rörelse. Många tidiga synproblem kräver att uppskatta vissa rumsligt varierande mängd a s i n tensitet o r skillnad från bullriga mätningar. Sådana mängder tenderar att vara styckvis släta; de varierar smidigt på de flesta punkter, men förändras dramatiskt vid objektgränser. Varje pixel p 2 P måste tilldelas en etikett i någon uppsättning L; för rörelse eller stereo, etiketterna är skillnader, medan för bild restaurering de representerar i n tentiteter. Målet är att nd en märkning f som tilldelar varje pixel p 2 P en etikett f p 2 L, där f är både bitvis slät och överensstämmer med de observerade data. Dessa visionsproblem kan naturligt formuleras i termer av energiminimering. I denna ram söker man den märkning f som minimerar energin Ef = E slät f + E data f: Här E slät mäter i vilken utsträckning f inte är bitvis slät, medan E data mäter oenighet b e t wen f och observerade data. Många olika energifunktioner har föreslagits i litteraturen. , där i p är den observerade intensiteten av pixel p. Valet av E slät är en kritisk fråga, och många olika funktioner har föreslagits. Till exempel i standard regularisering-baserad vision 6, E slät gör f slät överallt. Detta leder till dåliga resultat vid objektgränserna. Energifunktioner som inte har detta problem kallas diskontinuitetsbevarande. Ett stort antal avbrottsbevarande energifunktioner har föreslagits se till exempel 7. Geman och Geman s seminal papper 3 gav ett B en jasian tolkning av många energifunktioner, och föreslog en diskontinuitetbevarande energifunktion baserad på Markov Random Fields MRF: s. Den stora sorten med energiminimering för tidig vision ligger i de enorma beräkningskostnaderna. Vanligtvis dessa energifunktioner har många lokala minima d.v.s., de är icke-konvexa. Ännu värre, utrymmet för möjliga märkningar har dimension jPj, som i s m a n y tusentals. Det har gjorts många försök att designa snabba algoritmer för energiminimering. Simulerad glödgning populariserades i datorseende av 3, och används ofta eftersom det kan optimera en godtycklig energifunktion. Tyvärr, minimera en godtycklig energifunktion kräver exponentiell tid, och som en följd simulerad glödgning är mycket långsam. I praktiken är glödgning inte tillräckligt delvis eftersom det vid varje steg ändrar värdet på en enda pixel. De energifunktioner som vi betraktar i detta dokument uppstår i en mängd olika sammanhang, däribland den Bayesianska märkningen av MRF:s. Vi tillåter D p
I REF, Boykov et al. presenterade en effektiv algoritm för α-expansion och α-β-swap för metriska energiminimering baserat på grafskärning.
2,430,892
Fast approximate energy minimization via graph cuts
{'venue': 'Proceedings of the Seventh IEEE International Conference on Computer Vision', 'journal': 'Proceedings of the Seventh IEEE International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']}
80,383
Abstract-Crowdsourcing system som utnyttjar den mänskliga intelligensen för att lösa komplexa uppgifter har vunnit stort intresse och antagande under de senaste åren. Majoriteten av de befintliga crowdsourcingsystemen är dock beroende av centrala servrar, som är föremål för svagheterna i den traditionella förtroendebaserade modellen, såsom en enda bristpunkt. De är också sårbara för distribuerad överbelastning (DDoS) och Sybil attacker på grund av skadliga användare engagemang. Dessutom kan höga serviceavgifter från crowdsourcing-plattformen hindra utvecklingen av crowdsourcing. Hur man ska ta itu med dessa potentiella frågor har både forskning och stort värde. I detta dokument konceptualiserar vi ett blockchain-baserat decentraliserat ramverk för crowdsourcing som heter CrowdBC, där en begärandes uppgift kan lösas av en mängd arbetstagare utan att förlita sig på någon tredje betrodd institution, användarnas integritet kan garanteras och endast låga transaktionsavgifter krävs. Vi inför i synnerhet strukturen i vårt föreslagna ramverk, som vi ger ett konkret system på grundval av. Vi implementerar vidare en programvaruprototyp på Ethereums offentliga testnätverk med verkliga dataset. Experimentella resultat visar genomförbarheten, användbarheten och skalbarheten hos vårt föreslagna crowdsourcing-system.
År 2017 var Li et al. introducerade CrowdBC, ett decentraliserat blockchain-baserat ramverk för crowdsourcing REF.
26,619,090
CrowdBC: A Blockchain-Based Decentralized Framework for Crowdsourcing
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
80,384
Vi presenterar en halvövervakad inlärningsram baserad på grafen inbäddningar. Med tanke på en graf mellan instanser, vi tränar en inbäddning för varje instans att gemensamt förutsäga klassens etikett och området sammanhang i grafen. Vi utvecklar både transduktiva och induktiva varianter av vår metod. I den transduktiva varianten av vår metod bestäms klassetiketterna av både inbäddade och ingående vektorer, medan inbäddningarna i den induktiva varianten definieras som en parametrisk funktion av funktionsvektorerna, så att förutsägelser kan göras vid tillfällen som inte syns under träningen. På en stor och mångfaldig uppsättning referensuppgifter, inklusive textklassificering, fjärrövervakad enhetsextraktion och enhetsklassificering, visar vi förbättrad prestanda jämfört med många av de befintliga modellerna.
Däremot föreslog Planetoid Ref en delvis övervakad inlärningsram baserad på diagram inbäddning, som gav konkurrenskraftiga resultat.
7,008,752
Revisiting Semi-Supervised Learning with Graph Embeddings
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,385
Deep learning methods uppvisar lovande prestanda för prediktiv modellering inom hälso- och sjukvård, men två viktiga utmaningar kvarstår: • Data insuciency: Ofta inom hälso- och sjukvård prediktiv modellering, är provstorleken inte tillräcklig för att djupinlärning metoder för att uppnå tillfredsställande resultat. • Tolkning: De framställningar som inlärs genom djupinlärningsmetoder bör anpassas till medicinsk kunskap. För att ta itu med dessa utmaningar föreslår vi GRAF-baserad uppmärksamhetsmodell (GRAM) som kompletterar elektroniska patientjournaler (EHR) med hierarkisk information som är inneboende i medicinska ontologier. Baserat på datavolymen och ontologistrukturen representerar GRAM ett medicinskt begrepp som en kombination av dess förfäder inom ontologin via en uppmärksamhetsmekanism. Vi jämförde prediktiva prestanda (dvs. noggrannhet, databehov, tolkningsbarhet) av GRAM till olika metoder, inklusive det återkommande neurala nätverket (RNN) i två sekventiella diagnoser förutsägelser uppgifter och en hjärtsvikt förutsägelse uppgift. Jämfört med grundläggande RNN uppnådde Gram 10 % högre noggrannhet för att förutsäga sjukdomar som sällan observerats i träningsdata och 3 % förbättrad area under ROC-kurvan för att förutsäga hjärtsvikt med hjälp av en storleksordning mindre träningsdata. Till skillnad från andra metoder är de medicinska begreppsrepresentationer som Gram lärt sig dessutom väl anpassade till den medicinska ontologin. Slutligen uppvisar Gram intuitiva uppmärksamhetsbeteenden genom att adaptivt generalisera till koncept på högre nivå när data insuciency på lägre nivå begrepp.
En grafbaserad uppmärksamhetsmodell i kombination med RNN används i REF för att ta itu med problem med databrist genom att öka kunskapen från medicinsk ontologi.
13,432,738
GRAM: Graph-based Attention Model for Healthcare Representation Learning
{'venue': "KDD '17", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,386
Abstract-Vi överväger ett scenario där en sofistikerad jammare jammar ett område i ett enkanaligt trådlöst sensornätverk. Störningen kontrollerar sannolikheten för störning och överföringsområde för att orsaka maximal skada på nätet i form av skadade kommunikationslänkar. Störningen upphör när den upptäcks av en övervakningsnod i nätverket, och ett meddelande överförs ut ur störningsregionen. Störningen detekteras vid en monitornod genom att använda ett optimalt detektionstest baserat på procentandelen uppkomna kollisioner. Å andra sidan beräknar nätverket kanalåtkomstsannolikheten i ett försök att minimera störningsdetekteringen plus anmälningstiden. För att jammaren ska kunna optimera sin fördel, måste den känna till nätverkskanalens sannolikhet för åtkomst och antalet grannar i monitorn noden. Nätverket måste därför känna till störningsrisken. Vi studerar det idealiserade fallet av perfekt kunskap av både stören och nätverket om varandras strategi, och fallet där stören eller nätverket saknar denna kunskap. Den senare fångas genom att formulera och lösa optimeringsproblem, vars lösningar utgör bästa svar av angriparen eller nätverket på den värsta-fall strategi av varandra. Vi tar också hänsyn till potentiella energibegränsningar från störsändaren och nätet. Vi utvidgar problemet till fallet med flera observatörer och anpassningsbara störningsöverföringar och föreslår en intuitiv heuristisk störningsstrategi för detta fall.
En sekventiell störningsdetekteringsteknik baserad på antalet felaktigt mottagna meddelanden har presenterats av REF.
15,539,714
Optimal Jamming Attacks and Network Defense Policies in Wireless Sensor Networks
{'venue': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
80,387
Stora sensornätverk medför energi- och kommunikationsbegränsningar, vilket gör det svårt att samla in data från varje enskild sensorknutpunkt och bearbeta den vid diskbänken. I detta dokument föreslår vi ett effektivt system för insamling av uppgifter som kan användas för händelseövervakning eller nätverksomfattande diagnos. Vårt system bygger på den välkända representationen av data -contour kartor, som trade off noggrannhet med mängden prover. Systemet består av tre nya algoritmer för att bygga konturkartor: distribuerad rumslig och temporal datasuppression, konturrekonstruktion vid diskhon via interpolering och utjämning, och en effektiv mekanism för att förmedla routing information över flera humle. Genom att minska antalet sändningar som krävs för att överföra relevant information till diskbänken sparar det föreslagna konturkartläggningssystemet energi och förbättrar nätets livslängd. I en skarp kontrast till relaterat arbete på detta område kräver systemet inte att alla noder uttryckligen delar information. Systemet för konturkartläggning kan tillämpas för uppgifter som: (1) presentera en global bild av nätverket inom både tidsmässiga och rumsliga områden. (2) som används som diagnosverktyg, t.ex. för att upptäcka felaktiga sensorer och skanna efter kvarvarande energi. (3) Arbeta i samverkan med system för aggregering i nätverk för att ytterligare minska de allmänna kommunikationskostnaderna för aggregeringssystem. Det föreslagna systemet innebär inte mycket bearbetning och lagring, vilket gör det möjligt för sensornätverk paradigm "dumb sensor, smart handfat" som möjliggör ekonomisk spridning av storskaliga sensornätverk. Simuleringsresultat visar att vårt system är motståndskraftigt mot både hög paketförlusthastighet och mätbuller. Designen är också energieffektiv, vilket resulterar i upp till en-ordning-av-magnitud effektbesparingar jämfört med baslinjen systemet där varje sensor skickar sin rapport till diskhon.
I likhet med de konturkartor som genereras i vårt system bygger Reference Ref även konturkartor för att avbilda den rumsliga korrelationen i sensorer.
7,275,848
Contour maps: Monitoring and diagnosis in sensor networks
{'venue': 'Computer Networks', 'journal': 'Computer Networks', 'mag_field_of_study': ['Computer Science']}
80,388
Abstract-Monte Carlo trädsökning (MCTS) är en nyligen föreslagen sökmetod som kombinerar precisionen i trädsökning med generaliteten av slumpmässig provtagning. Den har fått stort intresse på grund av sin spektakulära framgång i det svåra problemet med dator Go, men har också visat sig vara till nytta på en rad andra områden. Denna uppsats är en undersökning av litteraturen hittills, avsedd att ge en ögonblicksbild av den senaste tekniken efter de första fem åren av MCTS forskning. Vi beskriver kärnalgoritmens härledning, ger en viss struktur på de många variationer och förbättringar som har föreslagits, och sammanfattar resultaten från det viktiga spelet och icke-spel domäner som MCTS metoder har tillämpats på. Ett antal öppna forskningsfrågor tyder på att fältet är moget för framtida arbete. Index Terms-Artificial Intelligence (AI), bandit-baserade metoder, dator Gå, spelsökning, Monte Carlo trädsökning (MCTS), övre förtroendegränser (UCB), övre förtroendegränser för träd (UCT).
Den mest populära algoritmen som tillämpades var Monte Carlo Tree Search (MCTS) REF.
9,316,331
A Survey of Monte Carlo Tree Search Methods
{'venue': 'IEEE Transactions on Computational Intelligence and AI in Games', 'journal': 'IEEE Transactions on Computational Intelligence and AI in Games', 'mag_field_of_study': ['Computer Science']}
80,389
Vi initierar studien av marknader för privata data, genom linsen av differential integritet. Även om köp och försäljning av privata data redan har börjat i stor skala, saknas en teori om integritet som en vara. I detta dokument föreslår vi att man bygger upp en sådan teori. I synnerhet överväger vi en miljö där en dataanalytiker vill köpa information från en befolkning från vilken han kan uppskatta viss statistik. Analytikern vill få en korrekt uppskattning billigt, medan ägarna av privata data upplever vissa kostnader för deras förlust av integritet, och måste kompenseras för denna förlust. Agenter är själviska, och vill maximera sin vinst, så vårt mål är att utforma sanningsenliga mekanismer. Vårt huvudsakliga resultat är att sådana problem naturligtvis kan ses och lösas optimalt som varianter av flera enhetsauktioner. Baserat på detta resultat härleder vi auktioner som är optimala upp till små konstanta faktorer för två naturliga inställningar: 1. När dataanalytikern har ett fast precisionsmål visar vi att en tillämpning av den klassiska Vickrey-auktionen uppnår analytikerns precisionsmål samtidigt som den minimerar hans totala betalning. 2. Utgångspunkten är följande: När dataanalytikern har en fast budget, ger vi en mekanism som maximerar riktigheten av den resulterande uppskattningen samtidigt som den garanterar att de resulterande summan betalningar inte överstiger analytikerns budget. I båda fallen är vår jämförelseklass den uppsättning avundslösa mekanismer som motsvarar den naturliga klassen av fasta prismekanismer i vår miljö. I båda dessa resultat bortser vi från kostnaden för privatlivet på grund av möjliga samband mellan en individs privata data och hans värdering av integriteten i sig. Vi visar sedan att generiskt, ingen individuellt rationell mekanism kan kompensera individer för den integritetsförlust som uppstått på grund av deras rapporterade värderingar för integritet. Detta är dock en viktig fråga, och att modellera den på rätt sätt är en av de många spännande riktlinjerna för det framtida arbetet.
Ghosh och Roth REF visar att när integritetskostnaderna är korrelerade till data kan ingen individuellt rationell mekanism för direkt avslöjande samtidigt uppnå icke-trivial noggrannhet och differential integritet.
1,934,476
Selling privacy at auction
{'venue': "EC '11", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,390
Abstrakt. Under de senaste åren har olika webbkunskapsgrafer, både fria och kommersiella, skapats. Medan Google myntade termen "Kunskap Graph" under 2012, finns det också några öppet tillgängliga kunskapsgrafer, med DBpedia, YAGO, och Freebase är bland de mest framträdande. Dessa grafer är ofta konstruerade av halvstrukturerade kunskaper, såsom Wikipedia, eller skördas från webben med en kombination av statistiska och språkliga metoder. Resultatet är storskaliga kunskapsdiagram som försöker göra en bra avvägning mellan fullständighet och korrekthet. För att ytterligare öka nyttan av sådana kunskapsgrafer har olika förfiningsmetoder föreslagits, som försöker dra slutsatser och lägga till saknade kunskaper i grafen, eller identifiera felaktiga informationsbitar. I den här artikeln ger vi en kartläggning av sådana metoder för förfining av kunskapsdiagram, med en dubbel titt på både de metoder som föreslås och de utvärderingsmetoder som används.
Paulheim har studerat olika metoder för kunskapsgrafikförfining som syftar till att identifiera fel information och lägga till saknade kunskaper i grafen REF.
13,151,033
Knowledge graph refinement: A survey of approaches and evaluation methods
{'venue': 'Semantic Web', 'journal': 'Semantic Web', 'mag_field_of_study': ['Philosophy', 'Computer Science']}
80,391
Abstrakt. Vi presenterar en ny metod för blind rörelsedeblurring som använder ett neuralt nätverk tränas för att beräkna uppskattningar av skarpa bildfläckar från observationer som är suddiga av en okänd rörelsekärna. I stället för att regressera direkt till patch intensitet, lär sig detta nätverk att förutsäga de komplexa Fourier koefficienter för ett dekonvolutionsfilter som ska appliceras på inmatning patchen för återställning. För slutledning tillämpar vi nätverket oberoende på alla överlappande fläckar i den observerade bilden, och genomsnitt dess utgångar för att bilda en första uppskattning av den skarpa bilden. Vi uppskattar sedan uttryckligen en enda global oskärpa kärna genom att relatera denna uppskattning till den observerade bilden, och slutligen utföra icke-blind dekonvolution med denna kärna. Vår metod uppvisar noggrannhet och robusthet nära toppmoderna iterativa metoder, samtidigt som den är mycket snabbare när den parallelliseras på GPU-hårdvara.
Mest relevant för vårt arbete är det senaste arbetet av Chakrabarti REF som föreslår ett neuralt nätverk som är utbildad för att producera komplexa Fourier koefficienter av en dekonvolution filter.
14,605,354
A Neural Approach to Blind Motion Deblurring
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,392
Stochastiska neuroner och hårda icke-linjäriteter kan vara användbara av ett antal skäl i djupt lärande modeller, men i många fall utgör de ett utmanande problem: hur man uppskattar lutningen av en förlustfunktion med avseende på inmatningen av sådana stokastiska eller icke-smooth neuroner? Dvs., kan vi "bakåt-propagate" genom dessa stokastiska nervceller? Vi undersöker denna fråga, befintliga tillvägagångssätt, och jämför fyra familjer av lösningar, som är tillämpliga i olika miljöer. En av dem är den minsta variansen objektiv gradient estimator för stochatiska binära neuroner (ett specialfall av REINFORCE algoritm). En andra metod, som introduceras här, dekomponerar driften av en binär stokastisk neuron i en stokastisk binär del och en jämn differential del, som approximerar den förväntade effekten av den rena stochatiska binär neuron till första ordningen. En tredje metod innebär insprutning av additivt eller multiplikativt buller i ett beräkningsdiagram som annars kan skiljas åt. En fjärde metod heuritiskt kopierar lutningen med avseende på den stokastiska utgången direkt som en uppskattning av lutningen med avseende på sigmoid argumentet (vi kallar detta den rakt-genom uppskattning). För att utforska ett sammanhang där dessa skattningar är användbara, anser vi en småskalig version av villkorlig beräkning, där glesa stokastiska enheter bildar en distribuerad representation av grindar som kan stängas av i kombinatoriskt många sätt stora bitar av den beräkning som utförs i resten av det neurala nätverket. I detta fall är det viktigt att gatingenheterna producerar en faktisk 0 för det mesta. Den resulterande sparsamheten kan potentiellt utnyttjas för att avsevärt minska beräkningskostnaderna för stora djupa nät för vilka villkorlig beräkning skulle vara användbar.
Bengio och al. I REF införs också begreppet straight-through estimator, där en kopia av lutningen med avseende på den stokastiska utmatningen används direkt som en uppskattning av lutningen med avseende på sigmoid (eller någon icke-linjäritet) operatör.
18,406,556
Estimating or Propagating Gradients Through Stochastic Neurons for Conditional Computation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,393
Abstract-Under rusningstid i stadsområden ökar oförutsägbara trafikstockningar på grund av händelser under rutten (t.ex. fordonsolyckor) förarnas restid och minskar, mer allvarligt, deras restidstillförlitlighet. I detta dokument föreslås ett originellt och mycket praktiskt system för omdirigering av fordon, som kallas "Next Road Rerouting" (NRR), för att hjälpa förare att göra det bästa nästa vägval för att undvika oväntade trafikstockningar. Detta heuristiska beslut om ombokning fattas framför allt på grundval av en kostnadsfunktion som tar hänsyn till förarens destination och lokala trafikförhållanden. Dessutom gör NRR:s nydesignade systemarkitektur att de positiva omdirigeringseffekterna på den lokala trafiken kan spridas till ett större område genom det naturliga trafikflödets utbredning inom sammankopplade lokala områden. Simuleringsresultaten baserade på både syntetiska och realistiska stadsscenarier visar att NRR, jämfört med de befintliga lösningarna, kan uppnå en lägre genomsnittlig restid och samtidigt garantera en högre restidstillförlitlighet vid oväntade trafikstockningar. Effekterna av NRR på restiden för både omriktade och icke-omriktade fordon bedöms också, och motsvarande resultat visar att det är mer praktiskt genomförbart.
Ett annat exempel på ett centraliserat system för omdirigering av fordon är NRR-REF (Next Road Redirecting, NRR).
16,550,733
Next Road Rerouting: A Multiagent System for Mitigating Unexpected Urban Traffic Congestion
{'venue': 'IEEE Transactions on Intelligent Transportation Systems', 'journal': 'IEEE Transactions on Intelligent Transportation Systems', 'mag_field_of_study': ['Engineering', 'Computer Science']}
80,394
Abstract-Aktuella metoder för modellering, analys och design av cyber-fysiska system saknar en enhetlig ram på grund av komplexiteten och heterogeniteten hos de ingående elementen och deras interaktioner. Vår strategi är att definiera relationer mellan systemmodeller på arkitektonisk nivå, vilket fångar de strukturella ömsesidiga beroendena och vissa semantiska ömsesidiga beroenden mellan representationer utan att försöka förstå alla detaljer i någon särskild modelleringsformalism. I detta dokument behandlas frågan om att definiera och utvärdera överensstämmelse mellan arkitektoniska åsikter som olika heterogena modeller kräver och en basarkitektur (BA) för hela systemet. Detta begrepp om strukturell överensstämmelse säkerställer att modellelementen följer de cyber- och fysiska typerna och kopplingarna mellan de komponenter som finns i BA, som fungerar som en enhetlig ram för modellbaserad utveckling. Samstämmighetskontroll mellan en modell och den underliggande systemarkitekturen formuleras som ett typat grafmatchningsproblem mellan konnektivitetsgraferna i motsvarande arkitektoniska vy och systemets BA. Nyttan av metoden för att kontrollera antaganden om systemmodellering illustreras i samband med två heterogena vyer av ett fyrhjulingssystem.
Mer nyligen, Bhave et al. REF har utvidgat AcmeStudio till att stödja strukturell överensstämmelse mellan heterogena modeller som arkitektoniska vyer, särskilt för cyberfysiska system.
18,290,096
View Consistency in Architectures for Cyber-Physical Systems
{'venue': '2011 IEEE/ACM Second International Conference on Cyber-Physical Systems', 'journal': '2011 IEEE/ACM Second International Conference on Cyber-Physical Systems', 'mag_field_of_study': ['Computer Science']}
80,395
Distribuerade system är svåra att implementera på rätt sätt eftersom de måste hantera både konvergens och fel: maskiner kan krascha vid godtyckliga punkter och nätverk kan beställa om, släppa eller dubblera paket. Dessutom är deras beteende ofta alltför komplicerat för att tillåta uttömmande tester. Fel i dessa system har lett till förlust av kritiska data och oacceptabla driftsavbrott. Vi presenterar Verdi, en ram för att genomföra och formellt kontrollera distribuerade system i Coq. Verdi formaliserar olika nätverkssemantik med olika fel, och utvecklaren väljer den lämpligaste felmodellen vid kontroll av deras genomförande. Dessutom underlättar Verdi verifieringsbördan genom att göra det möjligt för utvecklaren att först verifiera sitt system enligt en idealiserad felmodell och sedan överföra de resulterande korrekthetsgarantierna till en mer realistisk felmodell utan någon ytterligare bevisbörda. För att visa Verdis användbarhet presenterar vi det första mekaniskt kontrollerade beviset på linjärisering av Raft-maskinreplikationsalgoritmen, samt verifierade implementationer av ett primärt backup-replikationssystem och ett nyckelvärdeslager. Dessa verifierade system ger liknande prestanda som okontrollerade motsvarigheter.
Verdi REF är en Coq-ram för att genomföra kontrollerade distribuerade system.
8,327,244
Verdi: a framework for implementing and formally verifying distributed systems
{'venue': 'PLDI 2015', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,396
Abstract-Många lagringssystem genomgår en betydande övergång från dedikerad apparatbaserad modell till programvarudefinierad lagring (SDS) eftersom den senare är flexibel, skalbar och kostnadseffektiv för moderna arbetsbelastningar. Det är dock svårt att ge en tillförlitlig garanti för end-to-end prestanda i SDS på grund av komplex programvara stack, tidsvarierande arbetsbelastning och prestandastörningar bland hyresgäster. Därför är modellering och övervakning av lagringssystemens prestanda avgörande för att garantera tillförlitliga QoS-garantier. Befintliga metoder som benchmarking av prestanda och analysmodellering är otillräckliga eftersom de inte är effektiva när det gäller att utforska stora konfigurationsutrymmen och inte kan stödja elastisk verksamhet och olika lagringstjänster inom SDS. Detta papper presenterar Inside-Out, en automatisk modell byggnad verktyg som skapar exakta prestanda modeller för distribuerade lagringstjänster. Inside-Out är en svart-box metod. Den bygger prestandamodeller på hög nivå genom att tillämpa maskininlärningsteknik på prestandamått på låg nivå som samlats in från enskilda komponenter i det distribuerade SDS-systemet. Inside-Out använder en två-nivå inlärningsmetod som kombinerar två maskininlärning modeller för att automatiskt filtrera irrelevanta funktioner, öka förutsägelse noggrannhet och avkastning konsekvent förutsägelse. Vår fördjupade utvärdering visar att Inside-Out är en robust lösning som gör det möjligt för SDS att förutsäga end-to-end prestanda även under utmanande förhållanden, t.ex. förändringar i arbetsbelastning, lagringskonfiguration, tillgängliga molnresurser, den distribuerade lagringstjänstens storlek och mängd störningar på grund av flera hyresgäster. Våra experiment visar att Inside-Out kan förutsäga end-to-end prestanda med 91,1% noggrannhet i genomsnitt. Dess förutsägelsenoggrannhet är konsekvent i olika lagringsmiljöer.
Inside-out tillämpar regressionsmodeller för att förutsäga distribuerad lagringsprestanda (lagringsgenomströmning) REF.
16,060,794
Inside-Out: Reliable Performance Prediction for Distributed Storage Systems in the Cloud
{'venue': '2016 IEEE 35th Symposium on Reliable Distributed Systems (SRDS)', 'journal': '2016 IEEE 35th Symposium on Reliable Distributed Systems (SRDS)', 'mag_field_of_study': ['Computer Science']}
80,397
I detta arbete tar vi upp uppgiften att semantisk bildsegmentering med Deep Learning och gör tre huvudsakliga bidrag som experimentellt visas ha betydande praktiska meriter. För det första lyfter vi fram convolution med uppsamlade filter, eller "atreous convolution", som ett kraftfullt verktyg i täta förutsägelser uppgifter. Atrous convolution tillåter oss att uttryckligen kontrollera den upplösning vid vilken funktionssvar beräknas inom Deep Convolutional Neural Networks. Det gör det också möjligt för oss att effektivt utvidga synfältet för filter för att införliva större sammanhang utan att öka antalet parametrar eller mängden beräkning. För det andra föreslår vi upphetsande rumslig pyramidpooling (ASPP) för att på ett robust sätt segmentera objekt på flera skalor. ASPP sonderar ett inkommande konvolutionellt funktionsskikt med filter med flera provtagningshastigheter och effektiva synfält, vilket fångar föremål såväl som bildkontext i flera skalor. För det tredje förbättrar vi lokaliseringen av objektgränser genom att kombinera metoder från DCNN och probabilistiska grafiska modeller. Den ofta använda kombinationen av max-pooling och downsampling i DCNNs uppnår Invariance men har en vägtull på localization noggrannhet. Vi övervinner detta genom att kombinera svaren på det slutliga DCNN-skiktet med ett helt uppkopplat villkorligt Random Field (CRF), som visas både kvalitativt och kvantitativt för att förbättra lokaliseringsprestandan. Vårt föreslagna "DeepLab" system sätter den nya state-of-art vid PASCAL VOC-2012 semantiska bildsegmentering uppgift, nå 79,7 procent mIOU i testuppsättningen, och avancerar resultaten på tre andra datauppsättningar: PASCAL-Context, PASCAL-Person-Part, och Cityscapes. Alla våra koder görs allmänt tillgängliga på nätet.
DeepLabv2 REF föreslår atmosfärisk rumslig pyramidpooling (ASPP), där parallella atmosfäriska konvolutionslager med olika hastigheter fångar in flerskalig information.
3,429,309
DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
80,398
Abstract-A city erbjuder tusentals sociala evenemang om dagen, och det är svårt för invånarna att göra val. Kombinationen av mobiltelefoner och rekommendationssystem kan förändra hur man hanterar sådant överflöd. Mobiltelefoner med positioneringsteknik är nu allmänt tillgängliga, vilket gör det enkelt för människor att sända sina platser; rekommenderade system kan nu identifiera mönster i människors rörelser för att till exempel rekommendera händelser. För att göra det är systemet beroende av att ha mobila användare som delar sin närvaro vid ett stort antal sociala evenemang: kallstartsanvändare, som inte har någon platshistorik, kan inte få rekommendationer. Vi bestämde oss för att ta itu med det mobila kallstartsproblemet genom att svara på följande forskningsfråga: hur kan sociala evenemang rekommenderas till en kallstartsanvändare baserat enbart på hans hemort? För att besvara denna fråga genomför vi en studie av förhållandet mellan preferenser för sociala händelser och geografi, den första i sitt slag i ett stort storstadsområde. Vi urval plats uppskattningar av en miljon mobiltelefonanvändare i Greater Boston, kombinera provet med sociala evenemang i samma område, och dra slutsatsen de sociala evenemang som 2 519 invånare. På denna data testar vi en mängd olika algoritmer för att rekommendera sociala händelser. Vi finner att den mest effektiva algoritmen rekommenderar händelser som är populära bland invånare i ett område. Den minst effektiva rekommenderar istället händelser som ligger geografiskt nära området. Detta sista resultat har intressanta konsekvenser för platsbaserade tjänster som betonar att rekommendera närliggande händelser.
I REF bygger de ett rekommendationssystem för sociala evenemang och upptäcker att den mest effektiva algoritmen rekommenderar de händelser som är populära bland lokalbefolkningen.
238,273
Recommending Social Events from Mobile Phone Location Data
{'venue': '2010 IEEE International Conference on Data Mining', 'journal': '2010 IEEE International Conference on Data Mining', 'mag_field_of_study': ['Computer Science']}
80,399