src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Material och processspecifikationer är komplexa halvstrukturerade dokument som innehåller numeriska data, text och bilder. Denna artikel beskriver en grov-grain extraktion teknik för att automatiskt omorganisera och sammanfatta spec innehåll. Särskilt har en strategi för semantisk-markup, att fånga innehåll inom en semantisk ontologi, relevant för semiautomatisk extraktion, utvecklats och experimenterats med. Arbetsprototyperna byggdes i samband med Cohesia befintliga mjukvaruinfrastruktur, och använder tekniker från Information Extraction, XML-teknik, etc.
|
För automatisk omorganisation och sammanfattning av specifikationsinnehåll, REF beskrev en grov-gain teknik för att extrahera legeringsspecifikation information.
| 7,558,287 |
An information extraction approach to reorganizing and summarizing specifications
|
{'venue': 'Inf. Softw. Technol.', 'journal': 'Inf. Softw. Technol.', 'mag_field_of_study': ['Computer Science']}
| 14,969 |
Abstrakt. Taxicab service spelar en viktig roll i kollektivtrafiken genom att erbjuda passagerare snabb personlig destination tjänst på ett semiprivat och säkert sätt. Taxicabs kryssning vägnätet letar efter en biljett vid utsedda taxistånd eller längs gatorna. Men denna tjänst är ofta ineffektiv på grund av en låg andel levande miles (miles with a price) till cruising miles (miles without a price). Passagerarnas och destinationernas oförutsägbara karaktär gör det till en utmaning att systematiskt genomföra effektiva rutter. Med högre bränslekostnader och minskande budgetar, ökar trycket på taxichaufförer som direkt får sina inkomster från biljettpriser och spenderar någonstans från 35-60 procent av sin tid cruising vägnätet för dessa biljettpriser. Därför är målet med detta dokument att minska antalet cruising miles samtidigt öka antalet levande miles, vilket ökar lönsamheten, utan systematisk routing. I detta dokument presenteras en enkel men praktisk metod för att minska kryssningsmilen genom att föreslå lönsamma platser för taxiförare. Konceptet använder samma princip som en taxiförare använder: följ din erfarenhet. I vårt synsätt, historiska data fungerar som erfarenhet och en härledd Spatio-Temporal Lönsamhet (STP) kartguider cruising taxicabs. Vi hävdar att STP-kartan är användbar för att vägleda för bättre lönsamhet och validera detta genom att visa ett positivt samband mellan cruising lönsamhet poäng baserat på STP-kartan och den faktiska lönsamheten för taxicab förare. Experiment med hjälp av en stor Shanghai taxi GPS-data uppsättning visar effektiviteten av den föreslagna metoden.
|
I REF använder författarna historiska data som erfarenhet och härleda en Spatio-Temporal Lönsamhet (STP) karta för att vägleda cruising taxicabs letar efter kunder.
| 9,363,829 |
Towards reducing taxicab cruising time using spatio-temporal profitability maps
|
{'venue': 'In Proceedings of the 12th International Symposium on Advances in Spatial and Temporal Databases, SSTD ’11', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,970 |
En gemensam metod för statistisk inlärning om big data är att slumpmässigt fördela den mellan m maskiner och beräkna parametern av intresse genom att slå samman sina m individuella uppskattningar. Två viktiga frågor i samband med detta tillvägagångssätt är: Vad är det optimala aggregationsförfarandet, och vad är noggrannhetsförlusten i jämförelse med centraliserad beräkning. Vi gör flera bidrag till dessa frågor, inom den allmänna ramen för empirisk riskminimering, alias. Uppskattning. Eftersom data är riklig, antar vi antalet prover per maskin, n, är stor och studera två asymptotiska inställningar: en där n → ❌ men antalet uppskattade parametrar p är fast, och ett andra högdimensionellt fall där båda p, n → ∞ med p / n → κ på (0, 1). Våra huvudsakliga resultat inkluderar asymptotiskt exakta uttryck för den förlust som uppstår genom att dela upp data, där endast gränser tidigare var tillgängliga. Dessa härleds oberoende av inlärningsalgoritmen. Följaktligen, enligt lämpliga antaganden i fast-p-inställningen, är medelvärdet första ordningen motsvarar en centraliserad lösning, och därmed ärver statistiska egenskaper som effektivitet och robusthet. I högdimensionsmiljön, som studeras här för första gången i samband med parallellisering, framträder ett kvalitativt annorlunda beteende. Parallelliserad beräkning i allmänhet ådrar sig en noggrannhetsförlust, för vilken vi härleder en enkel ungefärlig formel. Vi avslutar med flera praktiska konsekvenser av våra resultat.
|
I systemet med höga dimensioner är genomsnitt inte ett effektivt sätt att aggregera Ref.
| 176,463 |
On the Optimality of Averaging in Distributed Statistical Learning
|
{'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics']}
| 14,971 |
Abstract-We design överföringsstrategier för medium åtkomst kontroll (MAC) lager multicast som maximerar utnyttjandet av tillgänglig bandbredd. Bandbredd effektivitet av trådlös multicast kan förbättras avsevärt genom att utnyttja funktionen att en enda överföring kan fångas upp av flera mottagare vid MAC-skiktet. Överföringarnas multicast-karaktär förändrar dock de grundläggande relationerna mellan kvalitetsparametrarna (QoS), genomströmning, stabilitet och förlust, t.ex. en strategi som maximerar genomströmningen maximerar inte nödvändigtvis stabilitetsområdet eller minimerar paketförlusten. Vi utforskar kompromisserna bland QoS-parametrarna och tillhandahåller optimala överföringsstrategier som maximerar genomströmningen beroende på stabilitets- och förlustbegränsningar. De numeriska resultatutvärderingarna visar att de optimala strategierna avsevärt överträffar de befintliga strategierna.
|
I REF studeras t.ex. avvägningen mellan genomströmning, stabilitet och paketförlust, och en överföringspolitik föreslås för att maximera genomströmningen med förbehåll för stabilitets- och paketförlustbegränsningar.
| 2,238,263 |
Wireless multicast: theory and approaches
|
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science']}
| 14,972 |
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
|
DCN har en liknande tanke med Region Proposition Network REF eftersom de båda tillämpar en normal konvolution på inmatningsfunktionen och utdata de nya mottagliga fälten för följande operationer med avseende på varje position i funktionskartor.
| 10,328,909 |
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
|
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 14,973 |
I denna uppsats undersöker vi ett problem med att förutsäga vilka bilder som sannolikt kommer att visas på webben vid en framtida tidpunkt, med tanke på ett frågeord och en databas över historiska bildströmmar som förstärker inlärningen av uppladdningsmönster för tidigare användarbilder och tillhörande metadata. Vi tar upp ett sådant problem med webbbildsprognoser på både kollektiv gruppnivå och individuell användarnivå. Vi utvecklar en prediktiv ram baserad på den multivariata punktprocessen, som använder en stokastisk parametrisk modell för att lösa förhållandet mellan bildförekomsten och de kovariater som påverkar den, på ett flexibelt, skalbart och globalt optimalt sätt. Med hjälp av Flickr-datauppsättningar på mer än tio miljoner bilder på 40 ämnen visar våra empiriska resultat att den föreslagna algoritmen är mer framgångsrik när det gäller att förutsäga osedda webbbilder än andra kandidatmetoder, inklusive endast prognostisering av semantiska betydelser, en PageRank-baserad bildsökning, och en generativ författare-tid ämnesmodell.
|
Kim och Al. REF använde mer än tio miljoner Flickr bilder för semantisk förståelse och ämnesmodellering.
| 88,832 |
Web image prediction using multivariate point processes
|
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,974 |
Förbättra användarnas erfarenhetskvalitet (QoE) är avgörande för att upprätthålla annons- och abonnemangsbaserade intäktsmodeller som möjliggör tillväxten av Internetvideo. Trots den rika litteraturen om video- och QoE-mätning är vår förståelse av Internetvideo QoE begränsad på grund av övergången från traditionella metoder för att mäta videokvalitet (t.ex. Peak Signal-to-Noise Ratio) och användarupplevelse (t.ex. åsiktspoäng). Dessa har ersatts av nya kvalitetsmått (t.ex. buffringshastighet, bitrate) och nya engagemang-centrerade mått på användarupplevelse (t.ex. visningstid och antal besök). Målet med denna uppsats är att utveckla en prediktiv modell av Internet video QoE. I detta syfte identifierar vi två centrala krav för QoE-modellen: (1) den måste knytas till observerbara användarengagemang och (2) den bör kunna styra praktiska beslut om systemdesign. Att uppnå detta mål är utmanande eftersom kvalitetsmåtten är beroende av varandra, de har komplexa och kontraintuitiva relationer till engagemangsåtgärder, och det finns många externa faktorer som förbryllar förhållandet mellan kvalitet och engagemang (t.ex. typ av video, användaranslutning). För att ta itu med dessa utmaningar presenterar vi en datadriven metod för att modellera de metriska ömsesidiga beroendena och deras komplexa relationer till engagemang, och föreslår en systematisk ram för att identifiera och redovisa de förvirrande faktorerna. Vi visar att en leveransinfrastruktur som använder vår föreslagna modell för att välja CDN och bitrates kan uppnå mer än 20% förbättring i det totala användarengagemanget jämfört med halmman tillvägagångssätt.
|
Bitrat val: Välja hög och hållbar bitrate är avgörande för videokvalitet erfarenhet REF.
| 8,161,676 |
Developing a predictive model of quality of experience for internet video
|
{'venue': "SIGCOMM '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,975 |
Chongqing mountain citrus fruktträdgård är en av de viktigaste ursprungen för kinesiska citrus. Dess planteringsterräng är komplex och jordföräldersmaterialet är varierat. För närvarande har citrusbefruktningen, bevattningen och andra hanteringsprocesser fortfarande stor blindhet. De använder vanligtvis samma mönster och samma formel i stället för att ta hänsyn till fruktträdgårdens terrängdrag, jordskillnader, artegenskaper och trädens tillväxttillstånd. Med hjälp av ZigBee-tekniken, artificiell intelligens och beslutsstödteknik har denna uppsats utvecklat forskningen om tillämpningstekniken för jordbruk Internet of Things för realtidsövervakning av citrusjordens fukt och näringsämnen samt forskningen om integrering av gödslings- och bevattningsstödsystem. Vissa resultat erhölls inklusive enpunkts multi-lager citrus jord temperatur och fukt detektion trådlösa sensorn noder och citrus precision gödsling och bevattning förvaltning beslutsstöd system. De applicerades i citrusbas i Tre Gorges Reservoir Area. Resultaten visade att systemet kunde hjälpa odlaren att vetenskapligt befrukta eller bevattna, förbättra precisionen driftsnivån för citrusproduktion, minska arbetskostnaden och minska föroreningarna som orsakas av kemiska gödningsmedel.
|
Med hjälp av IEEE 802.15.4, som är en svit av kommunikationsteknik på hög nivå, artificiell intelligens och beslutsstödteknik, har författarna till REF utvecklat forskning om jordbruk tillämpning av IoT-teknik för att övervaka realtid fukt och näringsämnen av citrus, tillsammans med en analys av kombinationen av gödselstödsystem och bevattning.
| 5,794,888 |
Monitoring Citrus Soil Moisture and Nutrients Using an IoT Based System
|
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
| 14,976 |
Vi studerar personliga objekt rekommendationer i ett företag sociala medier ansökan svit som inkluderar bloggar, bokmärken, samhällen, wikis, och delade filer. Rekommendationer är baserade på två av de centrala elementen i sociala medier - människor och taggar. Relationsinformation mellan personer, taggar och poster samlas in och aggregeras mellan olika källor inom företaget. Baserat på dessa aggregerade relationer, rekommenderar systemet objekt relaterade till människor och taggar som är relaterade till användaren. Varje rekommenderat objekt åtföljs av en förklaring som inkluderar de personer och taggar som ledde till dess rekommendation, samt deras relationer med användaren och objektet. Vi utvärderade vårt rekommenderade system genom en omfattande användarstudie. Resultaten visar ett betydligt bättre intresseförhållande för den taggbaserade recommenderen än för den folkbaserade recommenderen, och en ännu bättre prestanda för en kombinerad recommender. Taggar som tillämpas på användaren av andra människor anses vara mycket effektiva när det gäller att representera användarens ämnen av intresse.
|
REF föreslog personliga objekt rekommendationer inom ett företag sociala medier program, som samlas och aggregeras mellan olika datakällor, inklusive bloggar, bokmärken, samhällen, Wikis, och delade filer.
| 507,320 |
Social media recommendation based on people and tags
|
{'venue': "SIGIR '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,977 |
Abstrakt. WeN anser en öppen och nyckellös kod (Enc, Dec) som används för att koda ett meddelande m och härleda ett kodord c = Enc(m). Kodordet kan motsträvigt manipuleras via en funktion f på F från någon "tamperande funktionsfamilj" F, vilket resulterar i ett manipulerat värde c = f (c). Vi studerar de olika typer av säkerhetsgarantier som kan uppnås i detta scenario för olika familjer F av manipulering attacker. För det första inleder vi den allmänna studien av manipuleringskoder, som måste upptäcka att manipulering ägde rum och utgång Dec(c ) = på. Vi visar att sådana koder finns för varje familj av funktioner F över n bit codewords, så länge som till F < 2 2 n är tillräckligt mindre än uppsättningen av alla möjliga funktioner, och funktionerna f på F ytterligare begränsas på två sätt: (1) de kan bara ha några fasta punkter x sådan att f (x) = x, (2) de måste ha hög entropy av f (x) över en slumpmässig x. Sådana koder kan också göras effektiva när påf = 2 poly(n). Därefter ser vi över icke-aducerbara koder, som infördes av Dziembowski, Pietrzak och Wichs (ICS '10) och kräver att Dec(c ) antingen avkodar till det ursprungliga meddelandet m, eller till något orelaterat värde (eventuellt) som inte ger någon information om m. Vi ger en modulär konstruktion av icke-aducerbara koder genom att kombinera manipuleringskoder och läckage-resilient koder. Den resulterande konstruktionen matchar Faust et al. (EUROCRYPT '14) men har ett mer modulärt bevis och förbättrade parametrar. Slutligen inleder vi den allmänna studien av kontinuerliga icke-aducerbara koder, som ger en icke-aducerbar garanti mot en angripare som kan manipulera ett kodord flera gånger. Vi definierar flera varianter av problemet beroende på: (I) om manipulering är ihållande och varje på varandra följande attack ändrar kodordet som har ändrats av tidigare attacker, eller om manipulering inte är ihållande och alltid tillämpas på det ursprungliga kodordet, (II) om vi kan "självförstöra" och stoppa experimentet om ett manipulerat kodord någonsin upptäcks vara ogiltigt eller om angriparen alltid kan manipulera mer. I fallet med ihållande manipulering och självförstörelse (svagaste fallet), får vi ett brett existensresultat, som i huvudsak motsvarar vad som är känt för standard icke-aducerbara koder. Vid ihållande manipulering och ingen självförstörelse (starkast fall) måste vi ytterligare begränsa manipuleringsfunktionerna till att ha få fasta punkter och hög entropi. De två mellanliggande ärendena innebär att det endast krävs en av de två ovannämnda begränsningarna.
|
Jafargholi och Wichs REF ansåg att samma säkerhetsnivå var oöverträffad och visade att kontinuerliga icke-aducerbara koder är möjliga om manipuleringsfunktionerna är polynom eller har få fasta punkter och hög entropi (t.ex. HOE&IOCR-funktionernas egenskaper).
| 1,165,875 |
Tamper Detection and Continuous Non-malleable Codes
|
{'venue': 'TCC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,978 |
Trots de påstådda positiva miljökonsekvenserna av elektrifieringen av fordonsparken för lätta fordon är antalet elfordon som används fortfarande obetydligt. Ett skäl till de blygsamma antagandesiffrorna är att den stora acceptansen av elfordon i stor utsträckning beror på konsumenternas uppfattning om elfordon. I detta dokument presenteras en omfattande översikt över drivkrafterna för och hindren mot konsumenternas införande av plug-in EVs, samt en översikt över de teoretiska perspektiv som har använts för att förstå konsumenternas avsikter och adoptionsbeteende gentemot EVs. Dessutom identifierar vi luckor och begränsningar i befintlig forskning och föreslår områden där framtida forskning skulle kunna bidra.
|
Rezvani, Jansson och Bodin REF granskar konsument-PEV adoptionsstudier som ger en heltäckande översikt över drivkrafter och hinder mot konsumentantagande av plug-in PEVs.
| 110,135,666 |
Advances in consumer electric vehicle adoption research: A review and research agenda
|
{'venue': None, 'journal': 'Transportation Research Part D-transport and Environment', 'mag_field_of_study': ['Psychology']}
| 14,979 |
Abstract-I detta arbete, det stokastiska trafikteknik problem i multihop kognitiva trådlösa mesh nätverk tas upp. De utmaningar som orsakas av slumpmässiga beteenden av de primära användarna undersöks i en stochastic nätverk verktyg maximization ram. För det konvexa stokastiska trafiktekniska problemet föreslår vi en fullt distribuerad algoritmisk lösning som med sannolikhet konvergerar till det globala optimala. Därefter utökar vi vårt ramverk till de kognitiva trådlösa mesh-nätverken med icke konvexa allmännyttiga funktioner, där en decentraliserad algoritmisk lösning, baserad på inlärningsteknik, föreslås. Vi visar att den decentraliserade lösningen konvergerar till den globala optimala lösningen asymptotiskt.
|
Yang Song et al REF tar itu med det stokastiska trafiktekniska problemet i kognitiva nätverk med trådlösa nätverk med flera hoppas.
| 18,954,435 |
Stochastic Traffic Engineering in Multihop Cognitive Wireless Mesh Networks
|
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
| 14,980 |
Vi föreslår en modell för kinesisk diktgeneration baserad på återkommande neurala nätverk som vi hävdar är idealisk för att fånga poetiskt innehåll och form. Vår generator utför gemensamt innehållsval ("vad att säga") och ytligt förverkligande ("hur man säger") genom att lära sig representationer av enskilda karaktärer, och deras kombinationer i en eller flera rader samt hur dessa ömsesidigt förstärker och begränsar varandra. Poem linjer genereras stegvis genom att ta hänsyn till hela historien om vad som har genererats hittills snarare än den begränsade horisont som införts av den föregående linjen eller lexical n-grams. Experimentella resultat visar att vår modell överträffar konkurrenskraftiga kinesiska poesigenerationssystem med hjälp av både automatiska och manuella utvärderingsmetoder.
|
REF presenterar först en modell för kinesisk poesigeneration baserad på återkommande neurala nätverk.
| 12,964,363 |
Chinese Poetry Generation with Recurrent Neural Networks
|
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,981 |
Caching populära innehåll vid basstationer (BS) i ett heterogent cellulärt nätverk (HCN) undviker frekventa informationspassage från innehållsleverantörer till nätkanten, vilket minskar latensen och lindrar trafikstockningar i backhaul länkar. Möjligheten att cacha vid nätverkskanten för att ta itu med 5G-utmaningar har motiverat nyligen gjorda studier om optimal innehållsplacering i storskaliga HCN:er. På grund av nätverkets komplexa prestandaanalys baserades dock de befintliga strategierna till största delen på approximation, heuristik och intuition. I allmänhet är optimala strategier för innehållsplacering i HCN fortfarande i stort sett okända och härled dem är temat för detta dokument. I detta syfte antar vi den populära slumpmässiga HCN-modellen, där K-skikt av BS modelleras som oberoende Poisson-punktprocesser fördelade i planet med olika densiteter. Dessutom beaktas det slumpmässiga cachesystemet, där var och en av en viss uppsättning M-filer med motsvarande popularitetsåtgärder placeras vid varje BS för en viss nivå med motsvarande sannolikhet, kallad placeringsannolikhet. Sannolikheterna är identiska för alla BS i samma nivå men varierar över nivåer, vilket ger namnet nivånivå innehåll placering. Vi anser att nätverksprestanda metrisk, träff sannolikhet, definieras som sannolikheten att en fil som begärs av den typiska användaren levereras framgångsrikt till användaren. Genom att utnyttja befintliga resultat på HCN-prestanda maximerar vi träffsannolikheten för sannolikheter för placering av innehåll, vilket ger den optimala placeringspolicyn på nivånivå. När det gäller enhetliga tröskelvärden för signal-till-interferens (SIR) för framgångsrika sändningar för BS i olika nivåer, är policyn i sluten form, där placeringsannolikheten för en viss fil är proportionell mot kvadratroten för motsvarande popularitetsmått med en offset beroende på BS-cachekapacitet. För det allmänna fallet med icke-uniforma SIR-trösklar är optimeringsproblemet icke-konvext och en suboptimal placeringspolicy är utformad genom approximation, som har en liknande struktur som i fallet med enhetliga SIR-trösklar och som genom simulering visas vara nära-tooptimal. Index Terms-Cache-aktiverade trådlösa nätverk, heterogena cellulära nätverk, innehåll leverans, stokastisk geometri. Manuskript
|
Nivå-nivå innehåll placering undersöks i REF för att maximera träff sannolikheten för en multi-tier HetNet.
| 6,510,813 |
Cache-Enabled Heterogeneous Cellular Networks: Optimal Tier-Level Content Placement
|
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,982 |
Vägnätet är en av de viktigaste typerna av information om rasterkartor. I synnerhet utgör uppsättningen vägkorsningsmallar, som består av vägkorsningslägen, vägkopplingar och vägorienteringar, en abstraktion av vägnätet och är mer exakt och lättare att utvinna än utvinningen av hela vägnätet. För att extrahera vägkorsningsmallar från rasterkartor används gallringsoperatören ofta för att hitta väglinjernas grundläggande struktur (dvs. för att utvinna linjernas skelett). Av gallringsoperatören producerar dock förvrängda linjer nära linjekorsningar, särskilt vid de T-formade korsningarna. Den utdragna positionen för vägkorsningen och vägriktningen är därför inte korrekt. I detta papper använder vi vårt tidigare arbete på att automatiskt utvinna vägkorsningar positioner för att identifiera de väglinjer som skär korsningarna och sedan spåra vägriktningar och förfina positionerna för vägkorsningar. Vi jämför det föreslagna tillvägagångssättet med användningen av gallringsoperatören och visar att vårt föreslagna tillvägagångssätt utvinner mer exakta vägkorsningspositioner och vägorienteringar än det tidigare tillvägagångssättet.
|
Yao och Al. I Ref föreslogs en metod som spårar vägriktningar och korsningar för att förfina positionerna för vägkorsningar från rasterkartor.
| 7,192,123 |
Automatic extraction of road intersection position, connectivity, and orientations from raster maps
|
{'venue': "GIS '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,983 |
Kvantiserade djupa neurala nätverk (QDNN) är attraktiva på grund av deras mycket lägre minneslagring och snabbare inference hastighet än deras regelbundna full precision motsvarigheter. För att upprätthålla samma prestandanivå, särskilt vid låg bitbredd, måste QDNN omskolas. Deras träning innebär bitvis konstant aktiveringsfunktioner och diskreta vikter, varför matematiska utmaningar uppstår. Vi introducerar begreppet grov lutning och föreslår den blandade grov lutning nedstigning (BCGD) algoritm, för utbildning fullt kvantiserade neurala nätverk. Grov lutning är i allmänhet inte en lutning av någon funktion utan en konstgjord uppstigning riktning. Viktuppdateringen av BCGD sker genom grov gradientkorrigering av ett vägt medelvärde av de fulla precisionsvikterna och deras kvantisering (den så kallade blandningen), vilket ger tillräcklig nedstigning i det objektiva värdet och därmed påskyndar träningen. Våra experiment visar att denna enkla blandningsteknik är mycket effektiv för kvantisering vid extremt låg bit-bredd såsom binarization. I full kvantisering av ResNet-18 för ImageNet klassificering uppgift, BCGD ger 64,36% topp-1 noggrannhet med binära vikter över alla lager och 4-bitars adaptiv aktivering. Om vikterna i de första och sista skikten hålls i full precision, ökar detta antal till 65,46 %. Som teoretisk motivering visar vi konvergensanalys av grov lutning nedstigning för en tvålagers neural nätverksmodell med Gaussian ingångsdata, och visar att den förväntade grova lutningen korrelerar positivt med den underliggande sanna lutningen. Nyckelord vikt/aktivering kvantisering · blandad grov lutning nedstigning · tillräcklig nedstigning egenskap · djupa neurala nätverk Matematik Ämnesklassificering (2010) 90C35, 90C26, 90C52, 90C90.
|
Även en blandad grov lutning nedstigning metod REF introduceras för att träna helt kvantifierade DNNs i vikter och aktiveringsfunktioner, och övervinna försvinnande gradienter.
| 52,015,115 |
Blended Coarse Gradient Descent for Full Quantization of Deep Neural Networks
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,984 |
Optisk koherenstomografi (OCT) är en icke-invasiv avbildning modalitet som har börjat hitta utbredd användning i näthinneavbildning för att upptäcka en mängd olika okulära sjukdomar. Förutom strukturella förändringar i form av förändrade näthinneskikt tjocklekar, patologiska förhållanden kan också orsaka bildandet av ödem i näthinnan. Vid multipel skleros, till exempel, nervfiber och ganglion cell lager är kända för att tunna. Dessutom har bildandet av pseudocystor som kallas mikrocystiskt makulaödem (MME) också observerats i ögonen på cirka 5% av MS-patienter, och dess närvaro har visat sig vara korrelerad med sjukdomens svårighetsgrad. Tidigare föreslog vi separata algoritmer för segmentering av näthinnelager och MME, men eftersom MME huvudsakligen förekommer inom specifika regioner i näthinnan, är en samtidig strategi fördel. I detta arbete föreslår vi en automatiserad global optimal grafteoretisk metod som samtidigt segmenterar näthinnans lager och MME i volymetriska OCT-skanningar. SD-OCT skannar från ett öga av 12 MS-patienter med känd MME och 8 friska kontroller förvärvades och pseudocystorna spåras manuellt. Den totala precisionen och återkallandet av pseudocystdetektionen konstaterades vara 86,0 % respektive 79,5 %.
|
I REF Antony m.fl. föreslog en automatiserad global optimal grafteoretisk metod, som samtidigt utför segmentering av näthinneskikt och mikrocystiskt makulaödem (MME) från volymetriska OCT-bilder.
| 11,351,226 |
Simultaneous segmentation of retinal surfaces and microcystic macular edema in SDOCT volumes
|
{'venue': 'SPIE Medical Imaging', 'journal': None, 'mag_field_of_study': ['Medicine', 'Engineering', 'Physics', 'Computer Science']}
| 14,985 |
Både konvolutionella och återkommande operationer är byggstenar som bearbetar ett område i taget. I detta dokument presenterar vi icke-lokal verksamhet som en generisk familj av byggstenar för att fånga långdistansberoenden. Inspirerad av den klassiska icke-lokala metoden [4] i datorseende, beräknar vår icke-lokala operation svaret på en position som en viktad summa av funktioner på alla positioner. Detta byggnadsblock kan anslutas till många datorseende arkitekturer. När det gäller videoklassificering, även utan klockor och visselpipor, kan våra icke-lokala modeller konkurrera eller överträffa nuvarande tävlingsvinnare på både Kinetics och Charades datauppsättningar. I statisk bildigenkänning förbättrar våra icke-lokala modeller objektdetektering/segmentering och ger en uppskattning i COCO-sviten av uppgifter. Kod kommer att göras tillgänglig.
|
Icke-lokal REF-operation beräknar responsen vid varje position som viktad summa av funktionerna vid alla positioner, vilket kan göra det möjligt att fånga långdistansberoenden.
| 4,852,647 |
Non-local Neural Networks
|
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
| 14,986 |
I detta dokument introduceras begreppet "Certificateless public key cryptography" (CL-PKC). I motsats till traditionella krypteringssystem med öppen nyckel kräver CL-PKC inte att certifikat används för att garantera äktheten hos allmänna nycklar. Den förlitar sig på användningen av en betrodd tredje part (TTP) som är i besittning av en huvudnyckel. I dessa avseenden liknar CL-PKC identitetsbaserad kryptering med öppen nyckel (ID-PKC). Å andra sidan, CL-PKC lider inte av nyckeln spärr egendom som verkar vara inneboende i ID-PKC. Således kan CL-PKC ses som en modell för användning av öppen nyckel kryptografi som är mellanliggande mellan traditionellt certifierade PKC och ID-PKC. Vi gör konkret konceptet CL-PKC genom att införa certifikatlös kryptering med öppen nyckel (CL-PKE), signatur och system för nyckelutbyte. Vi visar också hur hierarkisk CL-PKC kan stödjas. Systemen är alla härledda från parningar på elliptiska kurvor. Bristen på certifikat och viljan att bevisa att systemen är säkra i närvaro av en motståndare som har tillgång till huvudnyckeln kräver en noggrann utveckling av nya säkerhetsmodeller. Av korta skäl är tyngdpunkten i detta dokument CL-PKE:s säkerhet. Vi bevisar att vårt CL-PKE-system är säkert i en fullt adaptiv adversarial modell, förutsatt att ett underliggande problem som är nära relaterat till Bilinear Diffie-Hellman-problemet är svårt.
|
Följaktligen införs konceptet "Certificateless public key cryptography" (CL-PKC) (REF).
| 11,117,832 |
Certificateless Public Key Cryptography
|
{'venue': "ASIACRYPT'03", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,987 |
ABSTRACT Person re-identification (re-ID) har ökat i popularitet i forskarsamhället på grund av dess många tillämpningar och växande betydelse i övervakningsindustrin. Nya metoder använder ofta partiella funktioner för person om-ID och erbjuder finkornig information som är till nytta för personhämtning. I det här dokumentet fokuserar vi på att lära oss förbättrade partiella diskriminativa funktioner med hjälp av en djup konvolutionell neural arkitektur, som innehåller en pyramid spatial pooling modul för effektiv personfunktion representation. Dessutom föreslår vi ett multi-task convolutional nätverk som lär sig både personliga attribut och identiteter i en end-to-end ram. Vår strategi innehåller partiella funktioner och globala funktioner för identitet och attribut förutsägelse, respektive. Experiment på flera storskaliga person re-ID-riktmärke data uppsättningar visar exaktheten i vår strategi. Till exempel rapporterar vi rank-1 noggrannheter på 85,37 % (+3,47 %) och 92,81 % (+0,51 %) på datauppsättningarna DukeMTMC re-ID respektive Market-1501. Den föreslagna metoden visar på uppmuntrande förbättringar jämfört med de senaste metoderna. INDEX TERMS Attribut erkännande, konvolutionella neurala nätverk (CNN), djupt lärande, person omidentifiering.
|
En pyramid spatial pooling modul för effektiv person funktion representation används för att lära sig partiella diskriminerande funktioner med hjälp av en djup CNN i REF.
| 53,287,847 |
Deep Multi-Task Network for Learning Person Identity and Attributes
|
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
| 14,988 |
För att stödja dynamiska intressegemenskaper i koalitionsverksamhet krävs nya arkitekturer för effektiv delning av ISR-tillgångar. Användningen av blockchain-teknik i trådbundna affärsmiljöer, såsom digitala valutasystem, erbjuder en intressant lösning genom att skapa ett sätt att underhålla en distribuerad delad liggare utan att kräva en enda betrodd myndighet. I detta dokument diskuterar vi hur ett blockkedjebaserat system kan ändras för att ge en lösning för dynamisk tillgångsdelning mellan koalitionsmedlemmar, vilket gör det möjligt att skapa ett logiskt centraliserat kapitalförvaltningssystem genom en sömlös politisk förening av olika koalitionssystem. Vi diskuterar användningen av blockchain för tre olika typer av tillgångar i en koalition sammanhang, visar hur blockchain kan erbjuda en lämplig lösning för att dela tillgångar i dessa miljöer. Vi diskuterar också begränsningarna i det nuvarande genomförandet av blockkedjan som måste övervinnas för att tekniken ska bli mer effektiv i en decentraliserad taktisk kantmiljö.
|
I dokumentet Ref övervägs användningen av blockkedjeteknik för att skapa ett logiskt centraliserat system för att hantera fördelningen av uppgifter mellan koalitionsmedlemmar.
| 15,278,033 |
A block chain based architecture for asset management in coalition operations
|
{'venue': 'Defense + Security', 'journal': None, 'mag_field_of_study': ['Engineering', 'Physics']}
| 14,989 |
Skyddet av användarnas integritet är ett viktigt problem när det gäller maskininlärning, vilket framgår av införandet av den allmänna dataskyddsförordningen (GDPR) i Europeiska unionen (EU) i maj 2018. GDPR är utformad för att ge användarna mer kontroll över sina personuppgifter, vilket motiverar oss att utforska ramverk för maskininlärning med datadelning utan att kränka användarnas integritet. För att uppnå detta mål föreslår vi i detta dokument en ny förlustfri integritetsbevarande trädboostningssystem som kallas SecureBoost i samband med federerad inlärning. Detta federerade inlärningssystem gör det möjligt att gemensamt genomföra en inlärningsprocess över flera parter med delvis gemensamma användarprover men olika funktionsuppsättningar, vilket motsvarar en vertikalt partitionerad virtuell datauppsättning. En fördel med SecureBoost är att den ger samma noggrannhet som den icke-integritetsbevarande metoden samtidigt som den inte avslöjar någon information från varje privat dataleverantör. Vi teoretiskt bevisar att SecureBoost ramverket är lika exakt som andra icke-federerade gradient träd-boosting algoritmer som för data till ett ställe. Dessutom diskuterar vi, tillsammans med ett säkerhetsbevis, vad som skulle krävas för att göra protokollen helt säkra.
|
Under 2019 föreslår REF en ny förlustfri integritetsbevarande trädboostningssystem som kallas SecureBoost i samband med federerad inlärning.
| 59,292,020 |
SecureBoost: A Lossless Federated Learning Framework
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,990 |
Den nyligen utvecklade WaveNet arkitektur [27] är den nuvarande tekniken i realistisk talsyntes, konsekvent rankas som mer naturligt klingande för många olika språk än något tidigare system. Men eftersom WaveNet bygger på sekventiell generering av ett ljudprov i taget, är den dåligt lämpad för dagens massiva parallella datorer, och därför svårt att distribuera i en realtid produktionsmiljö. Denna uppsats introducerar Probability Density Destillation, en ny metod för att träna ett parallellt feed-forward nätverk från en utbildad WaveNet utan någon betydande skillnad i kvalitet. Det resulterande systemet kan generera högfidelitet talprover på mer än 20 gånger snabbare än realtid, och distribueras online av Google Assistant, inklusive servering flera engelska och japanska röster.
|
En relaterad studie om realistisk talsyntes är den parallella WaveNet REF.
| 27,706,557 |
Parallel WaveNet: Fast High-Fidelity Speech Synthesis
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,991 |
Kommunikationssystem mellan fordon är beroende av multihopsändningar för att sprida information till platser utanför de enskilda nodernas överföringsområde. Det är särskilt svårt att sprida meddelanden i tätorter med höga byggnader på grund av problemet med siktlinjen. I detta dokument föreslår vi en ny effektiv IEEE 802.11 baserad multi-hop sändning protokoll (UMB) som är utformad för att ta itu med den utsändning storm, dolda nod, och tillförlitlighet problem multi-hop sändningar i stadsområden. Detta protokoll tilldelar skyldigheten att vidarebefordra och erkänna sändningspaket till endast ett fordon genom att dela upp vägdelen inom överföringsområdet i segment och välja fordonet inom det yttersta icke-tomma segmentet utan topologisk information. När det finns en skärningspunkt i meddelandespridningens sökväg initieras nya riktningssändningar av repeaters som befinner sig vid skärningspunkterna. Vi har genom simuleringar visat att vårt protokoll har en mycket hög framgångsgrad och effektiv kanalanvändning jämfört med andra översvämningsbaserade protokoll.
|
Det urbana multi-hop-protokollet REF är utformat för att lösa radio- och tv-stormen och tillförlitligheten i multi-hop-sändningar.
| 6,808,691 |
Urban multi-hop broadcast protocol for inter-vehicle communication systems
|
{'venue': "VANET '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,992 |
Semantiskt komplexa frågor som inkluderar attribut för objekt och relationer mellan objekt utgör fortfarande en stor utmaning för bildsökningssystem. Det senaste arbetet i datorseendet har visat att en grafbaserad semantisk representation som kallas scengraf är en effektiv representation för mycket detaljerade bildbeskrivningar och för komplexa frågor för hämtning. I den här artikeln visar vi att scengrafer kan skapas automatiskt från en beskrivning av ett naturligt språk. Vi presenterar en regelbaserad och en klassificeringsbaserad scendiagramtolk vars utgång kan användas för bildsökning. Vi visar att inkludera relationer och attribut i frågegrafen överträffar en modell som bara tar hänsyn till objekt och att använda utdata från våra tolker är nästan lika effektivt som att använda mänskliga-konstruerade scengrafer (Recall@10 av 27,1% jämfört med 33,4%). Dessutom visar vi den allmänna nyttan av tolkning till scen grafer genom att visa att utdata också kan användas för att generera 3D-scener.
|
Referensreferensreferensen föreslog en regel- och klassificeringsbaserad scendiagramtolk för bildsökning.
| 13,937,253 |
Generating Semantically Precise Scene Graphs from Textual Descriptions for Improved Image Retrieval
|
{'venue': 'VL@EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,993 |
Jämfört med ansiktsrörelseigenkänning på kategorisk modell kan den dimensionella känsloigenkänningen beskriva många känslor i den verkliga världen mer exakt. De flesta tidigare verk med uppskattning av dimensionella känslor beaktade endast laboratoriedata och använda video-, tal- eller andra multimodala funktioner. Effekten av dessa metoder som tillämpas på statiska bilder i den verkliga världen är okänd. I detta dokument föreslås två nivåers uppmärksamhet med tvåstegs flerstegslärande (2Att-2Mt) ram för bedömning av ansiktskänslor på endast statiska bilder. För det första utvinns och förstärks särdragen i motsvarande region(positionsnivåns egenskaper) automatiskt med hjälp av en mekanism för uppmärksamhet på första nivån. I följande, Vi använder Bi-directive Recurrent Neural Network(Bi-RNN) med självuppmärksamhet (andra nivån uppmärksamhet) för att fullt ut utnyttja relationsfunktionerna i olika lager (lager-nivå funktioner) adaptivt. På grund av den inneboende komplexiteten i erkännandet av dimensionella känslor föreslår vi en flerstegsstruktur för lärande i två steg för att utnyttja kategoriska representationer för att förbättra dimensionsrepresentationerna och uppskatta valence och upphetsning samtidigt med tanke på korrelationen mellan de två målen. De kvantitativa resultat som genomförts på AffectNet dataset visar betydande framsteg på Concordance Correlation Coefficient(CCC) och Root Mean Square Error (RMSE), som illustrerar överlägsenheten av den föreslagna ramen. Dessutom har omfattande jämförande experiment också visat på effektiviteten hos olika komponenter.
|
Wang m.fl. REF föreslog två nivåer uppmärksamhet med två steg multi-task (2Att-2Mt) ram som utför övertygande resultat på AffectNet databas.
| 54,014,781 |
Two-level Attention with Two-stage Multi-task Learning for Facial Emotion Recognition
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,994 |
Egendomsbaserad slumpmässig testning (PBRT) används i stor utsträckning i de funktionella programmerings- och verifieringsgrupperna. För att testa enkla egenskaper kan PBRT-verktyg som QuickCheck automatiskt generera slumpmässiga ingångar av en viss typ. Men för mer komplexa egenskaper, kräver effektiv testning ofta generatorer för slumpmässiga ingångar som tillhör en viss typ och uppfyller vissa logiska villkor. QuickCheck ger ett bibliotek av kombinatorer för att bygga sådana generatorer för hand, men detta kan vara tråkiga för enkla villkor och fel benägna för mer komplexa. Lyckligtvis kan processen ofta automatiseras. Den mest framträdande metoden, förträngning, fungerar genom att traversera strukturen av tillståndet, lazily ögonblickliga delar av datastrukturen som begränsningar som involverar dem uppfylls. Vi visar hur man använder idéer från förträngning för att sammanställa en stor underklass av Coqs induktiva relationer till effektiva generatorer, undvika tolkning av tidigare implementationer. Ännu viktigare är att samma kompileringsteknik gör det möjligt för oss att producera bevisbegrepp som intygar att varje härledd generator är bra — d.v.s. ljud och komplett med avseende på det induktiva förhållande den härleddes från. Vi implementerar vår algoritm som en förlängning av QuickChick, ett befintligt verktyg för fastighetsbaserade tester i Coq. Vi utvärderar vår metod genom att automatiskt härleda bra generatorer för majoriteten av specifikationerna i Software Foundations, en formaliserad lärobok om programmering språk stiftelser.
|
Nyligen, Lampropoulos et al. föreslå ett ramverk för att automatiskt härleda slumpmässiga generatorer för en stor underklass av Coqs induktivt definierade relationer REF.
| 24,916,657 |
Generating good generators for inductive relations
|
{'venue': 'PACMPL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,995 |
I ett tidigare verk [Abdulla et al. (2000, Information and Computation, 160, 109-127) Vi lade fram en allmän ram för verifiering av gränslösa övergångssystem, där övergångsförhållandet är monotont med avseende på en väl kvasiordning på uppsättningen stater. I den här artikeln undersöker vi att utvidga ramen från sammanhang av övergångssystem till spel med oändliga tillstånd utrymmen. Vi visar att monotona spel med säkra vinnande villkor i allmänhet är obeslutbara. I synnerhet visar vi detta negativa resultat för spel som definieras över Petri nät. Vi identifierar en subklass av monotona spel, som kallas nedåt slutna spel. Vi tillhandahåller algoritmer för att analysera nedstängda spel under säkra vinstvillkor. Vi tillämpar algoritmen på spel som spelas på förlustkanalsystem. Slutligen visar vi att svaga paritetsspel är obeslutbara för ovan nämnda klasser av spel.
|
En allmän ram för spel över oändliga-state system med en väl-quasi beställning införs i REF och begränsningen av nedstängning införs för att få decidability.
| 17,639,626 |
Monotonic and downward closed games
|
{'venue': 'Journal of Logic and Computation', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,996 |
Bristen på förutsägbarhet för citeringsbaserade åtgärder som ofta används för att mäta påverkan, från konsekvensanalyser till kortsiktiga citeringar, väcker en grundläggande fråga: Finns det långsiktig förutsägbarhet i citeringsmönstren? Här tar vi fram en mekanistisk modell för citeringsdynamiken i enskilda tidningar, vilket gör att vi kan kollapsa citeringshistorierna av papper från olika tidskrifter och discipliner till en enda kurva, vilket tyder på att alla papper tenderar att följa samma universella temporalmönster. De observerade mönstren hjälper oss inte bara att upptäcka grundläggande mekanismer som styr vetenskapliga effekter, utan erbjuder också tillförlitliga åtgärder för inflytande som kan få potentiella politiska konsekvenser.
|
Wang m.fl. REF hitta den universella temporal mönster av citering dynamik, och använda den för att förutsäga effekten av enskilda papper.
| 803,694 |
Quantifying Long-Term Scientific Impact
|
{'venue': 'Science 4 October 2013: Vol. 342 no. 6154 pp. 127-132', 'journal': None, 'mag_field_of_study': ['Medicine', 'Economics', 'Computer Science', 'Physics']}
| 14,997 |
Detta dokument tar upp problemet med att extrahera korrekta etiketter från crowdsourced dataset, en viktig utmaning i crowdsourcing. Tidigare arbete har fokuserat på att modellera enskilda arbetstagares tillförlitlighet, till exempel genom förvirringsmatriser, och använda dessa latenta egenskaper för att uppskatta de sanna etiketterna mer exakt. Denna strategi blir emellertid ineffektiv när det finns för få etiketter per arbetstagare för att på ett tillförlitligt sätt kunna uppskatta deras kvalitet. För att mildra denna fråga föreslår vi en ny gemenskapsbaserad Bayesiansk modell för aggregation av etiketter, CommunityBCC, som förutsätter att crowdarbetare överensstämmer med några olika typer, där varje typ representerar en grupp arbetstagare med liknande förvirringsmatriser. Vi antar att varje arbetare tillhör en viss gemenskap, där arbetarens förvirringsmatris liknar (en perturbation av) samhällets förvirringsmatris. Vår modell kan sedan lära sig en uppsättning av viktiga latenta funktioner: (i) förvirringsmatrisen i varje gemenskap, (ii) gemenskap medlemskap för varje användare, och (iii) den aggregerade etiketten för varje objekt. Vi jämför vår modells prestanda med etablerade aggregeringsmetoder på ett antal storskaliga, verkliga crowdsourcing-dataset. Våra experimentella resultat visar att vår CommunityBCC-modell konsekvent överträffar toppmoderna metoder för sammanläggning av etiketter, vilket i genomsnitt ger 8 % mer noggrannhet med samma mängd etiketter.
|
Venanzi m.fl. REF föreslår en gemenskapsbaserad modell för sammanläggning av etiketter för att identifiera olika typer av arbetstagare och korrigera deras etiketter på motsvarande sätt.
| 14,590,764 |
Community-based bayesian aggregation models for crowdsourcing
|
{'venue': 'WWW', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,998 |
Problemet med lokomotivplanering (eller problemet med lokomotivtilldelning) är att tilldela varje tåg en uppsättning (en uppsättning lokomotiv) i ett förplanerat tågschema för att ge dem tillräcklig kraft för att dra dem från ursprunget till destinationen. Lokooperativa planeringsproblem är bland de viktigaste problemen när det gäller tågplanering. I detta dokument rapporterar vi resultaten av en studie av det problem med tågplanering som CSX Transport, ett stort amerikanskt järnvägsbolag, står inför. Vi överväger planeringsversionen av loket schemaläggning modell (LSM), där det finns flera typer av lokomotiv och vi måste bestämma vilken uppsättning lokomotiv som ska tilldelas varje tåg. Vi presenterar en integrerad modell som bestämmer uppsättningen aktiva och dödhåriga lok för varje tåg, lätta resande lok från kraftkällor till kraftsänkor, och tåg-till-tåg anslutningar (ange vilka inkommande tåg och utgående tåg kan ansluta direkt). Ett viktigt inslag i vår modell är att vi uttryckligen anser att det handlar om missbruk och konsekvens. En sammansättning sägs vara trasig när den uppsättning lokomotiv som kommer på ett inkommande tåg bryts i undergrupper som ska omplaceras till två eller flera utgående tåg. En lösning sägs vara konsekvent över en vecka med avseende på ett tåg, om tåget får samma lokomotivuppdrag varje dag som det körs. Vi ger en blandad heltal programmering (MIP) formulering av problemet som innehåller cirka 197 tusen heltal variabler och 67 tusen begränsningar. Ett minimiimportpris av denna storlek kan inte lösas till optimalitet eller nära optimalitet i godtagbara drifttider med kommersiellt tillgänglig programvara. Med hjälp av problem sönderdelning, heltal programmering, och mycket storskalig kvarterssökning, utvecklade vi en lösningsteknik för att lösa detta problem inom 30 minuter av beräkningstid på en Pentium III dator. När vi jämförde vår lösning med den lösning som erhålls genom den inbyggda programvaran som utvecklats av CSX fick vi en besparing på över 400 lokomotiv, vilket innebär besparingar på över hundra miljoner dollar per år.
|
Papperet REF presentera en blandad heltal programmering formulering för ett lok schemaläggning problem.
| 14,177,161 |
Solving Real-Life Locomotive-Scheduling Problems
|
{'venue': 'Transportation Science', 'journal': 'Transportation Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 15,000 |
Abstract-This paper föreslår en kvalitetsbedömning utan referens för digital video som omfattas av H.264/avancerad videokodningskodning. Den föreslagna mätmetoden omfattar två huvudsteg: kodning av feluppskattning och perceptuell viktning av detta fel. Feluppskattningar beräknas i transformdomänen, förutsatt att diskret cosinustransform (DCT) koefficienter korrumperas genom kvantisering buller. DCT-koefficientfördelningarna modelleras med hjälp av Cauchy eller Laplace sannolikhetstäthetsfunktioner, vars parameterisering utförs med hjälp av kvantiserade koefficientdata och kvantiseringssteg. Parameteruppskattning baseras på en maxlikelihood-uppskattningsmetod kombinerad med linjär förutsägelse. Den linjära förutsägelseschemat drar nytta av korrelationen mellan parametervärden vid granne DCT rumsliga frekvenser. När det gäller den perceptuella viktningsmodulen är den baserad på en spatiotemporal kontrastkänslighetsfunktion som tillämpas på DCT-domänen som kompenserar bildplanets rörelse genom att beakta det mänskliga ögats rörelser, nämligen smidig jakt, naturlig drift och sakkadiska rörelser. Videorelaterade ingångar för den perceptuella modellen är rörelsevektorerna och bildhastigheten, som också extraheras från den kodade videon. Tester av subjektiv videokvalitet har utförts för att validera resultaten av mätningen. En uppsättning av 11 videosekvenser, som spänner över ett brett spektrum av innehåll, har kodats på olika bithastigheter och resultatet var föremål för kvalitetsbedömning. Resultaten visar att de kvalitetsresultat som beräknas av den föreslagna algoritmen är väl korrelerade med de genomsnittliga åsiktspoäng som är förknippade med den subjektiva bedömningen. Index Termer-H.264 bildkvalitet, no-reference (NR) metrisk, parameteruppskattning, videokvalitet.
|
En reviderad PPNR-no-referensmodell presenteras i REF som uppskattar videokvaliteten med hjälp av uppskattade DCT-koefficienter som härleds med hjälp av maximal sannolikhetsteknik.
| 14,241,841 |
No-Reference Quality Assessment of H.264/AVC Encoded Video
|
{'venue': 'IEEE Transactions on Circuits and Systems for Video Technology', 'journal': 'IEEE Transactions on Circuits and Systems for Video Technology', 'mag_field_of_study': ['Computer Science']}
| 15,001 |
Vi bevisar n 1+en (1/ p) / p O(1) nedre gränser för utrymmet komplexiteten av p-pass streaming algoritmer lösa följande problem på n-vertex grafer: (1) testa om en oriktad graf har en perfekt matchning (detta innebär lägre gränser för att beräkna en maximal matchning eller till och med bara den maximala matchningsstorleken), (2) testa om två specifika hörn är på avstånd högst 2 p + 1) i en oriktad graf, (3) testa om det finns en riktad väg från s till t för två specifika hörn s och t i en riktad graf. De nedre gränserna håller för p = O(log n/ log log log n). Innan vårt resultat, var det känt att dessa problem kräver utrymme i ett pass, men ingen n 1+ på (1) lägre gräns var känd för någon p ≥ 2. Dessa streaming resultat följer av en kommunikations komplexitet lägre gräns för ett kommunikationsspel där spelarna håller två grafer på samma uppsättning hörn. Uppgiften för spelarna är att ta reda på om uppsättningar av hörn på avstånd exakt p + 1 från en specifik vertex skär. Spelet kräver en betydande mängd kommunikation endast om spelarna tvingas tala i en specifik svår ordning. Detta påminner om lägre gränser för kommunikationsproblem som indexering och pekskärmsjakt. Bland annat, vår linje av attack kräver att bevisa en information kostar lägre gräns för en beslutsversion av den klassiska pekaren jagar problem och en direkt summa typ teorem för diskontering av flera fall av detta problem.
|
Dessa övre gränser kompletteras med en nedre gräns på n 1+ på (1/p) /(poly p) utrymme för alla algoritmer som bestämmer i p passerar om avståndet mellan två fasta noder i en oviktad oriktad graf är som högst 2 p + 1) för varje p = O(log n/ log log log n) REF.
| 137,620 |
Superlinear Lower Bounds for Multipass Graph Processing
|
{'venue': 'Algorithmica', 'journal': 'Algorithmica', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 15,002 |
Vi anser att problemet med en enda bild super-upplösning i ett mer allmänt fall att de låga / hög upplösning par och down-sampling processen är otillgängliga. Bortsett från den traditionella superupplösningsformuleringen bryts den lågupplösningsingången ytterligare ned av ljud och suddighet. Denna komplicerade inställning omöjliggör övervakad inlärning och noggrann kärnuppskattning. För att lösa detta problem, tar vi till oövervakad lärande utan parad data, inspirerad av den senaste framgångsrika image-toimage översättningsprogram. Med generativa kontradiktoriska nätverk (GAN) som grundkomponent föreslår vi en Cycle-in-Cycle nätverksstruktur för att ta itu med problemet inom tre steg. För det första kartläggs den bullriga och suddiga inmatningen till ett ljudfritt utrymme med låg upplösning. Därefter samplas den mellanliggande bilden upp med en förtränad djupmodell. Slutligen finjusterar vi de två modulerna på ett end-toend sätt för att få den högupplösta utmatningen. Experiment på NTIRE2018-datauppsättningar visar att den föreslagna oövervakade metoden uppnår jämförbara resultat som de senaste övervakade modellerna. * Yuan Yuan och Siyuan Liu är medförfattare. Detta arbete utfördes när de var praktikanter vid Sensetime. Kontakta e-post: [email protected] Ground Truth Bicubic EDSR [17] BM3D+EDSR CinCGAN PSNR/SSIM 29.42/0.82 28.95/0.76 30.94/0.91 31.01/0.92 problem har ofta följande egenskaper: 1) HR-datauppsättningar är otillgängliga, 2) nedskalningsmetod är okänd, 3) ingång LR-bilder är bullriga och suddiga. Detta problem är mycket svårt om de ingående bilderna lider av olika typer av nedbrytning. För ett enklare fall, i denna studie, antar vi att indata bilder bryts ned med samma bearbetning som är komplex och otillgänglig. Under de ovan nämnda omständigheterna tenderar de modeller som man lärt sig av syntetiska data att generera liknande resultat som traditionella
|
Inspirerad av dessa metoder, Yuan et al. REF föreslår ett CinCGAN nätverk, som lär sig att kartlägga buller och suddig ingång LR-avbildning till en ren LR-avbildning utrymme med cykelkonsistens förluster.
| 52,155,890 |
Unsupervised Image Super-Resolution Using Cycle-in-Cycle Generative Adversarial Networks
|
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'mag_field_of_study': ['Computer Science']}
| 15,003 |
Sentimentanalys av korta texter som enstaka meningar och Twitter-meddelanden är utmanande på grund av den begränsade kontextuella information som de normalt innehåller. Effektivt lösa denna uppgift kräver strategier som kombinerar det lilla textinnehållet med förkunskaper och använder mer än bara bag-of-words. I detta arbete föreslår vi ett nytt djupt konvolutionellt neuralt nätverk som utnyttjar från karaktär till mening-nivå information för att utföra känsloanalys av korta texter. Vi tillämpar vår strategi för två corpora av två olika domäner: Stanford Sentiment Treebank (SSTb), som innehåller meningar från filmrecensioner; och Stanford Twitter Sentiment corpus (STS), som innehåller Twitter-meddelanden. För SSTb corpus, vår strategi uppnår state-of-the-art resultat för enkel mening känsla förutsägelse i både binär positiv / negativ klassificering, med 85,7% noggrannhet, och finkornig klassificering, med 48,3% noggrannhet. För STS corpus, vår strategi uppnår en känsla förutsägelse noggrannhet på 86,4%.
|
Ett nytt djupt konvolutionellt neuralt nätverk som använder från karaktär till mening nivå kunskap för att utföra känsloanalys på korta texter rekommenderas av Santos och Gatti REF.
| 15,874,232 |
Deep Convolutional Neural Networks for Sentiment Analysis of Short Texts
|
{'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,004 |
Abstrakt. Problemet med identitet och referens uppmärksammas allt mer i den (semantiska) webbgemenskapen och framträder som en av de nyckelfaktorer som skiljer traditionell kunskapsrepresentation från kunskapsrepresentation på webben när det gäller datasammanlänkning och kunskapsintegration i stor skala. Som en del av denna debatt föreslog OKKAM-projektet att man skulle skapa ett Entity Name System (Entity Name System) som tillhandahåller stelbenta identifierare, som heter OKKAMIds, för alla typer av konkreta och särskilda enheter, och länkar OKKAMIds till befintliga identifierare som har skapats på annat håll för samma enhet. Införandet av dessa identitetsbeteckningar ger upphov till vissa praktiska och begreppsmässiga problem. I detta dokument tar vi upp dem genom att utvidga två föreslagna ontologier (IRE och IRW) till att omfatta begreppet OKKAmid, beskriva deras formella egenskaper, illustrera varför de kan spela en viktig roll i byggandet av den semantiska webben och diskutera hur de kan integreras med andra metoder för att kartlägga URI:er på varandra.
|
OKKAM-projektet föreslår ett annat tillvägagångssätt, REF.
| 15,464 |
A Conceptual Model for a Web-scale Entity Name System
|
{'venue': 'In Proceedings of 9th the Asian Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,006 |
Vi anser att online gruvdrift av korrelerade tunga-hitters (CHH) från en dataström. Med tanke på en ström av tvådimensionella data, extraherar en korrelerad aggregatförfrågan först en subström genom att tillämpa en predikat längs en primär dimension, och beräknar sedan ett aggregat längs en sekundär dimension. Tidigare arbete med att identifiera heavyhitters i vattendrag har nästan uteslutande fokuserat på att identifiera heavy-hitters på en enda dimensional ström, och dessa ger lite insikt i egenskaperna hos heavyhitters längs andra dimensioner. I typiska tillämpningar är dock en analytiker intresserad inte bara av att identifiera tung-hitters, men också av att förstå ytterligare egenskaper såsom: vad andra objekt visas ofta tillsammans med en tung-hitter, eller vad är frekvensen fördelningen av objekt som visas tillsammans med tung-hitters. Vi överväger frågor av följande form: "I en ström S av (x, y) tuples, på substream H av alla x-värden som är tung-hitters, upprätthålla de y-värden som förekommer ofta med x-värden i H ". Vi kallar det här problemet CHH. Vi formulerar en ungefärlig Ansvarig redaktör: Bart Goethals. Elektroniskt tilläggsmaterial Den online-versionen av denna artikel (123 798 B. Lahiri et al. formulering av CHH-identifiering, och presentera en algoritm för att spåra CHH på en dataström. Algoritmen är lätt att implementera och använder arbetsytan mycket mindre än själva strömmen. Vi presenterar bevisbara garantier för det maximala felet, samt detaljerade experimentella resultat som visar kompromissen mellan utrymme och noggrannhet.
|
REF introducerade begreppet korrelerade tunga hitters och föreslog en ungefärlig lösning baserad på Misra-Gries algoritm.
| 15,033,320 |
Identifying correlated heavy-hitters in a two-dimensional data stream
|
{'venue': 'Data Mining and Knowledge Discovery', 'journal': 'Data Mining and Knowledge Discovery', 'mag_field_of_study': ['Computer Science']}
| 15,007 |
Korrelationskluster är kanske den mest naturliga formuleringen av kluster. Med tanke på n objekt och en parvis likhet mått, är målet att samla objekten så att, i bästa möjliga utsträckning, liknande objekt placeras i samma kluster och olika objekt placeras i olika kluster. Trots sin teoretiska dragningskraft är den praktiska betydelsen av korrelationskluster fortfarande i stort sett outforskad. Detta beror främst på det faktum att korrelationskluster kräver de två parvisa likheterna som indata. I stora datauppsättningar är det omöjligt att beräkna eller bara lagra. I detta dokument inleder vi undersökningen av lokala algoritmer för korrelationskluster, vilket lägger den teoretiska grunden för klusterbildning "big data". I lokala korrelationskluster får vi identifiera ett enda objekt och vi vill returnera det kluster som det hör till i någon globalt konsekvent nära-optimal klusterbildning, med hjälp av ett litet antal likhetsfrågor. Lokala algoritmer för korrelationskluster öppnar dörren till sublinjära tidsalgoritmer, som är särskilt användbara när likheten mellan objekt är kostsam att beräkna, som det ofta är fallet i många praktiska tillämpningsområden. De innebär också (i) distribuerade och strömmande klusteralgoritmer, (ii) estimatorer och testare för klusterredigeringsavstånd, och (iii) egenskapsbevarande parallella rekonstruktionsalgoritmer för klusterbarhet. Specifikt, vi utformar en lokal kluster algoritm uppnå en (3, ε)- tillnärmning (en lösning med kostnad på högst 3 · OPT + εn 2, där OPT är den optimala kostnaden). Dess körtid är O(1/ε 2 ) oberoende av datamängdens storlek. Om så önskas kan en explicit ungefärlig klusterbildning för alla n objekt produceras i tid O (n/ε) (vilket är påtagligt optimalt). Vi ger också en fullständig tillsats (1, ε) - approximation med lokala frågor komplexitet poly(1/ε) och tid komplexitet 2 poly(1/ε). Den explicita klusterbildningen finns i tid n · poly(1/ε) + 2 poly(1/ε). Den senare ger den snabbaste polynom-tids approximationsschemat för korrelation klustring känd hittills.
|
Slutligen nämner vi det senaste arbetet med Ref som har infört en lokal algoritm för korrelationskluster för att hantera enorma datauppsättningar.
| 10,680,176 |
Local correlation clustering
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 15,008 |
Datorseende har gynnats av att initiera flera djupa lager med vikter förtränade på stora övervakade träningsset som ImageNet. Naturlig språkbehandling (NLP) ser vanligtvis initiering av endast det lägsta lagret av djupa modeller med förtränade ordvektorer. I detta papper använder vi en djup LSTM kodare från en uppmärksamhetssekvens-till-sekvens modell tränad för maskinöversättning (MT) för att kontextualisera ordvektorer. Vi visar att lägga till dessa sammanhangsvektorer (CoVe) förbättrar prestandan över att endast använda oövervakade ord- och teckenvektorer på en mängd olika gemensamma NLP-uppgifter: känsloanalys (SST, IMDb), frågeklassificering (TREC), implementation (SNLI) och frågesvar (SQuAD). CoVe förbättrar prestandan hos våra baslinjemodeller till den senaste tekniken för finkorniga känsloanalyser och -förutsättningar.
|
Representationer från NMT Enkodaren från en NMT-modell har använts som ännu ett effektivt sätt att kontextualisera ordvektorer REF.
| 9,447,219 |
Learned in Translation: Contextualized Word Vectors
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 15,009 |
Curating märkta träningsdata har blivit den primära flaskhalsen i maskininlärning. Nya ramar tar itu med denna flaskhals med generativa modeller för att syntetisera etiketter i skala från svaga övervakningskällor. Den generativa modellens beroendestruktur påverkar direkt kvaliteten på de uppskattade etiketterna, men att välja en struktur automatiskt utan någon märkning av data är en tydlig utmaning. Vi föreslår en strukturuppskattningsmetod som maximerar de observerade uppgifternas 1-regulariserade marginella pseudolikeli. Vår analys visar att mängden omärkta data som krävs för att identifiera de verkliga strukturskalorna sublinjärt i antalet möjliga beroenden för en bred modellklass. Simuleringar visar att vår metod är 100× snabbare än en maximal sannolikhet strategi och väljer 1/4 så många främmande beroenden. Vi visar också att vår metod ger ett genomsnitt på 1,5 F1 poängs förbättring jämfört med befintliga, användarutvecklade applikationer för informationsextraktion på verkliga data såsom PubMed journal abstracts.
|
Nyligen, Bach et al. REF visade att det är möjligt att lära sig beroendestrukturen bland källor till svag tillsyn med ett urvalskomplex som skalar sig sublinjärt med antalet möjliga parvisa beroenden.
| 5,751,352 |
Learning the Structure of Generative Models without Labeled Data
|
{'venue': 'Proceedings of the 34th International Conference on Machine Learning, Sydney, Australia, PMLR 70, 2017', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']}
| 15,010 |
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
|
I det efterföljande arbetet föreslog författarna Snabbare R-CNN-modellen REF, som slår samman regionförslag och objektklassificering och lokalisering till ett enhetligt nätverk för djup upptäckt av objekt.
| 10,328,909 |
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
|
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 15,011 |
Sammanfattning av denna webbsida: Objektdetektering i optiska fjärranalysbilder, som är ett grundläggande men utmanande problem inom flyg- och satellitanalys, spelar en viktig roll för ett brett spektrum av tillämpningar och får stor uppmärksamhet under de senaste åren. Även om det finns enorma metoder saknas fortfarande en djup genomgång av litteraturen om allmän upptäckt av föremål. Syftet med detta dokument är att ge en översikt över de framsteg som nyligen gjorts på detta område. Olika från flera tidigare publicerade undersökningar som fokuserar på en specifik objektklass som byggnad och väg, fokuserar vi på mer generiska objektkategorier inklusive, men är inte begränsade till, väg, byggnad, träd, fordon, fartyg, flygplats, urban-område. Täcker ca 270 publikationer undersöker vi 1) mall matchningsbaserade objekt detektionsmetoder, 2) kunskapsbaserade objekt detektionsmetoder, 3) objektbaserad bildanalys (OBIA)-baserade objekt detektionsmetoder, 4) maskininlärning-baserade objekt detektionsmetoder, och 5) fem allmänt tillgängliga dataset och tre standardutvärderingsmått. Vi diskuterar också utmaningarna med aktuella studier och föreslår två lovande forskningsinriktningar, nämligen djupinlärning baserad funktionsrepresentation och svagt övervakad inlärningsbaserad geospatial objektdetektering. Det är vår förhoppning att denna undersökning kommer att vara till nytta för forskarna att få bättre förståelse för detta forskningsområde.
|
Cheng och Han Ref ger en översikt över de senaste framstegen på dessa områden och föreslår två lovande forskningsinriktningar, som är djupt lärandebaserade metoder och svagt övervakade inlärningsbaserade metoder.
| 3,110,415 |
A Survey on Object Detection in Optical Remote Sensing Images
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 15,012 |
I detta dokument kartlägger vi de grundläggande paradigmerna och begreppen för säker multipartsberäkning och diskuterar deras relevans för området integritetsbevarande datautvinning. Förutom att se över definitioner och konstruktioner för säker flerpartsberäkning diskuterar vi frågan om effektivitet och visar på svårigheterna med att konstruera högeffektiva protokoll. Vi presenterar också vanliga fel som är vanliga i litteraturen när säkra multipart beräkningstekniker tillämpas på integritetsbevarande data mining. Slutligen diskuterar vi förhållandet mellan säker multipartsberäkning och integritetsbevarande datautvinning, och visar vilka problem det löser och vilka problem det inte gör.
|
I REF har man undersökt de grundläggande paradigmerna och begreppen säker multipartsberäkning och dess förhållande till integritetsbevarande datautvinning.
| 1,160,625 |
Secure Multiparty Computation for Privacy-Preserving Data Mining
|
{'venue': 'IACR Cryptology ePrint Archive', 'journal': 'IACR Cryptology ePrint Archive', 'mag_field_of_study': ['Computer Science']}
| 15,013 |
Att hitta brevväxlingar mellan bilder via lokala deskriptorer är ett av de mest studerade problemen i datorseendet på grund av det stora antalet tillämpningar. Nyligen har end-to-end inlärda deskriptorer [1, 2, 3] baserade på Convolutional Neural Network (CNN) arkitekturer och utbildning i stora datauppsättningar visat sig vara betydligt bättre än de modernaste funktionerna. Dessa verk är inriktade på att utnyttja par av positiva och negativa fläckar för att lära sig diskriminerande representationer. Den senaste tidens arbete på djupt lärande för inlärning funktion inbäddningar undersöker användningen av trioler av prover i stället för par. I detta dokument undersöker vi användningen av trioler för att lära sig lokala funktionsdeskriptorer med CNNs och vi föreslår en ny in-triplet hård negativ gruvdrift steg för att uppnå en mer effektiv utbildning och bättre deskriptorer. Vår metod når toppmoderna resultat utan de beräkningsmässiga overhead som vanligtvis förknippas med gruvbrytning av negativ och med lägre komplexitet i nätverksarkitekturen. Detta är en betydande fördel jämfört med tidigare CNN-baserade deskriptorer eftersom vårt förslag lämpar sig för praktiska problem med stora datamängder. Lära sig med trioler innebär utbildning från prover av formen {a a, p p, n n n}, där en a är ankaret, p p är ett positivt exempel, som är ett annat prov av samma klass som en a, och n n n n är ett negativt exempel, som tillhör en annan klass än en a. I vårt fall är a och p p p olika synvinklar av samma fysiska punkt, och n n n kommer från en annan nyckelpunkt. Målet är att lära sig inbäddning f (x x x) s.t. 2 är lågt (dvs. nätverket ger ett a och p p-slut i funktionsutrymmet) och δ − = a a) − f (n n n) och 2 är högt (dvs. nätverket skjuter deskriptorerna för ett a och n n n långt ifrån varandra). Med detta syfte undersöker vi två olika förlustfunktioner för triolbaserat lärande: förlust av marginalrankning och förlust i förhållande till varandra. Marginalrankningsförlusten definieras som där μ är en godtyckligt fastställd marginal. Den mäter brott mot rangordningsordningen för inbäddade funktioner inne i trillingen, vilket bör vara δ − > δ + + μ. Om så inte är fallet, justerar nätverket sina vikter för att uppnå detta resultat. För sin del optimerar kvotförlusten kvotens avstånd inom trillingar. Det lär sig inbäddningar sådan att målet för denna förlust funktion är att tvinga ( e δ + e δ + +e δ − ) 2 till 0, och ( e δ − e δ + + e δ − ) 2 till 1. Det finns ingen marginal i samband med denna förlust, och per definition har vi 0 ≤λ ≤ 1 för alla värden på δ −, δ +. Bilda. 1 illustrerar både inflygningar och deras förlustyta. I λ (δ +, δ − ) ligger förlusten kvar på 0 tills marginalen kränks, och därefter sker en linjär ökning som inte är övre gräns. I kontrast, λ (δ +, δ − ) har en klar lutning mellan de två förlustnivåerna, och förlusten når en 1-värderad platå snabbt när δ − > δ +. Alla tidigare förslag baserade på trillingbaserad inlärning använder endast två av de tre möjliga avstånden inom varje trilling, utan att bry sig om avståndet δ − = till f (p p) − f (n n n) till 2. Vi tar hänsyn till det för att definiera in-trippen hårt negativa som δ * = min(δ −, δ − ). Om δ * = δ −, Vi byter {a a, p p}, och därmed p p blir ankaret, och en a blir det positiva provet. Detta säkerställer att den hårdast negativa insidan av trillingen används för backpropagation. Därefter blir förlust av marginalrankning λ (λ +, δ * ) = max(0, μ + δ + − δ * ). Ett liknande uttryck kan utformas för förhållandet förlust. För att testa vårt förslag bygger vi vår deskriptor genom att utbilda en grund nätverksarkitektur {Conv(7,7)-Tanh-Pool(2,2)-Conv(6,6)-Tanh-FC(128)} från 5M trillingar provtagna på flyg med hjälp av patchar från Photo-tour dataset [4]. Vi utvärderar dess prestanda i patchpar klassificering, där vi mäter förmågan hos deskriptorn att diskriminera positiva patchpar från negativa, och i närmaste grann patch matchning, där vi mäter deskriptorprecisionen i matchande funktionspunkter mellan olika vyer av samma scen. Våra nätverk överträffar tidigare infört enskaliga convolutional särdrag decriptors, och i vissa fall med stor marginal. Dessutom är de 10 gånger snabbare än DeepCompare [3], och 50 gånger snabbare än MatchNet [1] och DeepDesc [2]. I själva verket, när du kör på GPU når vi hastigheter på 10μs per patch, vilket är jämförbart med CPU hastigheter för snabba binära deskriptorer. Vi observerar också att kvot-förlustbaserade deskriptorer är mer lämpliga för patchpar klassificering och att marginal-förlust baserade de fungerar bättre i närmaste grann patch matchning. Detaljerna i vårt förslag beskrivs mer utförligt i dokumentet, tillsammans med omfattande experimentellt arbete. Vi tillhandahåller alla inlärda modeller och utbildningskoden för alla deskriptorvarianter på https://github.com/vbalnt/tfeat.
|
TFeat REF antar triplet förlust och minor i triplet hårda negativ med en strategi som heter ankare swapping.
| 27,938,870 |
Learning local feature descriptors with triplets and shallow convolutional neural networks.
|
{'venue': 'BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,014 |
Sociala nätverkssajter (SNS) har nu utvidgats över hela världen. Dessa webbplatser har olika effekter av sina användares liv. Denna fallkontrollstudie genomfördes vid Birjand University of Medical Sciences 2011. Studien omfattade 70 studenter med betygsmedelvärde (GPA) under 16 av 20 (fallgrupp) och 140 studenter med GPA lika 16 av 20 och högre (kontrollgrupp). 54,3% av studenterna i fallgrupp och 35% i kontrollgrupp var registrerade i dessa nätverk.(OR=2.2,CI=1,23-3.95). Den genomsnittliga tidsåtgången i SNS i fall- och kontrollgruppen var 0,9 respektive 0,44 timmar per dag (p=0,04). Medlemskap börjar i majoriteten i fall grupp (57,9%) var den första terminen och i kontrollgruppen (47,1%) var före universitetet. Kontakt med gamla vänner var den vanligaste orsaken till att man använde sociala nätverk i både fall och kontroller.Resultatet av denna studie har visat ett negativt samband mellan användning av SNS och GPA. I detta sammanhang behöver vi en kultur av SNS användning med tanke på dess inverkan på studenternas akademiska prestation. Val och peer review under ansvar av Prof. Dr. Hafize Keser.
|
I denna studie är den mest tid som spenderas på sociala nätverk över nätterna REF.
| 145,457,307 |
The Impact of Virtual Social Networks on Students’ Academic Achievement in Birjand University of Medical Sciences in East Iran
|
{'venue': None, 'journal': 'Procedia - Social and Behavioral Sciences', 'mag_field_of_study': ['Psychology']}
| 15,015 |
PolarFS är ett distribuerat filsystem med extremt låg latens och hög tillgänglighet, utformat för POLARDB-databastjänsten, som nu finns tillgänglig på Alibaba Cloud. PolarFS använder en lättviktig nätverks stack och I/O stack i användarrymden och drar full nytta av nya tekniker som RDMA, NVMe och SPDK. På så sätt har PolarFS end-toend-latensen minskat drastiskt och våra experiment visar att PolarFS skrivlatens ligger ganska nära det lokala filsystemet på SSD. För att hålla replikakonsistensen vid maximering av I/O-genomströmning för PolarFS utvecklar vi ParallelRaft, ett samförståndsprotokoll härlett från Raft, som bryter Rafts strikta serialisering genom att utnyttja den utom-of-order I/O-toleranskapaciteten i databaser. ParallellRaft ärver den lättförståeliga och enkla implementeringen av Raft samtidigt som den ger mycket bättre I/O skalbarhet för PolarFS. Vi beskriver också den delade lagringsarkitekturen hos PolarFS, vilket ger ett starkt stöd för POLARDB.
|
PolarFS REF är ett distribuerat filsystem som är utformat för Alibabaâous databastjänst genom att använda en lättviktig nätverks stack och I/O stack för att dra nytta av nya tekniker som RDMA, NVMe och SPDK.
| 51,999,700 |
PolarFS: An Ultra-low Latency and Failure Resilient Distributed File System for Shared Storage Cloud Database
|
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
| 15,016 |
I detta dokument föreslår vi en ny neural strategi för parafrasgenerering. Konventionella parafraser genereringsmetoder antingen utnyttja handskrivna regler och de sauribaserade anpassningarna, eller använda statistiska maskininlärningsprinciper. Såvitt vi vet är detta arbete det första som utforskar djupinlärningsmodeller för parafrasgenerering. Vårt primära bidrag är ett staplat återstående LSTM-nätverk, där vi lägger till kvarvarande anslutningar mellan LSTM-lager. Detta möjliggör effektiv träning av djupa LSTMs. Vi utvärderar vår modell och andra toppmoderna djupinlärningsmodeller på tre olika datauppsättningar: PPDB, WikiAnswers och MSCOCO. Utvärderingsresultat visar att vår modell överträffar sekvens till sekvens, uppmärksamhetsbaserad, och dubbelriktad LSTM modeller på BLEU, METEOR, TER, och en inbäddande-baserad mening likhet metriska.
|
REF använder ett staplat återstående LSTM-nätverk i Seq2Seq-modellen för att öka modellens kapacitet.
| 9,385,494 |
Neural Paraphrase Generation with Stacked Residual LSTM Networks
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 15,017 |
Abstract-Vi anser sensorn själv-deployment problem, bygga FOCimplied täckning (F-täckning) runt en punkt av intresse (POI), med ny utvärdering metrisk, täckning radie. Vi föreslår att vi distribuerar sensorer i polygonskikt över en lokalt beräkningsbar liksidig triangeltesselering (TT) för optimal F-täckningsformation, och introducerar två typer av distributionspolygon, H-polygon och C-polygon. Vi föreslår två strikt lokaliserade lösningsalgoritmer, Greedy Advance (GA), och Greedy-Rotation-Greedy (GRG). De två algoritmerna driver sensorerna att röra sig längs TT-grafen för att omge POI. I GA, noder girigt gå så nära POI som de kan; i GRG, när deras giriga framsteg blockeras, noder rotera runt POI längs lokalt beräknade H-eller C-polygon till en vertex där giriga framsteg kan återupptas. Vi bevisar att de båda ger ett uppkopplat nätverk med maximerad hålfri täckning. Så vitt vi vet är de de första lokaliserade sensoralgoritmerna som ger en sådan täckningsgaranti. Vi analyserar deras täckningsradie. Vår studie visar att GRG garanterar optimal eller nära optimal täckning radie. Genom omfattande simuleringar utvärderar vi även deras prestanda på konvergenstid, energiförbrukning och nodkollision.
|
I REF studerade författarna en ny sensor problem med självdeployment och införde en F-täckning utvärdering metrisk, täckning radie, som återspeglar behovet av att maximera avståndet från F till avslöjade områden.
| 6,642,546 |
Strictly Localized Sensor Self-Deployment for Optimal Focused Coverage
|
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
| 15,018 |
Att svara på opinionsfråga är en utmanande uppgift för behandling av naturligt språk. I detta dokument diskuterar vi en nödvändig komponent för ett system för att besvara en åsiktsfråga: skilja åsikter från fakta, både på dokument- och meningsnivå. Vi presenterar en Bayesian klassificerare för att skilja mellan dokument med en övervägande av åsikter såsom redaktioner från vanliga nyheter, och beskriver tre oövervakade, statistiska tekniker för den betydligt svårare uppgiften att upptäcka åsikter på straffnivå. Vi presenterar också en första modell för att klassificera meningar som positiva eller negativa när det gäller det huvudsakliga perspektiv som uttrycks i yttrandet. Resultat från en stor samling nyheter och en mänsklig utvärdering av 400 meningar rapporteras, vilket tyder på att vi uppnår mycket hög prestanda i dokumentklassificeringen (uppåt 97% precision och återkallande), och respektabla prestanda när det gäller att upptäcka åsikter och klassificera dem på meningsnivå som positiva, negativa eller neutrala (upp till 91% noggrannhet).
|
I REF ) diskuteras en nödvändig komponent för ett system för att besvara en åsiktsfråga: skilja åsikter från fakta på både dokument- och meningsnivå.
| 6,627,923 |
Towards Answering Opinion Questions: Separating Facts From Opinions And Identifying The Polarity Of Opinion Sentences
|
{'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,019 |
Införandet av Microsoft Kinect Sensors har väckt stort intresse för robotvärlden. Medan ursprungligen utvecklats som ett spelgränssnitt, en hög kvalitet djupsensor och överkomligt pris har gjort det till ett populärt val för robotisk perception. Dess aktiva avkänningsstrategi är mycket väl lämpad för att producera robusta och snabba djupkartor för mänsklig pose uppskattning. Men övergången till robotdomänen dök upp under en större uppsättning drifttillstånd som den ursprungligen inte var avsedd för. Vi ser sensorn misslyckas helt på transparenta och speculära ytor som är mycket vanliga för varje dag hushåll objekt. Eftersom dessa objekt är av stort intresse för hemrobotteknik och hjälpmedelsteknik har vi undersökt metoder för att minska och ibland till och med eliminera dessa effekter utan någon modifiering av hårdvaran. I synnerhet kompletterar vi djupberäkningen inom Kinect med en cross-modal stereobana som vi får från skillnadsmatchning mellan den inkluderade IR och RGB-sensorn i Kinect. Vi undersöker hur RGB-kanalerna kan kombineras optimalt för att efterlikna IR-sensorns bildsvar genom ett tidigt fusionssystem av viktade kanaler samt ett sent fusionssystem som beräknar stereo matchar mellan de olika kanalerna självständigt. Vi visar en stark förbättring i tillförlitligheten av djupberäkningen samt förbättrad prestanda på en objektsegmentering uppgift i ett tabell topp scenario.
|
Denna fråga behandlas i tidigare arbete REF genom att använda en cross-modal stereo metod baserad på inbyggd RGB och IR-sensor som kompletterar Kinect djup uppskattning.
| 643,221 |
M.: Improving the kinect by cross-modal stereo
|
{'venue': 'In: British Machine Vision Conf. BMVA', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,020 |
Eftersom det trådlösa nätverket har begränsad bandbredd och osäkra delade medier, är datakomprimering och kryptering mycket användbara för sändning av stora data i IoT (Internet of Things). De traditionella metoderna för komprimering och kryptering är dock varken kompetenta eller effektiva. För att lösa detta problem presenterar detta dokument en kombinerad parallellalgoritm kallad "CZ-algoritm" som kan komprimera och kryptera big data effektivt. CZ algoritm använder en parallell pipeline, blandar kodning av komprimering och kryptering, och stöder datafönstret upp till 1 TB (eller större). Dessutom kan CZ algoritm kryptera big data som ett kaotiskt kryptosystem som inte kommer att minska komprimeringshastigheten. Samtidigt, en shareware som heter "ComZip" utvecklas baserat på CZ algoritm. Experimentet resultat visar att ComZip i 64 b system kan få bättre kompressionsförhållande än WinRAR och 7-zip, och det kan vara snabbare än 7-zip i big data komprimering. Dessutom krypterar ComZip big data utan extra förbrukning av datorresurser.
|
Till exempel, en ny kombinerad parallellalgoritm som heter "CZ algoritm" som kan komprimera och kryptera Big Data effektivt kan hittas i papper REF.
| 46,035,888 |
Parallel Algorithm for Wireless Data Compression and Encryption
|
{'venue': 'J. Sensors', 'journal': 'J. Sensors', 'mag_field_of_study': ['Computer Science']}
| 15,021 |
: Fotoinspirerad 3D-modellering av en stol från fyra olika 3D-kandidater (cyan). De nya modellerna (gula) skapas som geometriska variationer av kandidaterna för att passa målobjektet i fotot samtidigt som 3D-strukturen av kandidaterna bevaras. Vi introducerar en algoritm för 3D-objektmodellering där användaren hämtar kreativ inspiration från ett objekt fångat i ett enda fotografi. Vår metod utnyttjar den rika källan till fotografier för kreativ 3D-modellering. Men med bara ett foto som guide, att skapa en 3D-modell från grunden är en skrämmande uppgift. Vi stöder modelleringsprocessen genom att använda en tillgänglig uppsättning 3D-kandidatmodeller. Specifikt skapar användaren en digital 3D-modell som geometrisk variation från en 3D-kandidat. Vår modellteknik består av två stora steg. Det första steget är en användarstyrd segmentering av objekt i bildrymden för att avslöja strukturen hos det fotograferade objektet. Kärnsteget är det andra steget, där en 3D-kandidat automatiskt deformeras för att passa det fotograferade målet under ledning av silhuettkorrespondens. Uppsättningen av kandidatmodeller har föranalyserats för att ha användbar strukturinformation på hög nivå, som används i båda stegen för att kompensera för analys- och modellproblem som endast baseras på innehåll i en enda bild. Lika viktigt är att den strukturella informationen bevaras genom den geometriska variationen, så att slutprodukten överensstämmer med dess nedärvda strukturinformation som är lätt användbar för efterföljande modellförfining eller bearbetning. DL PDF WEB VIDEO
|
Den fotoinspirerade 3D-modelleringsmetoden för REF tar en enda bild som indata, segmenterar den i delar med hjälp av en interaktiv modelldriven metod, och hämtar sedan en 3D-modellkandidat som slutligen deformeras för att matcha silhuetten av indatafotot.
| 1,584,133 |
Photo-inspired model-driven 3D object modeling
|
{'venue': 'ACM Trans. on Graphics (Proc. SIGGRAPH', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,022 |
Den moderna Internettrafikens mångfald och komplexitet överträffar allt som föreställs av de ursprungliga formgivarna av den underliggande Internetarkitekturen. När Internet blir vår mest kritiska kommunikationsinfrastruktur försöker tjänsteleverantörer att eftermontera funktionaliteten, inklusive säkerhet, tillförlitlighet, integritet och flera tjänstekvaliteter, till en "bästa möjliga" arkitektur som ursprungligen var avsedd att stödja en forskningsmiljö. För att prioritera, skydda eller förhindra viss trafik måste leverantörerna implementera teknik för trafikklassificering: koppla trafikflöden till de tillämpningar - eller tillämpningstyper - som genererade dem. När fokus ligger på att upptäcka specifika applikationer (t.ex. Skype) används ibland termen trafikidentifiering. Trots det ökande beroendet av Internet finns det i grund och botten ingen vetenskapligt reproducerbar forskning om globala trafikkarakteristika på Internet på grund av känsligheten hos och typiska restriktioner för utbyte av trafikdata. Trots dessa begränsningar har säkerhetsproblem och ekonomiska realiteter motiverat den senaste tidens framsteg i trafikklassificeringskapaciteten. Situationsmedvetenhet om trafiken är avgörande för att förebygga, mildra och reagera på nya former av skadlig kod, som plötsligt och snabbt kan hota legitima tjänster på nätverkslänkar. Det kan hävdas att den höga kostnaden för utbyggnad och drift av Internetinfrastruktur tvingar leverantörerna att ständigt söka efter sätt att optimera sin nätteknik eller på annat sätt öka avkastningen på kapitalinvesteringar, inklusive tillämpningsbaserad differentiering av tjänster och innehållskänslig prissättning. Av dessa skäl har den senaste tekniken inom trafikklassificeringen fått ett stort uppsving under de senaste åren, mätt i antalet publikationer och forskargrupper med fokus på ämnet. Olika intressen har lett till ett heterogent, fragmenterat och något inkonsekvent landskap. En färsk undersökning av trafikklassificeringslitteratur granskade fördelar och problem med olika tillvägagångssätt, men erkände deras allmänna brist på noggrannhet och tillämplighet [1], medan andra tog ett snävare fokus, taxonomisering och översyn av dokumenterade maskininlärningsmetoder för IP-trafikklassificering [2]. I denna artikel ger vi en kritisk men konstruktiv analys av området för Internet trafik klassificering, med fokus på stora hinder för framsteg och förslag för att övervinna dem. Vi ger först en översikt över både utvecklingen av trafikklassificeringstekniker och begränsningar för deras utveckling. Efter en kort sammanfattning av resultaten av undersökningar inom detta område lyfter vi fram viktiga skillnader mellan befintliga metoder och tekniker. Vi diskuterar sedan de viktigaste hindren för framsteg i den nuvarande tekniken, inklusive nödvändiga kompromisser i tillämplighet, tillförlitlighet, prestanda och respekt för privatlivet. De ständigt olösta utmaningarna på området under det senaste årtiondet tyder på behovet av olika strategier och åtgärder, vilket vi rekommenderar i det avslutande avsnittet. Minst tre historiska utvecklingar under de senaste två decennierna har gjort den traditionella metoden att använda transportlager (TCP och UDP) hamnar mindre exakt för att dra slutsatsen de flesta Internettillämpningar (portbaserad metod): • Spridningen av nya tillämpningar som inte har några IANA registrerade hamnar, men istället använda hamnar som redan registrerats (till andra tillämpningar), slumpmässigt utvalda, eller användardefinierade • Incitamentet för applikationsdesigners och användare att använda välkända hamnar (tilldelat andra tillämpningar) för att dölja sin trafik och kringgå filtrering eller brandväggar • Oundvikligheten av IPv4 adresser utmattning, motiverande genomträngande utbyggnad av nätverk och hamnadressöversättning, T T Alberto Dainotti och Antonio Pescapé, University of Napoli Federico II Kimberly C. Claffy, University of California San Diego Trafikklassificering teknik har ökat i relevans detta årtionde, eftersom det nu används i definitionen och genomförandet av mekanismer för tjänstedifferension, nätdesign och teknik, säkerhet, redovisning, reklam och forskning. Under de senaste 10 åren har forskarsamhället och nätverksindustrin undersökt, föreslagit och utvecklat flera klassificeringsmetoder. Medan trafikklassificeringstekniker förbättras i noggrannhet och effektivitet, är den fortsatta spridningen av olika Internet-program beteenden, förutom växande incitament att dölja vissa program för att undvika filtrering eller blockering, bland anledningarna till att trafik klassificering fortfarande är ett av många öppna problem i Internet forskning. I den här artikeln går vi igenom de senaste resultaten och diskuterar framtida riktningar i trafikklassificeringen, tillsammans med deras kompromisser i tillämplighet, tillförlitlighet och integritet. Vi beskriver de ihållande olösta utmaningarna på området under det senaste årtiondet och föreslår flera strategier för att ta itu med dessa utmaningar för att främja framsteg inom vetenskapen om klassificering av Internettrafik.
|
Alberto Dainotti REF granskade de senaste resultaten och diskuterade framtida riktningar i nätverkstrafikens klassificering.
| 128,543 |
Issues and future directions in traffic classification
|
{'venue': 'IEEE Network', 'journal': 'IEEE Network', 'mag_field_of_study': ['Computer Science']}
| 15,023 |
Under de senaste åren har många korrekta beslutsstödsystem konstruerats som svarta lådor, det vill säga som system som döljer sin inre logik för användaren. Denna brist på förklaring utgör både en praktisk och en etisk fråga. I litteraturen rapporteras många metoder som syftar till att övervinna denna avgörande svaghet, ibland till priset av att offra noggrannhet för tolkningsbarhet. De tillämpningar där beslutssystem för svarta rutor kan användas är olika, och varje tillvägagångssätt är vanligtvis utvecklat för att ge en lösning på ett specifikt problem och därmed uttryckligen eller implicit avgränsar sin egen definition av tolkningsbarhet och förklaring. Syftet med denna artikel är att ge en klassificering av de huvudsakliga problem som behandlas i litteraturen med avseende på begreppet förklaring och typen av svart låda system. Med tanke på en problemdefinition, en svart låda typ, och en önskad förklaring, denna undersökning bör hjälpa forskaren att hitta förslagen mer användbara för sitt eget arbete. Den föreslagna klassificeringen av metoder för att öppna modeller för svarta lådor bör också vara användbar för att sätta de många forskning öppna frågor i perspektiv. Trots det faktum att maskininlärning har varit ett ämne under ganska lång tid och nyligen fått mycket uppmärksamhet, idag finns det många ad hoc spridda resultat, och en systematisk organisation och klassificering av dessa metoder saknas. Många frågor ligger till grund för de artiklar i litteraturen som föreslår metoder för tolkning av svarta boxsystem [41, 132] : Vad innebär det att en modell är tolkningsbar eller öppen? Vad är en förklaring? När en modell eller en förklaring är begriplig? Vilket är det bästa sättet att ge en förklaring? Vilka är de problem som kräver tolkningsbara modeller/prediktioner? Vilken typ av beslutsuppgifter påverkas? Vilken typ av dataposter är mer begripliga? Hur mycket är vi villiga att förlora i förutsägelsemässig exakthet för att få någon form av tolkningsbarhet? Vi anser att det behövs en tydlig klassificering med tanke på alla dessa aspekter samtidigt för att organisera kunskapen om forskning som undersöker metoder för att öppna och förstå den svarta lådan. Befintliga arbeten tenderar att ge bara en allmän översikt över problemet [68] som belyser obesvarade frågor och problem [28]. Andra arbeten fokuserar dock på särskilda aspekter som representationsformatens inverkan på begripligheten [43] eller tolkningsfrågorna när det gäller fördelar och nackdelar med utvalda prediktiva modeller [32]. Följaktligen, efter att ha erkänt fyra kategorier av problem och en uppsättning sätt att ge en förklaring, har vi valt att gruppera metoderna för att öppna och förstå svart box prediktorer genom att samtidigt överväga det problem de står inför, den klass av lösningar som föreslås för förklaringen, den typ av data som analyseras och den typ av prediktor förklaras. Resten av artikeln är organiserad enligt följande. För det första visar avsnitt 2 vilka som är motiven för att kräva förklaring för svarta boxsystem genom att illustrera några verkliga fall. I avsnitt 3 diskuterar vi vad tolkningsbarhet är. I Avsnitt 4 formaliserar vi våra problemdefinitioner som används för att kategorisera toppmoderna verk. Närmare uppgifter om klassificeringen och viktiga punkter som skiljer de olika tillvägagångssätten och dokumenten från varandra behandlas i avsnitt 5. I avsnitten 6, 7, 8 och 9 presenteras detaljerna i de föreslagna lösningarna. I avsnitt 10 sammanfattas slutligen de avgörande aspekter som framkommit vid analysen av teknikens utveckling och diskuteras vilka som är de öppna forskningsfrågor och framtida forskningsinriktningar. Vilka är de verkliga problemen som kräver tolkningsbara modeller och förklarande förutsägelser? I detta avsnitt rapporterar vi kortfattat några fall som visar hur och varför svarta lådor kan vara farliga. Att delegera beslut till svarta lådor utan möjlighet till tolkning kan vara kritiskt, kan skapa diskriminering och förtroendefrågor. Utbildning en klassificering av historiska datauppsättningar, rapportering mänskliga beslut, kan leda till upptäckt av endemiska förutfattade meningar [88]. Eftersom dessa regler kan döljas djupt inom den utbildade klassificeringen riskerar vi dessutom att betrakta sådana metoder och fördomar, kanske omedvetet, som allmänna regler. Vi är varnade för ett växande "black box society" [86], som styrs av "hemliga algoritmer som skyddas av industriell sekretess, rättsligt skydd, fördunkladhet, så att avsiktlig eller oavsiktlig diskriminering blir osynlig och begränsning blir omöjlig." Automatiserad diskriminering är inte ny och beror inte nödvändigtvis på "svarta box"-modeller. Under 1970 - och 1980-talen användes ett datorprogram för att söka jobb i St. George's Hospital Medical School, London, Storbritannien. Programmet använde information från sökandes formulär, utan någon hänvisning till etnicitet. Programmet visade sig emellertid orättvist diskriminera etniska minoriteter och kvinnor genom att härleda denna information från efternamn och födelseort, och minska deras chanser att bli utvalda för intervju [71]. På senare tid har journalisterna på propublica.org visat att COMPAS poäng, en prediktiv modell för "risken för brott recidivism" (proprietär hemlighet Northpointe), har en stark etnisk fördomsfullhet. Enligt denna poäng, en svart som inte re-offend klassificerades som hög risk dubbelt så mycket som vita som inte re-offend,
|
För en undersökning av förklaringar se t.ex. REF.
| 3,342,225 |
A Survey of Methods for Explaining Black Box Models
|
{'venue': 'CSUR', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,024 |
Ankarmekanismen för snabbare R-CNN- och SSD-ramverk anses inte vara tillräckligt effektiv för att synliggöra text, vilket kan tillskrivas dess intersektion-over-union-baserade matchningskriterium mellan ankare och jord-sanningsboxar. För att bättre kunna bifoga scentextexerciser av olika former krävs det att man designar ankare av olika skalor, proportioner och till och med orienteringar manuellt, vilket gör ankarbaserade metoder sofistikerade och ineffektiva. I detta dokument föreslår vi ett nytt ankarfritt regionförslagsnätverk (AF-RPN) för att ersätta det ursprungliga ankarbaserade RPN i ramen för Snabbare R-CNN för att ta itu med ovanstående problem. Jämfört med de förankringsbaserade metoderna för förslagsgenerering av regioner (t.ex. RPN, FPN-RPN, RRPN och FPN-RRPN) kan AF-RPN göra sig av med komplicerad ankarkonstruktion och uppnå högre återkallningshastighet på både horisontella och multiorienterade referensuppgifter för textdetektering. På grund av de högkvalitativa textförslagen uppnår vår Snabbare R-CNN-baserade tvåstegsmetod för att upptäcka text de senaste resultaten på ICDAR-2017 MLT, COCO-Text, ICDAR-2015 och ICDAR-2013 med hjälp av enskaliga och en modelltester.
|
Zhong et al Ref föreslog ett nätverk av förslag till regioner utan ankar för att hitta text i olika skalor, proportioner och inriktningar.
| 13,747,604 |
An anchor-free region proposal network for Faster R-CNN-based text detection approaches
|
{'venue': 'International Journal on Document Analysis and Recognition (IJDAR)', 'journal': 'International Journal on Document Analysis and Recognition (IJDAR)', 'mag_field_of_study': ['Computer Science']}
| 15,025 |
Många framgångsrika tillämpningar av datorseende för bild- eller videomanipulering är av naturen interaktiva. Parametrar för sådana system tränas dock ofta för att försumma användaren. Traditionellt har interaktiva system behandlats på samma sätt som deras helautomatiska motsvarigheter. Deras prestanda utvärderas genom att man beräknar exaktheten hos deras lösningar under vissa fasta uppsättningar användarinteraktioner. I detta dokument föreslås en ny utvärderings- och inlärningsmetod som för användaren in i kretsloppet. Det är baserat på användningen av en aktiv robotanvändare - en simulerad modell av en mänsklig användare. Vi visar hur detta tillvägagångssätt kan användas för att utvärdera och lära sig parametrar för toppmoderna interaktiva segmenteringssystem. Vi visar också hur simulerade användarmodeller kan integreras i den populära maxmarginalmetoden för parameterinlärning och föreslå en algoritm för att lösa det resulterande optimeringsproblemet.
|
REF 49 De kallar sin modell den aktiva robotanvändaren.
| 7,144,545 |
Learning an interactive segmentation system
|
{'venue': "ICVGIP '10", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 15,026 |
Bakgrund. Felfri diagnos av Alzheimers sjukdom (AD) från friska kontroll (HC) patienter i ett tidigt skede av sjukdomen är en stor oro, eftersom information om tillståndets svårighetsgrad och utvecklingsrisker närvarande tillåter AD-sjuka att vidta försiktighetsåtgärder innan irreversibel hjärnskada inträffar. Nyligen har det funnits ett stort intresse för datorstödd diagnos för klassificering av magnetisk resonansbild (MRI). Det är dock svårt att skilja mellan Alzheimers hjärndata och friska hjärndata hos äldre vuxna (ålder > 60 år) på grund av deras mycket likartade hjärnmönster och bildstyrka. På senare tid, banbrytande funktion utvinning teknik har hittat omfattande tillämpning inom många områden, inklusive medicinsk bildanalys. Här föreslår vi en dual-tree komplex wavelet transform (DTCWT) för att extrahera funktioner från en bild. Funktionsvektorns dimensionalitet minskas genom användning av huvudkomponentanalys (PCA). Den reducerade vektorn skickas till feed-forward neurala nätverk (FNN) för att skilja AD och HC från indata MR bilder. Dessa föreslagna och genomförda rörledningar, som visar på förbättringar i klassificeringsproduktionen jämfört med de senaste studierna, resulterade i en hög och reproducerbar noggrannhet på 90,06 ± 0,01 % med en känslighet på 92,00 ± 0,04 %, en specificitet på 87,78 ± 0,04 %, och en precision på 89,6 ± 0,03 % med 10-faldig korsvalidering.
|
En sådan ny metod är REF, där en dual-tree komplexa wavelet transform används för att extrahera funktioner, och en feed-forward neurala nätverk används för att klassificera bilder.
| 10,249,347 |
Diagnosis of Alzheimer's Disease Using Dual-Tree Complex Wavelet Transform, PCA, and Feed-Forward Neural Network
|
{'venue': 'Journal of healthcare engineering', 'journal': 'Journal of healthcare engineering', 'mag_field_of_study': ['Medicine']}
| 15,027 |
I en allmän ram, med tanke på en uppsättning artiklar och deras mottagna citeringar (tidsperioder för publicering eller citering är inte viktiga här) kan man definiera impact factor (IF) som det totala antalet mottagna citeringar dividerat med det totala antalet publikationer (artiklar). Ocitednessfaktorn (UF) definieras som den fraktion av artiklarna som inte fick några citeringar. Det är intuitivt klart att IF bör vara en minskande funktion av UF. Detta bekräftas av resultaten i [ VAN LEEUWEN & MOED, 2005] men alla givna exempel visar en typisk form, sällan sett i informetrics: en horisontell S-form (första konvexa sedan konkava). Genom att anta en enkel modell för relationen publicering-citering, bevisar vi denna horisontella S-form i detta dokument, vilket visar att ett sådant allmänt funktionellt förhållande kan förklaras i allmänhet.
|
I REF görs en analys av förhållandet mellan effektfaktorn och ocitednessfaktorn under förutsättning att publicerings-citeringsförhållandet följer Lotkas modell.
| 9,331,918 |
The mathematical relation between the impact factor and the uncitedness factor
|
{'venue': 'Scientometrics', 'journal': 'Scientometrics', 'mag_field_of_study': ['Computer Science']}
| 15,028 |
Vi undersöker gapet mellan teori och praktik för exakt förgrening algoritmer. I teorin, gren-och-minska algoritmer för närvarande har den bästa tiden komplexitet för många viktiga problem. Å andra sidan, i praktiken, state-of-the-art metoder bygger på olika tillvägagångssätt, och den empiriska effektiviteten av sådana teoretiska algoritmer har sällan undersökts förmodligen eftersom de är till synes ineffektiva på grund av den uppsjö av komplexa reduktionsregler. I denna uppsats utformar vi en gren-och-reduce algoritm för vertex cover problem med hjälp av de tekniker som utvecklats för teoretiska algoritmer och jämföra dess praktiska prestanda med andra state-of-the-art empiriska metoder. Resultaten visar att gren-och-reducerade algoritmer faktiskt är ganska praktiska och konkurrenskraftiga med andra state-of-art metoder för flera typer av fall, vilket visar den praktiska effekten av teoretisk forskning på grenning algoritmer.
|
Akiba och Iwata REF var de första att visa effektiviteten av gren-och-reduce metoden för att lösa minimalt vertex cover problem i praktiken för stora glesa verkliga grafer.
| 1,187,845 |
Branch-and-Reduce Exponential/FPT Algorithms in Practice: A Case Study of Vertex Cover
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 15,029 |
Abstract-I detta dokument visar vi att en osäker avgångstid avsevärt ändrar analysen av optimeringen av laddningsschemat för elfordon (EV). Vi får också en sluten lösning för stokastiska optimeringsproblem som är framtagen för att schemalägga laddning av elfordon med osäkra avgångstider i närvaro av timliga tid-användning priser. Index Terms-stängd-form lösning, elfordon, stokastisk optimering, tidsförskjutningsbara laster, osäker avgångstid. EN SSUME att tiden är uppdelad i T-tidsslots. Betrakta en laddningsstation för elfordon med flera laddningsuttag (se [1], [2] ). Vid varje ladduttag ska α ≥ 1 ange det tidsintervall vid vilket en EV ansluter till ladduttaget. Även låt e anger den totala energi som behövs för att ladda EV. I detta avsnitt antar vi att föraren anger sin avgångstid β ≤ T. Som ett exempel, om en Chevrolet Volt med ett utarmat batteri pluggar in till ladduttaget vid 10:00 och föraren anger att hon kommer att avgå vid 2:00 P.M. och hon förväntar sig ett fullt laddat batteri, då har vi α = 10, β = 14, och e = 16 kWh. Låt x[t] betecknar den planerade energianvändningen för laddning vid tiden slot t. För att avsluta laddningen före avgångstiden β, krävs att (1) Här, τ är tidsintervallet mellan α och β med det lägsta priset. Observera att ovanstående analys fungerar vid varje ladduttag, oavsett antalet ladduttag vid laddstationen. Ett undantag är när laddstationen är mycket stor och därmed prissättare, som vi påpekar i avsnitt IV. Antag därefter att tidsfristen β inte är känd. När en EV kopplas in identifieras dess laddningsnivå e och starttid α. Avgiftsstationen får dock inte veta när elfordonet avgår. Trots detta måste laddstationen fungera på ett sådant sätt att elkostnaderna minimeras. Systeminställningen är som följer. I början av varje tidsslot t ≥ α, om användaren anger att EV kommer att avgå i slutet av den nuvarande tidsslot, då måste vi ställa in eftersom vi måste säkerställa avslutande laddning före användarens avgång som krävs av (1). Annars, dvs., om användaren inte anger att det kommer att avgå i slutet av den nuvarande tidsslot t, då laddningsstationen står inför osäkerheten om att EV kan avgå vid någon av de framtida tidsslots t + 1,....., T. Vid varje tidpunkt slot t ≥ α, låt π k och Pr{β = k och β > t} anger den villkorliga sannolikheten att användaren kommer att avgå i en framtida tidsslot k, med vetskap om att det inte kommer att avgå vid slutet av den nuvarande tidsslot t. Vi har T k=t+1 π k på = 1. Den förväntade kostnaden för el för att avsluta laddningen beräknas som där likheten beror på kravet på avgångstid i (2). Frågan är: hur kan vi minimera ovanstående kostnad? Att besvara ovanstående fråga är trivialt vid t = T, eftersom från (2) har vi inget annat val än att ställa x[T] = e − X [T]. Men för att hitta svaret för t = α,. ., T − 1, vi måste först definiera en ny notation. [t] Teorem 1: I början av tid slits t = α,. ., T − 1, om användaren anger att det kommer att avgå i slutet av
|
Samtidigt anser Mohsenian-Rad och Ghamkhari REF att avgångstiderna för elfordon är osäkra.
| 37,112,101 |
Optimal Charging of Electric Vehicles With Uncertain Departure Times: A Closed-Form Solution
|
{'venue': 'IEEE Transactions on Smart Grid', 'journal': 'IEEE Transactions on Smart Grid', 'mag_field_of_study': ['Engineering', 'Computer Science']}
| 15,030 |
Att ställa feldiagnoser har fått stor uppmärksamhet under de senaste årtiondena. Den består av två huvuddelar: vibrationssignalextraktion och tillståndsklassificering för de extraherade egenskaperna. I detta dokument introducerades multiscale permutation entropy (MPE) för funktionsutdragning från felaktiga lagervibrationssignaler. Efter att ha extraherat funktionsvektorer av MPE, stödvektorn maskin (SVM) applicerades för att automatisera feldiagnos proceduren. Simuleringsresultat visade att den föreslagna metoden är en mycket kraftfull algoritm för bäring feldiagnos och har mycket bättre prestanda än de metoder som bygger på en enda skala permutation entropi (PE) och flerskalig entropi (MSE).
|
Till exempel Wu et al. REF undersökte genomförbarheten och prestandan hos MPE för feldiagnos av lager, där MPE användes för funktionsextraktion från lagervibrationssignaler.
| 18,813,930 |
Bearing Fault Diagnosis Based on Multiscale Permutation Entropy and Support Vector Machine
|
{'venue': 'Entropy', 'journal': 'Entropy', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 15,031 |
Vissa apputvecklare, som stimuleras av penningvinster, lanserar bedrägliga kampanjer för att öka sina appars ranking i mobilapparnas butiker. De betalar vissa tjänsteleverantörer för att öka servicen, som sedan organiserar stora grupper av samverkande angripare för att vidta bedrägliga åtgärder som att publicera höga app-betyg eller blåsa upp appars nedladdningar. Om sådana attacker inte åtgärdas i tid, kommer de i allt högre grad att skada hälsan i app-ekosystemen. I detta arbete föreslår vi ett nytt tillvägagångssätt för att identifiera angripare av samverkande kampanjgrupper i en appbutik. Vår strategi utnyttjar de ovanliga rankning förändringsmönster av appar för att identifiera marknadsförda appar, mäter deras parvisa likhet, former riktade app kluster (TACs), och slutligen identifierar de collusive gruppmedlemmar. Vår utvärdering baserad på en datauppsättning av Apples China App Store har visat att vår strategi är kompetent och skalbar för att rapportera mycket misstänkta appar och granskare. App stores kan använda våra tekniker för att begränsa de misstänkta listorna för ytterligare utredning.
|
En nyligen genomförd studie rapporterade också förekomsten av samverkande attacker för att främja rankingen av appar på den kinesiska Apple marknaden REF.
| 18,312,031 |
Toward Detecting Collusive Ranking Manipulation Attackers in Mobile App Markets
|
{'venue': "ASIA CCS '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,032 |
Vi presenterar den första algoritmen som implementerar ett abstrakt MAC-skikt (absMAC) i den trådlösa nätverksmodellen Signal-to-interference-plus-NoiseRatio (SINR). Vi bevisar först att effektiva SINR-implementeringar inte är möjliga för standard absMAC-specifikationen. Vi ändrar den specifikationen till en "ungefärlig" version som bättre passar SINR-modellen. Vi ger en effektiv algoritm för att genomföra den ändrade specifikationen, och använder den för att härleda effektiva algoritmer för problem på högre nivå med global sändning och konsensus. I synnerhet visar vi att absMAC framsteg egenskapen har ingen effektiv implementering i termer av SINR stark konnektivitet graf G1−ε, som innehåller kanter mellan noder av avstånd som högst (1−ε) gånger överföringsområdet, där ε > 0 är en liten konstant som kan väljas av användaren. Denna förlopp egendom begränsar tiden tills en nod är garanterad att ta emot något meddelande när åtminstone en av dess grannar sänder. För att övervinna denna begränsning inför vi det något svagare begreppet ungefärliga framsteg i absMAC-specifikationen. Vi tillhandahåller ett snabbt genomförande av den ändrade specifikationen, baserat på att dela upp algoritmen [10] i lokala och globala delar. Vi analyserar vår algoritm i termer av lokala parametrar såsom nod grader, snarare än globala parametrar såsom det totala antalet noder. Ett viktigt bidrag är vår demonstration att en sådan lokal analys är möjlig även i närvaro av global inblandning. Vår absMAC-algoritm leder till flera nya, effektiva algoritmer för att lösa problem på högre nivå i SINR-modellen. Nämligen, genom att kombinera vår algoritm med högnivåalgoritmer från [26] får vi en förbättrad (jämfört med [10] Tillstånd att göra digitala eller hårda kopior av hela eller delar av detta arbete för personligt eller klassrum användning beviljas utan avgift, förutsatt att kopior inte görs eller distribueras för vinst eller kommersiella fördelar och att kopior bär detta meddelande och den fullständiga hänvisning på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, eller återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. Algoritm för global enmeddelandeutsändning i SINR-modellen och den första effektiva algoritmen för flermeddelandeutsändning i den modellen. Vi härleder också den första effektiva algoritmen för nätverksomfattande konsensus, med hjälp av ett resultat av [32]. Detta arbete visar att man kan utveckla effektiva algoritmer för att lösa problem på hög nivå i SINR-modellen, med hjälp av grafbaserade algoritmer över ett lokalt abstractionlager som döljer teknikaliteterna i SINR-plattformen såsom global störning. Våra algoritmer kräver inga gränser på nätverksstorleken, eller förmågan att mäta signalstyrka, eller bäraravkänning, eller synkron vakna upp.
|
Den fullständiga versionen av detta dokument ger en lägre gräns.
| 17,236,557 |
A Local Broadcast Layer for the SINR Network Model
|
{'venue': "PODC '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,033 |
Trots den konsekventa tillväxten på de globala marknaderna och framväxten av spjutspetsteknik är byggarbetsplatser fortfarande bland de farligaste arbetsplatserna med extremt höga olycksfrekvenser. I säkerhetshanteringsprocessen är det nödvändigt att se över och bedöma en mängd olika säkerhetsdokument och säkerhetsdata. Många offentliga myndigheter tillhandahåller öppen tillgång till olycksdata, säkerhetschecklistor, mallar och andra användbara dokument för säkerhetshantering. Dessa säkerhetsrelaterade innehåll är dock mångskiftande, fragmenterade och lagras ofta på ostrukturerade sätt. Som ett resultat av detta är det svårt och ineffektivt att hitta och använda nödvändig säkerhetsinformation för specifika säkerhetsuppgifter. För att ta itu med denna fråga föreslås i detta dokument ett innovativt tillvägagångssätt med hjälp av länkade data och semantisk webbteknik för integrering och utbyte av byggsäkerhetsinformation från olika källor. Ett byggsäkerhetsinnehåll ontologi utvecklas, och byggsäkerhetsinformation från olyckor, Job Hazard Analyses (JSA), säkerhetsregler och utbildningsinnehåll integreras genom RDF-format och SPARQL-frågor. För att möjliggöra en smidig och effektiv insamling av information utvecklar denna studie en kategorisering och klassificering av säkerhetsrelaterat innehåll för säkerhetshanteringsprocesser. Det föreslagna systemet förväntas förbättra tillgången till och dela information om byggsäkerhet, minska söktiden för data och förbättra datanoggrannheten. Genom denna metod kan man minska antalet säkerhetstillbud och förbättra säkerhetshanteringen och säkerhetsprestandan.
|
Pedro och Al. (2017) använda en ontologi för att länka och dela Job Hazard Analyses (JSA), säkerhetsregler och utbildningsinnehåll för byggsäkerhet REF.
| 59,418,326 |
Linked Data System for Sharing Construction Safety Information
|
{'venue': 'Proceedings of the 34th International Symposium on Automation and Robotics in Construction (ISARC)', 'journal': 'Proceedings of the 34th International Symposium on Automation and Robotics in Construction (ISARC)', 'mag_field_of_study': ['Engineering']}
| 15,034 |
Bakgrund: Upphettning av gensjukdomsföreningar som publiceras i litteraturen bör baseras på noggranna och frekventa undersökningar av de referenser som i hög grad är relaterade till specifika gensjukdomsföreningar. Återhämtning av referenser är därför av avgörande betydelse för en korrekt och fullständig kuration i rätt tid. Vi presenterar en teknik CRFref (Conclusive, Rich, and Focused Referenser) som, med tanke på en gensjukdom par < g, d>, rankar högt de biomedicinska referenser som sannolikt ger avgörande, rika och fokuserade resultat om g och d. Sådana referenser förväntas vara starkt relaterade till sambandet mellan g och d. CRFref rankar kandidatreferenser baserat på deras poäng. För att uppskatta poängen för en referens r, uppskattar och integrerar CRFref tre åtgärder: grad av slutgiltighet, grad av rikedom och grad av fokus på r med avseende på < g, d>. För att utvärdera CRFref, experiment utförs på över hundra tusen referenser för över tusen gensjukdom par. Experimentella resultat visar att CRFref presterar betydligt bättre än flera typiska typer av baslinjer i rankning höga de referenser som expertkuratorer väljer att utveckla sammanfattningar för specifika gensjukdomsföreningar. Slutsats: CRFref är en bra teknik för att rangordna höga referenser som är starkt relaterade till specifika gensjukdomsföreningar. Det kan införlivas i befintliga sökmotorer för att prioritera biomedicinska referenser för curatorer och forskare, samt de text gruvsystem som syftar till att studera gensjukdomar föreningar.
|
Liu, ReyLong och Chia-Chun Shih använde grader av avgörande, rika och fokuserade referenser för att ranka gen sjukdom associationer med hjälp av tekniken CRFref REF.
| 6,084,444 |
Identification of highly related references about gene-disease association
|
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 15,035 |
Abstract-Det har nyligen funnits ett betydande intresse för organisationen av routing information för att möjliggöra snabb uppslagning av IP-adresser. Intresset motiveras främst av målet att bygga multi-Gb / s routrar för Internet, utan att behöva förlita sig på flera lager switching tekniker. Vi tar itu med detta problem med hjälp av en LC-trie, en trie struktur med kombinerad väg och nivåkompression. Denna datastruktur gör det möjligt för oss att bygga effektiva, kompakta och lätt sökbara implementationer av en IP routingtabell. Strukturen kan lagra både unicast- och multicast-adresser med samma genomsnittliga söktider. Sökdjupet ökar som till (log log n) med antalet poster i tabellen för en stor klass av distributioner och det är oberoende av längden på adresserna. En nod i triet kan kodas med fyra byte. Endast storleken på basvektorn, som innehåller söksträngarna, växer linjärt med längden på adresserna när den utvidgas från 4 till 16 byte, som krävs av övergången från IP version 4 till version 6. Vi presenterar den grundläggande strukturen, samt en adaptiv version som ungefär fördubblar antalet uppslag per sekund. Mer allmänna klassificeringar av paket som behövs för delning av länkar, kvalitet på tillhandahållandet av tjänster och för multicast- och multipatrouting diskuteras också. Våra experimentella resultat jämför gynnsamt med dem som tidigare rapporterats i forskningslitteraturen.
|
LC-trie REF är en trie struktur med kombinerad vägkomprimering och nivåkomprimering för att minska antalet noder, men det är inte lämpligt för ett stort antal poster och det stöder inte inkrementell uppdatering.
| 2,317,230 |
IP-Address Lookup Using LC-Tries
|
{'venue': 'IEEE J. Sel. Areas Commun.', 'journal': 'IEEE J. Sel. Areas Commun.', 'mag_field_of_study': ['Computer Science']}
| 15,036 |
Abstract-identifierande ledare och följare i sociala nätverk online är viktigt för olika tillämpningar inom många områden såsom reklam, samhällshälsokampanjer, administrativ vetenskap, och även politik. I detta dokument studerar vi problemet med att identifiera ledare och följare i sociala nätverk online med hjälp av användarinteraktionsinformation. Vi föreslår en ny modell, kallad Longitudinal User Centered Influence (LUCI), som tar som input användarinteraktion information och samlar användare i fyra kategorier: introvert ledare, extrovert ledare, följare och neutrala. För att validera vår modell använder vi den först på en datamängd som samlats in från ett socialt nätverk som heter Everything2. Våra experimentella resultat visar att vår LUCI-modell uppnår en genomsnittlig klassificeringsnoggrannhet på upp till 90,3% i klassificeringen av användare som ledare och följare, där den grundläggande sanningen är baserad på användarnas märkta roller. För det andra tillämpar vi vår LUCI-modell på en datauppsättning som samlats in från Facebook och som består av interaktioner mellan mer än 3 miljoner användare under ett års tid. Vi har dock inte grundfakta för Facebook-användare. Därför analyserar vi flera viktiga topologiska egenskaper hos vänskapsgrafen för olika användarkategorier. Våra experimentella resultat visar att olika användarkategorier uppvisar olika topologiska egenskaper i vänskapsgrafen och dessa observerade egenskaper överensstämmer med de förväntade utifrån den allmänna definitionen av de fyra rollerna.
|
Med socialt nätverk i åtanke, en annan modell, Longitudinal User Centered Influence (LUCI) REF, använder interaktionen mellan bloggare och kategoriserade dem i fyra klasser av introvert ledare, extrovert ledare, anhängare och neutrala.
| 6,310,528 |
Identifying Leaders and Followers in Online Social Networks
|
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
| 15,037 |
Abstract-This paper behandlar problemet med reläval i trådlösa drivna kooperativa nätverk, där rumsligt slumpmässiga reläer är utrustade med energilagringsenheter, t.ex. batterier. I motsats till konventionella tekniker och för att minska komplexiteten kan relänoder antingen skörda energi från källsignalen (vid oladdat batteri) eller försöka avkoda och vidarebefordra den (vid laddat batteri). Flera system för förmedlingsval som motsvarar olika krav på statlig information och komplexitet i genomförandet föreslås. Batteriets laddnings-/urladdningsbeteende är modellerat som en tvåstatig Markov-kedja och analytiska uttryck för steadystate-distributionen och sannolikheten för avbrott erhålls för varje reläurval. Vi visar att energilagringen i hög grad påverkar systemets prestanda och resulterar i en noll-mångfaldsvinst vid höga signal-till-brus-förhållanden. Konvergensgolven är beroende av batteriets stabila fördelning och härleds i sluten form med hjälp av lämpliga approximationer. De föreslagna systemen för urval av reläer generaliseras till ett storskaligt nätverk med flera åtkomstpunkter (APs), där reläer hjälper närmaste AP och lider av fleranvändarinterferens.
|
Dessutom använder Krikidis REF batteriinformationen från EH-relays i system för urval av reläer.
| 12,554,310 |
Relay Selection in Wireless Powered Cooperative Networks with Energy Storage
|
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 15,038 |
Vid konstruktion av ett System-på-Chip (SoC) med hjälp av ett Networkon-Chip (NoC), kiselområde och strömförbrukning är två nyckelelement för att optimera. En dominerande del av NoC-området och strömförbrukningen beror på de buffertar i nätverksgränssnitten som behövs för att frikoppla beräkningen från kommunikationen. En sådan frikoppling förhindrar att IP-block blockeras på grund av kommunikationslänken. Storleken på dessa buffertar är särskilt viktig i realtidssystem, eftersom de bör vara tillräckligt stora för att uppnå förutsägbara prestanda. För att se till att buffertarna inte svämmar över behövs endto-end flödeskontroll. En form av end-to-end flödeskontroll som används i NoCs är kreditbaserad flödeskontroll. Detta formulär ställer ytterligare krav på buffertstorlekarna, eftersom förseningarna i flödeskontrollen måste beaktas. I detta arbete presenterar vi en algoritm för att hitta minimala frikopplingsbuffertstorlekar för en NoC med TDMA och kreditbaserad end-to-end flödeskontroll, med förbehåll för prestandabegränsningarna för de applikationer som körs på SoC. Våra experiment visar att vår metod resulterar i en 84% minskning av det totala NoC buffertområdet jämfört med de toppmoderna buffert-siffra metoder. Dessutom har vår metod en låg drifttid komplexitet, vilket ger resultat i storleksordningen minuter för våra experiment, vilket möjliggör snabb konstruktion cykler för stora SoC-konstruktioner. Slutligen kan vår metod ta hänsyn till flera användningsfall som körs på samma SoC.
|
Coenen m.fl. REF presenterar en algoritm för storleksbuffertar vid IP-målet, i ett NoC med hjälp av virtuella kanaler och kreditbaserad flödeskontroll.
| 17,320,946 |
A buffer-sizing algorithm for networks on chip using TDMA and credit-based end-to-end flow control
|
{'venue': "CODES+ISSS '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,039 |
I detta dokument föreslås ett nytt tillvägagångssätt för intrångsdetekteringssystem baserat på provtagning med minsta Square Support Vector Machine (LS-SVM). Beslutsfattandet sker i två steg. I det första steget är hela datasetet indelat i några förutbestämda godtyckliga undergrupper. Den föreslagna algoritmen väljer representativa prover från dessa undergrupper så att proverna återspeglar hela datauppsättningen. Ett optimalt fördelningssystem utvecklas baserat på variabiliteten i observationerna inom undergrupperna. I det andra steget, minst kvadratstöd vektor maskin (LS-SVM) tillämpas på de extraherade prov för att upptäcka intrång. Vi kallar den föreslagna algoritmen som optimal allokering baserad minst kvadratstöd vektor maskin (OA-LS-SVM) för IDS. För att visa den föreslagna metodens effektivitet utförs försöken på KDD 99-databasen, som anses vara ett de facto-riktmärke för utvärdering av intrångsdetektionsalgoritm. Alla binära klasser och flera klasser testas och vårt föreslagna tillvägagångssätt ger en realistisk prestanda när det gäller noggrannhet och effektivitet. Slutligen visas också användbarheten av den föreslagna algoritmen för inkrementella datauppsättningar.
|
Nyligen, Kabir et al. I REF föreslogs en optimal tilldelningsbaserad minsta kvadrat-SVM (OA-LS-SVM) för intrångsdetekteringssystem.
| 13,768,559 |
A novel statistical technique for intrusion detection systems
|
{'venue': 'Future Gener. Comput. Syst.', 'journal': 'Future Gener. Comput. Syst.', 'mag_field_of_study': ['Computer Science']}
| 15,040 |
Att hitta och rätta buggar är tidskrävande aktiviteter inom mjukvaruutveckling. Spektrumbaserad fellokalisering syftar till att identifiera den felaktiga positionen i källkoden baserat på utförandet av testfall. Misslyckande test fall och deras påståenden bildar test orakel för fel beteende i systemet under analys. I detta dokument föreslår vi ett nytt koncept för spektrumdriven testfallsrening för att förbättra fellokaliseringen. Målet med testfallsrening är att separera befintliga testfall till små fraktioner (så kallade renade testfall) och att förbättra testoraklarna för att ytterligare lokalisera fel. Kombination med en original fel lokaliseringsteknik (t.ex. Tarantula), test fall rening resulterar i bättre rangordna program uttalanden. Våra experiment på 1800 fel i sex Java-program med öppen källkod visar att testfallsrening effektivt kan förbättra befintliga fellokaliseringstekniker.
|
Xuan & Monperrus REF utvecklar testfall rening, som separerar test fall till små fraktioner för att förbättra testet oracle för fel lokalisering.
| 14,540,841 |
Test Case Purification for Improving Fault Localization
|
{'venue': 'FSE - 22nd ACM SIGSOFT International Symposium on the Foundations of Software Engineering (2014)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,041 |
Abstract Ett recommender system är en webbteknik som proaktivt föreslår objekt av intresse för användare baserat på deras objektiva beteende eller uttryckligen angivna preferenser. Utvärderingar av rekommenderade system (RS) har traditionellt fokuserat på algoritmers prestanda. Många forskare har dock nyligen börjat undersöka systemeffektivitet och utvärderingskriterier ur användarnas perspektiv. I den här artikeln kartlägger vi toppmodern användarupplevelseforskning i RS genom att undersöka hur forskare har utvärderat designmetoder som ökar RS förmåga att hjälpa användare att hitta den information eller produkt som de verkligen föredrar, interagerar med systemet och formar förtroende med RS genom systemtransparens, kontroll och integritetsbevarande mekanismer slutligen, undersöker vi hur dessa systemfunktioner påverkar användarnas användning av tekniken. Vi sammanfattar det befintliga arbetet kring tre viktiga interaktionsaktiviteter mellan användaren och systemet: den inledande preferensutvecklingsprocessen, preferensförfiningsprocessen och presentationen av systemets rekommendationsresultat. Dessutom kommer vi även att täcka de senaste utvärderingsramarna som mäter ett rekommendationssystems övergripande uppfattningsförmåga och hur dessa egenskaper påverkar användarnas beteende intentioner. De viktigaste resultaten sammanfattas i en uppsättning designriktlinjer som kan ge användbara förslag till forskare och praktiker om utformning och utveckling av effektiva rekommendationssystem. Undersökningen lägger också grunden för att forskare ska kunna ägna sig åt framtida ämnen som inte omfattas av befintliga metoder.
|
P.O. et al. REF undersöker hur forskare har utvärderat designmetoder som förstärker recommender system förmåga att hjälpa användare att hitta den information eller produkt som de föredrar.
| 7,919,236 |
Evaluating recommender systems from the user’s perspective: survey of the state of the art
|
{'venue': 'User Modeling and User-Adapted Interaction', 'journal': 'User Modeling and User-Adapted Interaction', 'mag_field_of_study': ['Computer Science']}
| 15,042 |
Behovet av rättvis tillgång till hälso- och sjukvård av hög kvalitet fastställs i FN:s (FN) mål för hållbar utveckling, som fastställer FN:s utvecklingsagenda för de kommande 15 åren. Det tredje målet för hållbar utveckling är särskilt inriktat på behovet av att "säkra ett sunt liv och främja välbefinnande för alla i alla åldrar". I detta dokument bygger vi på att 5G trådlös teknik, tillsammans med samtidig ny teknik (som sakernas internet, big data, artificiell intelligens och maskininlärning), kommer att omvandla globala hälso- och sjukvårdssystem inom en snar framtid. Vår optimism kring 5G-aktiverad hälso- och sjukvård härrör från en sammanflätning av betydande tekniska pushes som redan är på spel: bortsett från tillgången till hög-genomströmning låg-latent trådlös anslutning, andra viktiga faktorer inkluderar demokratisering av datortjänster genom molndata, demokratisering av artificiell intelligens (AI) och kognitiv databehandling (t.ex. IBM Watson); och kommoditisering av data genom crowdsourcing och digitala avgaser. Dessa tekniker tillsammans kan slutligen knäcka ett dysfunktionellt hälso- och sjukvårdssystem som till stor del har varit oemottagligt för tekniska innovationer. Vi belyser de kvarstående bristerna i det nuvarande hälso- och sjukvårdssystemet och visar sedan hur den 5G-aktiverade hälsovårdsrevolutionen kan åtgärda dessa brister. Vi lyfter också fram öppna tekniska forskningsutmaningar, och potentiella fallgropar, som kan hindra utvecklingen av en sådan 5G-aktiverad hälsorevolution.
|
Författarna i REF, byggde fallet att 5G trådlös teknik, tillsammans med samtidiga framväxande tekniker som sakernas internet, big data, artificiell intelligens och maskininlärning, kommer att omvandla globala hälso-och sjukvårdssystem inom en snar framtid.
| 11,391,174 |
How 5G Wireless (and Concomitant Technologies) Will Revolutionize Healthcare
|
{'venue': 'Future Internet', 'journal': 'Future Internet', 'mag_field_of_study': ['Computer Science']}
| 15,043 |
Fenotypisk felklassificering (mellan fall) har visat sig minska förmågan att upptäcka association i genetiska studier. Det är dock tänkbart att komplexa egenskaper är heterogena med avseende på individuell genetisk känslighet och sjukdom patofysiologi, och att effekten av heterogenitet har en större omfattning än effekten av fenotypningsfel. Även om det är ett intuitivt tydligt begrepp, har heterogenitetens inverkan på genetiska studier av vanliga sjukdomar inte fått mycket uppmärksamhet. Här undersöker vi påverkan av fenotypisk och genetisk heterogenitet på den statistiska kraften i genom breda associationsstudier (GWAS). Vi genomförde först en studie av simulerade genotypiska och fenotypiska data. Därefter analyserade vi Wellcome Trust Case-Control Consortium (WTCCC) data för diabetes mellitus (DM) typ 1 (T1D) och typ 2 (T2D), med hjälp av olika proportioner av varje typ av diabetes för att undersöka inverkan av heterogenitet på styrkan och statistisk signifikansen av association som tidigare funnits i WTCCC data. I både simulerade och verkliga data minskade heterogeniteten (närvaron av ''icke-fall'') den statistiska förmågan att upptäcka genetisk association och kraftigt minskade uppskattningarna av risker till följd av genetisk variation. Detta resultat stöddes också av en analys av loci som validerades i efterföljande storskaliga metaanalyser. Till exempel ökar heterogeniteten på 50 % den önskade provstorleken med ungefär tre gånger. Dessa resultat tyder på att exakt fenotypdelinering kan vara viktigare för att upptäcka sanna genetiska associationer än ökning av provstorleken.
|
Nyligen undersökte Manchia och kollegor inverkan av heterogenitet inom en klinisk fenotyp på genetisk association REF.
| 18,321,839 |
The Impact of Phenotypic and Genetic Heterogeneity on Results of Genome Wide Association Studies of Complex Diseases
|
{'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Biology', 'Medicine']}
| 15,044 |
I realtidssystem med trådar, resurslåsning och prioriterad schemaläggning står man inför problemet med Priority Inversion. Detta problem kan göra beteendet hos trådar oförutsägbart och de resulterande buggar kan vara svårt att hitta. Det prioriterade arvsprotokollet är en lösning som genomförs i många system för att lösa detta problem, men riktigheten i denna lösning har aldrig formellt bekräftats i ett teoremtest. Som redan påpekats i litteraturen utgör den ursprungliga informella undersökningen av Arvsrättsprotokollet ett korrekt "säkert" för en felaktig algoritm. I detta dokument löser vi problemet med detta bevis genom att göra alla begrepp exakta och genomföra en variant av en lösning som föreslagits tidigare. Vi generaliserar också schemaläggningsproblemet till praktiskt taget relevanta fall där kritiska sektioner kan överlappa varandra. Vår formalisering i Isabelle/HOL bygger på Paulsons induktiva inställning till protokollverifiering. Formaliseringen avslöjar inte bara fakta som förbises i litteraturen, utan bidrar också till ett effektivt genomförande av detta protokoll. Tidigare genomföranden kritiserades för ineffektiva. Vår implementering bygger på det lilla PINTOS-operativsystemet som används för undervisning.
|
I REF specificerar formellt kravet på korrekthet (ingen prioritetsinversion) i protokollet om prioriterade arv med hjälp av Isabelle/HOL, och bevisar att ett genomförande är korrekt, men tidsmässiga egenskaper är inte modellerade.
| 10,045,391 |
Priority Inheritance Protocol Proved Correct
|
{'venue': 'ITP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,045 |
Vi ger den första optimala algoritmen för att uppskatta antalet olika element i en dataström, stänga en lång rad teoretisk forskning om detta problem som inleddes av Flajolet och Martin i deras seminal papper i FOCS 1983. Detta problem har applikationer för att fråga optimering, Internet routing, nätverk topologi, och data mining. För en ström av index i {1,..., n} beräknar vår algoritm en (1 ± ε)-uppskattning med en optimal O(ε −2 +log(n)) bitar av utrymme med 2/3 framgångsannolikhet, där 0 < ε < 1 ges. Denna sannolikhet kan förstärkas genom oberoende upprepning. Dessutom processar vår algoritm varje ström uppdatering i O(1) värsta fall tid, och kan rapportera en uppskattning vid någon punkt mittström i O(1) värsta fall tid, vilket löser både utrymme och tids komplexitet samtidigt. Vi ger också en algoritm för att uppskatta hamming normen för en ström, en generalisering av antalet olika element, som är användbart vid datarengöring, paketspårning och databasrevision. Vår algoritm använder nästan optimalt utrymme och har optimala uppdaterings- och rapporteringstider för O(1).
|
Kane, Nelson och Woodruff REF ger en optimal algoritm, med hjälp av O 1 på 2 + log n bitar av utrymme, för att ge en (1 + på)- tillnärmning till antalet olika element i en dataström, med konstant sannolikhet.
| 10,006,932 |
An optimal algorithm for the distinct elements problem
|
{'venue': "PODS '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,046 |
Abstrakt. Människor känner igen den visuella världen på flera nivåer: vi kategoriserar utan ansträngning scener och upptäcker föremål inuti, samtidigt som vi identifierar föremålens texturer och ytor tillsammans med deras olika kompositionsdelar. I denna uppsats studerar vi en ny uppgift som heter Unified Perceptual Parsing, vilket kräver att maskinseendesystemen känner igen så många visuella begrepp som möjligt från en given bild. En multi-task ram som kallas UPerNet och en utbildningsstrategi utvecklas för att lära av heterogena bildanteckningar. Vi jämför vårt ramverk på Unid Perceptual Parsing och visar att det effektivt kan segmentera ett brett spektrum av begrepp från bilder. De utbildade nätverken tillämpas vidare för att upptäcka visuell kunskap i naturliga scener 1.
|
Baserat på FPN och PSP-Net föreslås ett ramverk för flera uppgifter i REF och visas vara mångsidigt när det gäller segmentering av ett brett spektrum av visuella begrepp.
| 50,781,105 |
Unified Perceptual Parsing for Scene Understanding
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 15,047 |
ABSTRACT Detta papper överväger en max-min-hastighet optimering problem med praktisk icke-linjär energi skörd (NLEH) där en multi-antenna hybrid åtkomstpunkt överför kraft till enheterna via energi strålformning (BF), följt av de enheter som skickar sina data samtidigt genom att konsumera den skördade energin. Med hjälp av en sigmoid NLEH-modell med känslighet tar vi itu med problemet med gemensam energi-BF och tidstilldelning i två steg genom att lösa problemet med NLEH-aware energi-BF för given tidstilldelning och sedan lösa problemet med konvex tidstilldelning formulerad med den ovan nämnda energi-BF-lösningen. Vi föreslår flera iterativa metoder för att lösa problemet med icke-konvex energi BF med och utan approximation av NLEH-funktionen. Dessutom presenterar vi ett asymptotiskt energi BF-problem för ett stort antennsystem som kan lösas med låg komplexitet. Resultaten visar att algoritmerna som utvecklats med en enkel NLEH approximation ger nästan samma prestanda med de algoritmer som utvecklats med den exakta NLEH-funktionen. Dessutom bör känslighetsregionen i NLEH övervägas mer noggrant än mättnadsregionen i problemet med optimering av maxmineralhastigheten. Energi strålformning, Internet-of-Things, stora antennsystem, icke-linjär energi skörd, trådlös kommunikation.
|
Dessutom har arbete REF tillämpat en sigmoid energi skörd modell för att hantera problemet med max-min genomströmning där optimal schema för tidstilldelning och RF-stråleformning föreslogs.
| 182,253,844 |
Max-Min Fair Energy Beamforming for Wireless Powered Communication With Non-Linear Energy Harvesting
|
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
| 15,048 |
Ett peer-to-peer-nätverk som gör det möjligt för olika parter att gemensamt lagra och köra beräkningar på data samtidigt som datan hålls helt privat. Enigmas beräkningsmodell bygger på en mycket optimerad version av säker flerpartsberäkning, som garanteras av ett kontrollerbart hemligt delningssystem. För lagring använder vi en modifierad distribuerad hashtable för att hålla hemliga delade data. En extern blockchain används som controller i nätverket, hanterar åtkomstkontroll, identiteter och fungerar som en manipuleringssäker logg över händelser. Säkerhetsinsättningar och avgifter uppmuntrar drift, korrekthet och rättvisa i systemet. Likt Bitcoin tar Enigma bort behovet av en betrodd tredje part, vilket möjliggör autonom kontroll av personuppgifter. För första gången kan användarna dela sina data med kryptografiska garantier för sin integritet. Sedan den tidiga mänsklighetens historia har centraliseringen varit en stor konkurrensfördel. Samhällen med centraliserad styrning kunde utveckla mer avancerad teknik, samla mer resurser och öka sin befolkning snabbare [1]. Allteftersom samhällen utvecklades avslöjades de negativa effekterna av centralisering av makten: korruption, ojämlikhet, bevarande av status quo och maktmissbruk. Det visar sig att en viss maktfördelning [2] är nödvändig. I modern tid strävar vi efter att hitta en balans mellan modellerna, maximera produktionen och effektiviteten med centraliserad kontroll, bevakas av kontroller och balanser av decentraliserad styrning. Den ursprungliga berättelsen om webben är en av radikal decentralisering och frihet [3]. Under det senaste årtiondet har webbens otroliga tillväxt förenats med ökad centralisering. Få stora företag äger nu viktiga tidpunkter på webben, och därmed en hel del av de data som skapas på webben. Bristen på insyn och kontroll över dessa organisationer avslöjar återigen de negativa aspekterna av centralisering: manipulation [4], övervakning [5], och frekventa dataintrång [6]. Bitcoin [9] och andra blockkedjor [10] (t.ex. Ethereum) utlovar en ny framtid. Internettillämpningar kan nu byggas med en decentraliserad arkitektur, där ingen enskild part har absolut makt och kontroll. Den offentliga karaktären av blockchain garanterar öppenhet över hur applikationer fungerar och lämnar en obestridlig rekord av aktiviteter, vilket ger starka incitament för ärligt beteende. Bitcoin valutan var den första sådan ansökan, initiera ett nytt paradigm till webben. Blockkedjans intensiva verifiering och offentliga karaktär begränsar dock potentiella användningsfall. Moderna applikationer använder enorma mängder data och gör omfattande analyser av dessa data. Denna begränsning innebär att endast förvaltningskod kan köras på blockkedjan [7]. Problemet är att en stor del av de känsligaste delarna av moderna applikationer kräver tung behandling av privata data. I sin nuvarande design kan blockkedjor inte hantera integritet alls. Dessutom är de inte väl lämpade för tunga beräkningar. Deras offentliga natur innebär att privata data skulle flöda genom varje full nod på blockkedjan, helt exponerad. - Vad är det för fel på dig?
|
Enigma REF föreslår användning av Secure Multi-Party Computation som ett byggblock för decentraliserad körning av SCs på privata data, samtidigt som man förlitar sig på en extern blockchainbaserad DL för identitetshantering, åtkomstkontroll och en manipuleringssäker händelselogg.
| 13,427,156 |
Enigma: Decentralized Computation Platform with Guaranteed Privacy
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 15,049 |
Syftet med detta papper är att visa att för varje färg utrymme finns det ett optimalt hud detektorsystem så att prestandan för alla dessa hud detektorer system är densamma. I detta syfte ges ett teoretiskt bevis och experiment presenteras som visar att hudens särskiljbarhet och inga hudklasser är oberoende av den valda färgrymden.
|
Trots prestandan hos de flesta hud detektorer är direkt relaterad till valet av färgrymd, REF visat att den optimala prestandan hos huden klassificerare är oberoende av färgrymden.
| 1,504,713 |
Optimum color spaces for skin detection
|
{'venue': 'Proceedings 2001 International Conference on Image Processing (Cat. No.01CH37205)', 'journal': 'Proceedings 2001 International Conference on Image Processing (Cat. No.01CH37205)', 'mag_field_of_study': ['Computer Science']}
| 15,050 |
Sammanfattning av denna webbsida: Facial Expression Recognition (FER) kan i stor utsträckning tillämpas på olika forskningsområden, såsom diagnostisering av psykiska sjukdomar och upptäckt av mänsklig social/fysiologisk interaktion. Med den framväxande avancerade tekniken inom hårdvara och sensorer har FER-system utvecklats för att stödja verkliga applikationsscener, istället för laboratoriemiljöer. Även om de laboratoriekontrollerade FER-systemen uppnår mycket hög noggrannhet, ungefär 97%, står den tekniska överföringen från laboratoriet till verkliga applikationer inför en stor barriär med mycket låg noggrannhet, cirka 50%. I den här undersökningen diskuterar vi omfattande tre viktiga utmaningar i de okoncentrerade verkliga miljöerna, såsom ljusvariation, huvudställning och ämnesberoende, som kanske inte kan lösas genom att bara analysera bilder/videor i FER-systemet. Vi fokuserar på de sensorer som kan ge extra information och hjälpa FER-systemen att upptäcka känslor i både statiska bilder och videosekvenser. Vi introducerar tre kategorier av sensorer som kan bidra till att förbättra noggrannheten och tillförlitligheten i ett expression igenkänningssystem genom att ta itu med de utmaningar som nämns ovan i ren bild / video bearbetning. Den första gruppen är detaljerade ansiktssensorer, som upptäcker en liten dynamisk förändring av en ansiktskomponent, såsom eyetrackers, som kan bidra till att differentiera bakgrundsljudet och ansiktsdragen. Den andra är icke-visuella sensorer, såsom ljud, djup, och EEG-sensorer, som ger extra information utöver visuell dimension och förbättrar igenkännbarheten till exempel i ljusvariation och läge skiftläge. Den sista är målfokuserade sensorer, såsom infraröda värmesensorer, som kan underlätta FER-system för att filtrera värdelöst visuellt innehåll och kan bidra till att motstå ljusvariation. Vi diskuterar också metoderna för sammansmältning av olika ingångar som erhålls från multimodala sensorer i ett känslosystem. Vi granskar jämförelsevis de mest framträdande multimodala känslouttrycken och pekar på deras fördelar och begränsningar. Vi introducerar i korthet referensdatamängderna relaterade till FER-system för varje kategori av sensorer och utökar vår enkät till de öppna utmaningarna och frågorna. Samtidigt utformar vi en ram av ett uttryck igenkänningssystem, som använder multimodala sensordata (som tillhandahålls av de tre kategorierna av sensorer) för att ge fullständig information om känslor för att hjälpa den rena ansikte bild / video analys. Vi analyserar teoretiskt genomförbarheten och genomförbarheten av vårt nya uttryckssystem, särskilt för användning i den vilda miljön, och pekar på framtida riktningar för att utforma ett effektivt, emotionellt uttryckssystem.
|
Enligt Samadiani m.fl. REF, även om laboratorie FERs uppnå mycket hög noggrannhet (cirka 97%), problemet är den tekniska överföringen från labbet till verklig tillämpning där författarna står inför en stor barriär med mycket låg noggrannhet (cirka 50%).
| 125,045,987 |
A Review on Automatic Facial Expression Recognition Systems Assisted by Multimodal Sensor Data
|
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Engineering']}
| 15,051 |
Vi bidrar Policy Återanvändning som en teknik för att förbättra en förstärkning lärande agent med vägledning från tidigare lärt liknande politik. Vår metod bygger på att använda den tidigare politiken som en probabilistisk partiskhet där inlärningsagenten står inför tre val: utnyttjandet av den pågående lärda politiken, utforskandet av slumpmässiga outforskade åtgärder och utnyttjandet av tidigare politik. Vi introducerar algoritmen och dess huvudkomponenter: en prospekteringsstrategi för att inkludera den nya återanvändningsfördelen, och en likhetsfunktion för att uppskatta likheten mellan tidigare policyer med avseende på en ny. Vi ger empiriska resultat som visar att policy Återanvändning förbättrar inlärningsprestandan över olika strategier som lär sig utan återanvändning. Intressant och nästan som en bieffekt, Policy Återanvändning identifierar också klasser av liknande politik som avslöjar en grund för grundläggande politik inom området. Vi visar att en sådan grund kan byggas stegvis, vilket bidrar till att lära av strukturen i en domän.
|
Fernandez och Veloso REF använder policy återanvändning som en probabilistisk fördomar när du lär dig nya, liknande uppgifter inom enskilda agent domäner.
| 632,032 |
Probabilistic policy reuse in a reinforcement learning agent
|
{'venue': "AAMAS '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,052 |
Konvex potentiell minimering är de facto metoden för binär klassificering. Long and Servedio [2010] visade dock att under symmetrisk märkning av buller (SLN) kan minimering av konvex potential över en linjär funktionsklass resultera i klassificeringsprestanda som motsvarar slumpmässig gissning. Detta visar till synes att konvexa förluster inte är SLN-robust. I detta dokument föreslår vi en konvex, klassificeringskalibrerad förlust och bevisar att det är SLN-robust. Förlusten undviker Long and Servedio [2010] resultat genom att vara negativt obegränsad. Förlusten är en ändring av gångjärnsförlusten, där man inte klämmer vid noll; därför kallar vi det den ohingade förlusten. Vi visar att den optimala ohinged lösningen är likvärdig med en starkt regulariserad SVM, och är den begränsande lösningen för alla konvexa potential; detta innebär att stark 2 regularisering gör de flesta standardinlärare SLN-robust. Experiment bekräftar SLN-robustnessen av ohinged förlust. Binär klassificering är det kanoniska övervakade inlärningsproblemet. Med tanke på en instans utrymme X, och prover från viss distribution D över X × {±1}, är målet att lära sig en poäng s : X → R med låg felklassificering fel på framtida prover som dras från D. Vårt intresse är i det mer realistiska scenariot där eleven observerar prover från en distribution D, vilket är en korruption av D där etiketter har någon konstant sannolikhet att vändas. Målet är fortfarande att prestera bra med avseende på den oobserverade distribution D. Detta är känt som problemet med att lära sig från symmetrisk etikett buller (SLN inlärning) [Angluin och Laird, 1988]. Long and Servedio [2010] visade följande negativa resultat på vad som är möjligt i SLN-inlärning: det finns en linjärt separerbar D där, när eleven observerar viss korruption D med symmetriskt etikettljud av en icke-nollfrekvens, minimering av konvex potential över en linjär funktionsklass resulterar i klassificering prestanda på D som är likvärdig med slumpmässig gissning. Detta visar att konvexa förluster inte är "SLN-robust" och motiverar användningen av icke-konvexa förluster [Stempfel och Ralaivola, 2009, Masnadi-Shirazi et al., 2010, Ding och Vishwanathan, 2010, Denchev et al., 2012, Manwani och Sastry, 2013. I detta dokument föreslår vi en konvex förlust och bevisar att det är SLN-robust. Förlusten undviker resultatet av Long and Servedio [2010] på grund av att den är negativt obegränsad. Förlusten är en ändring av gångjärnsförlusten där man inte klämmer vid noll; därför kallar vi det den ohingade förlusten. Vi visar att detta är den unika konvex förlust (upp till skalning och översättning) som uppfyller en uppfattning om "stark SLN-robustness " (Proposition 4). Förutom att vara SLN-robust, har denna förlust flera attraktiva egenskaper, såsom att klassificeras-kalibreras (Proposition 5), konsekvent när minimeras på den korrumperade distributionen (Proposition 6), och har en lätt beräkningsbar optimal lösning som är skillnaden mellan två kärnan medel (Equation 9). Slutligen visar vi att denna optimala lösning är likvärdig med en starkt reglerad SVM (Proposition 7), och ett sådant resultat har mer allmänt för alla två olika konvex potential (Proposition 8), vilket innebär att stark 2 regularisering ger de flesta standardinlärare med SLN-robustness. Fixa en instans utrymme X. Vi betecknar med D viss fördelning över X × {±1}, med slumpmässiga variabler (X, Y) D. Alla D kan uttryckas via klass-villkoral fördelningar (P, Q) = (P(X på Y = 1), P(X Y = −1)) och basvärde π = P(Y = 1), eller motsvarande via marginalfördelning M = P(X) och klasssannolikhet funktion η : En poängtagare är någon funktion s : X → R. En förlust är någon funktion : {±1} × R → R. Vi använder −1, 1 för att hänvisa till (−1, ·) och är uppsättningen av -risker för alla poängtagare i S. En funktionsklass är någon F på R X. Med tanke på vissa F, den uppsättning begränsade Bayes-optimala poängtagare för en förlust är de poängtagare i F som minimerar -risk: Den uppsättning av (obegränsade) Bayes-optimal poängtagare är S D, * = S D, F, * för F = R X. Den begränsade -regret av en målgörare är dess överrisk jämfört med den för alla begränsade Bayes-optimal poängare: Binära klassificering är bekymrad över risken som motsvarar noll-one förlust, 01 : (y, v) → yv < 0 + Problemet med lärande med symmetrisk etikett buller (SLN lärande) är följande [Angluin och Laird, 1988, Kearns, 1998, Blum och Mitchell, 1998, Natarajan et al., 2013. För vissa notionala "ren" distribution D, som vi skulle vilja observera, observerar vi istället prover från vissa korrumperade distribution SLN(D, ρ), för vissa ρ på [0, 1/2]. Distributionen SLN(D, ρ) är sådan att den marginella fördelningen av instanser är oförändrad, men varje etikett är självständigt vända med sannolikhet ρ. Målet är att lära sig en målskytt från dessa skadade prover så att L D 01 (s) är liten. För varje mängd i D anger vi dess korrumperade motsvarigheter i SLN(D, ρ) med en bar, t.ex. M för den korrumperade marginella fördelningen, och η för den korrumperade klasssannolikhet funktion; dessutom, när ρ är tydlig från sammanhang, kommer vi ibland hänvisa till SLN(D, ρ) av D. Genom definition av korruptionsprocessen, korruption marginalfördelning M = M, och [Natarajan et al., 2013, Lemma 7] 2 3 SLN-robustness: formalisering För våra syften, en inlärare (, F) innebär en förlust, och en funktion klass F, med lärande är sökandet efter vissa s på F som minimerar -risken. Informellt, eleven (, F) är "robust" till symmetrisk etikett buller (SLN-robust) om minimering över F ger samma klassificering på både ren distribution D, som eleven skulle vilja observera, och SLN (D, ρ) för alla ρ på [0, 1/2), som eleven faktiskt observerar. Vi formaliserar nu detta begrepp och ser över vad som är känt om SLN-robustinlärares existens. För vissa fasta instans mellanslag X, låt påvisar uppsättningen fördelningar på X × {±1}. Med tanke på en notional "ren" distribution D, N sln : på → 2 tillbaka uppsättningen möjliga skadade versioner av D eleven kan observera, där etiketter vänder med okänd sannolikhet ρ: Utrustad med detta, definierar vi vår uppfattning om SLN-robustness. Definition 1 (SLN-robustness). Vi säger att en inlärare Det vill säga, SLN-robustness kräver att för alla nivåer av etikettbuller i den observerade fördelningen D, klassificering prestanda (wrt D) av inläraren är samma som om inläraren direkt observerar D. Tyvärr, som vi nu kommer att se, en allmänt antagen klass av inlärare är inte SLN-robust. Fix X = R d, och överväga elever som använder en konvex potential, och en funktionsklass av linjära poängtagare Detta fångar t.ex.. linjär SVM och logistisk regression, som är allmänt studerade i teori och tillämpas i praktiken. Tyvärr är dessa elever inte SLN-robust: Long and Servedio [2010, Theorem 2] ge ett exempel där, när man lär sig under symmetrisk etikett buller, för någon konvex potential, den skadade -riskminimer över F lin har klassificering prestanda motsvarande slumpmässig gissning på D. Detta innebär att (, F lin ) inte SLN-robust 1 enligt definition 1. (Alla bevis finns i tillägg A.) Den utbredda praktiska användningen av konvexa potentiella inlärare gör Proposition 1 till ett nedslående resultat och motiverar sökandet efter andra inlärare som är SLN-robust. Mot bakgrund av Proposition 1 finns det två sätt att gå vidare för att få SLN-robust elever: antingen ändrar vi klassen av förluster, eller vi ändrar funktionen klass F. Den första metoden har följts i en stor mängd arbete som omfattar icke-konvexa förluster [Stempfel och Ralaivola, 2009, Masnadi-Shirazi et al., 2010, Ding och Vishwanathan, 2010, Denchev et al., 2012, Manwani och Sastry, 2013. Även om sådana förluster undviker villkoren för Proposition 1, innebär detta inte automatiskt att de är SLN-robust när de används med F lin. I bilaga B lägger vi fram bevis för att vissa av dessa förluster i själva verket inte SLN-robust när de används med F lin. Den andra metoden är att istället överväga lämpligt rik F som innehåller Bayes-optimal poängskytt för D, t.ex. genom att använda en universell kärna. Med detta val kan man fortfarande använda en konvex potentiell förlust; i själva verket, på grund av ekvation 2, med användning av någon klassificering-kalibrerad förlust kommer att resultera i en SLN-robust eleven när F = R X. 1 Även om vi försvagar uppfattningen om SLN-robustness för att möjliggöra en skillnad på 0, 1/2) mellan de rena och korrumperade minimers prestanda, Long och Servedio [2010, Theorem 2] innebär att i värsta fall = 1/2. 3 Förslag 2. Välj någon klassificering-kalibrerad. Sedan, (, R X ) är SLN-robust. Båda tillvägagångssätten har nackdelar. Den första metoden har en beräkningspåföljd, eftersom det kräver optimering av en icke-konvex förlust. Den andra metoden har en statistisk straffavgift, eftersom skattningsfrekvens med en rik F kommer att kräva en större urvalsstorlek. Det förefaller således som om SLN-robustness innebär en beräkningsmässig-statistisk kompromiss. Det finns dock en variant av det första alternativet: välj en förlust som är konvex, men inte en konvex potential. Om en SLN-robust förlust av denna typ finns, ger det beräkningsmässiga och statistiska fördelar att minimera konvexa risker med linjära poängtagare. Manwani och Sastry [2013] visade att kvadratförlust, (y, v) = (1 − yv) 2, är en sådan förlust. Vi kommer att visa att det finns en enklare förlust som är på liknande sätt konvex, klassificering-kalibrerad, och SLN-robust, men är inte i klassen av konvex potential på grund av att vara negativt obunden. För att härleda denna förlust är det bra att tolka robustheten i form av ett bullerkorrigeringsförfarande för förlustfunktioner. Definitionen av SLN-robustness (ekvation 3) innebär optimala poängtagare med samma förlust över två olika fördelningar. Vi åter-uttrycker nu detta för att resonera om optimala poängtagare på samma fördelning, men med två olika förluster. Detta kommer att bidra till att karakterisera den uppsättning förluster som är SLN-robust. Med tanke på varje ρ till [0, 1/2], Natarajan et al. [2013, Lemma 1] visade hur man associerar med en förlust en buller-Förlusten definieras enligt följande. Definition 2 (bruskorrigerad förlust). Med tanke på eventuell förlust och ρ till [0, 1/2], den bullerkorrigerade förlusten är Eftersom beror på den okända parametern ρ, är det inte direkt användbart för att designa en SLN-robust inlärare. Det är dock en användbar teoretisk konstruktion, eftersom riskekvivalenten mellan L D (s) och L D (s) innebär att för varje F, minimering av -risken på D över F är likvärdig med minimering av -risken på D över F, dvs.. S D, F, * = S D, F, *. Med detta kan vi åter-uttrycka SLN-robustness av en inlärare (, F) som Denna omformulering är användbar, eftersom att karakterisera SLN-robustness av (, F), kan vi nu överväga villkor på sådan att och dess bullerkorrigerade motsvarighet inducera samma begränsade Bayes-optimala poängtagare. Manwani och Sastry [2013, Theorem 1] bevisade ett tillräckligt villkor på sådan att Ekvation 5 innehar, nämligen, För en sådan förlust, är en skalad och översatt version av, Så att trivialt S D,F, * = S D,F, *. Helst skulle man vilja karakterisera när ekvation 5 håller. Även om detta är en öppen fråga, intressant nog, kan vi visa att under ett starkare krav på förluster och, Villkoret i ekvation 6 är också nödvändigt. Det starkare kravet är att motsvarande risker beställer alla stokastiska poängsättare på samma sätt. En stokastisk målskytt är helt enkelt en kartläggning f : X → på R, där R är uppsättningen av fördelningar över reals. I ett litet missbruk av notation, vi betecknar -stochastic risken för f genom Utrustad med detta, definierar vi en uppfattning om ordning ekvivalens av förlust par. Definition 3 (Order motsvarande förlustpar). Vi säger att ett par förluster (, till ) är order motsvarande om Helt klart, om två förluster är order motsvarande, deras motsvarande risker har samma begränsade mindervärden. Följaktligen, om (, ) är orderekvivalent för varje ρ till [0, 1/2], innebär detta att S D,F, * = S D,F, * för alla F, vilket genom ekvation 5 innebär att för alla F, eleven (, F) är SLN-robust. Vi kan därför tänka på ordningen likvärdighet av (, ) som innebär stark SLN-robustness av en förlust. Definition 4 (Stark SLN-robustness). Vi säger en förlust är starkt SLN-robust om för varje ρ till [0, 1/2], (, ) är orderekvivalent. Vi fastställer att det tillräckliga villkoret för ekvation 6 också är nödvändigt för stark SLN-robustness av. Vi återvänder nu till vårt ursprungliga mål, som var att hitta en konvex som är SLN-robust för F lin (och helst mer allmänna funktionsklasser). Ovanstående tyder på att det är rimligt att betrakta de förluster som uppfyller kraven i punkt 6 som godtagbara. Tyvärr är det uppenbart att om det är konvext, icke-konstant och avgränsat under noll, då kan det omöjligen vara tillåtligt i denna mening. Men vi visar nu att avlägsnandet av begränsningen av begränsningen medger att det finns en konvex godtagbar förlust. 5 Den ohinged förlust: en konvex, klassificering kalibrerad, starkt SLNrobust förlust Betrakta följande enkla, men icke-standard konvex förlust: En säregen egenskap av förlusten är att den är negativt obegränsad, en fråga som vi diskuterar i §5.3. Jämfört med gångjärnsförlusten klämmer inte förlusten vid noll, dvs. Den har inget gångjärn. Således kallar vi detta den ohinged förlust 2. Förlusten har ett antal attraktiva egenskaper, varav den mest omedelbara är dess SLN-robustness. Eftersom unh 1 (v) + unh −1 (v) = 0 drar vi slutsatsen från Proposition 3 att unh är starkt SLN-robust, och därmed att ( unh, F) är SLN-robust för alla val av F. Vidare är följande unika egenskap inte svårt att visa. Förslag 4. Välj någon konvex förlust. Sedan, Det vill säga, upp till skalning och översättning, unh är den enda konvexa förlust som är starkt SLN-robust. Återvänder till fallet med linjära poängtagare, innebär ovanstående att ( unh, F lin ) är SLN-robust. Detta motsäger inte Proposition 1, eftersom unh inte är en konvex potential eftersom den är negativt obegränsad. Intuitivt gör denna egendom att förlusten kan kompensera för den höga påföljd som uppstår i fall som är felklassificerade med hög marginal genom att möjliggöra en hög vinst för fall som korrekt klassificeras med hög marginal. 2 Denna förlust har beaktats i Sriperumbudur et al. [2009], Reid och Williamson [2011] i samband med största genomsnittliga avvikelse; se bilaga E.4. Analysen av dess SLN-robustness är till vår kunskapsrobustness. 5 SLN-robustness är i sig otillräcklig för att en inlärare ska vara användbar. Till exempel är en förlust som är jämnt noll starkt SLN-robust, men är värdelös eftersom den inte är klassificering-kalibrerad. Lyckligtvis kalibreras den ohingade förlusten, som vi nu fastställer. Av skäl som ska diskuteras senare, anser vi minimering av risken över F B = [−B, +B] X, den uppsättning poängtagare med intervall som begränsas av B på [0, ∞]. Således har den begränsade Bayes-optimal poängskytten över F B samma tecken som Bayesoptimal classifier för 0-1 förlust för varje B. I det begränsande fallet där F = R X, är den optimala poängsättaren uppnåelig om vi arbetar över den förlängda reals R på {±∞}, i vilket fall vi kan dra slutsatsen att unh är klassificering kalibrerad. Även om klassificeringen-kalibrering av unh är uppmuntrande, Proposition 5 innebär att dess (obegränsad) Bayesrisk är −∞. Därför är varje icke-optimal poängtagares beklagande identiskt +∞, vilket hämmar analysen av konsekvensen. I ortodox beslutsteori uppstår liknande teoretiska frågor när man försöker etablera grundläggande teorem med obundna förluster [Ferguson, 1967, pg. 78), [Schervish, 1995, pg. [varav: 172] Vi kan kringgå denna fråga genom att begränsa uppmärksamheten till avgränsade målare, så att unh effektivt begränsas. Genom förslag 5 påverkar detta inte klassificeringskalibreringen av förlusten. I samband med linjära poängsättare, kan begränsning av poängsättare uppnås genom legalisering: istället för att arbeta med F lin, kan man istället använda Observera att begränsning till avgränsade poängtagare inte påverkar SLN-robustness av unh, eftersom ( unh, F) är SLN-robust för alla F. Således, till exempel ( unh, F lin,λ ) är SLN-robust för alla λ > 0. Som vi skall se i punkt 6.3 låter vi också genom att arbeta med F lin,λ etablera SLN-robustness av gångjärnsförlusten när λ är stor. Med hjälp av begränsade poäng gör det möjligt att fastställa en surrogat ånger bundna för den ohinged förlust. Detta visar klassificering konsekvens av ohinged förlustminimering på den korrumperade distributionen. Standardhastigheter för konvergens via generaliseringsgränser är också triviala att härleda; se bilaga D. Vi vänder oss nu till frågan om hur man minimerar den ohingade förlusten när man använder en kärnoriserad poängtagare. Vi visar nu att den optimala lösningen för den ohinged förlusten vid användning av legalisering och kärnor har en enkel form. Detta kastar ytterligare ljus över SLN-robustness och legalisering. Överväg att minimera den ohinged risken över någon boll i en reproducerande kärna Hilbert utrymme H med kärnan k, d.v.s. Betrakta funktionsklassen för kärnorna F H,λ = {s : x → w, 0(x) H för vissa λ > 0, där 0 : X → H är någon funktionskartläggning. Likvärdigt, med tanke på en distribution 3 D, vi vill 3 Med tanke på en utbildning prov S på D n, Vi kan använda plugin uppskattningar som lämpligt. Den första ordningen optimalitet villkoret innebär att Således, den optimala målgöraren för den ohinged förlusten är helt enkelt Det är, vi poäng ett fall baserat på skillnaden i den aggregerade likheten med de positiva fallen, och den aggregerade likheten med de negativa fallen. Detta motsvarar en närmaste centroidklassificerare [Manning et al., 2008, pg. 181 ger ett enkelt sätt att förstå SLN-robustness av ( unh, F H,λ ): det är lätt att fastställa (se bilaga C) att de optimala poängsättarna på de rena och korrumperade distributionerna bara skiljer sig åt genom en skalning, dvs.. Vi noterar flera punkter som rör praktisk användning av den ohingade förlusten med kärnor. För det första krävs inte korsvalidering för att välja λ, eftersom s * unh,λ beror trivialt på regulariseringen konstant: att ändra λ bara ändrar storleken på poäng, inte deras tecken. Således kontrollerar legalisering helt enkelt skalan av de förutsagda poängen, och för klassificering kan man helt enkelt använda λ = 1. För det andra kan vi enkelt förlänga poängsättarna till att använda en förvrängning regulariserad med styrka 0 < λ b = λ. Tuning λ b är likvärdig med computing s * unh,λ enligt ekvation 9 och inställning av en tröskel på en holdout set. För det tredje, när H = R d för d liten, kan vi lagra w * unh,λ explicit, och använda detta för att göra förutsägelser. För hög (eller oändlig) dimensional H kan vi göra förutsägelser direkt via ekvation 9. Men när du lär dig med ett träningsprov S på D n, skulle detta kräva lagring av hela provet för användning vid testtid, vilket är oönskat. För att lindra detta, för en översättning-invariant kärna kan man använda slumpmässiga Fourier funktioner [Rahimi och Recht, 2007] för att hitta en ungefärlig inbäddning av H i några lågdimensionella R d, och sedan lagra w * unh,λ som vanligt. Alternativt kan man post hoc söka efter en gles approximation till w * unh,λ, till exempel genom att använda kärnbesättning [Chen et al., 2012]. Vi visar nu att enligt vissa antaganden, w * unh,λ sammanfaller med lösningen av två etablerade metoder; Bilaga E diskuterar några ytterligare relationer, t.ex. till den största genomsnittliga avvikelsen. Det finns en intressant motsvarighet mellan den ohinged lösningen och en mycket legaliserad SVM. Förslag 7. Välj alla D och 0 : X → H sådan att R = sup x-X -(x)-(x)-(x)-(x)-(x)-(x)-(x)-)-(x)-(x)-)-(x)-(x)-)-(x)-(x)-)-(x)-(x)-)-(x)-(x)-)-(x)-)-(x)-(x)-)-(x)-)-(x)-(x)-(x)-)-(x)-)-(x)-(x)-)-(x)-)-(x)-)-(x)-)-(x)-)-(x)-)-(x)-)-(x)-)-(x)-)-(-)-)-(-)-)-(-)-)-(-)-(-)-)-(-)-)-(-)-)-(-)-(-)-)-(-)-(-)-)-(-)-)-(-)-)-(-)-)-)-(-)-)-(-)-)-)-(-)-)-)-(-)-)-(-)-)-(-)-)-)-)-)-(-(-)-(-)-)-)-(-)-)-(-)-)-(-)-)-)-)-)-(-)-)-)-(-)-)-)-)-)-)-)-)-)-(-)-)-)-)-)-)-(-)-)--)-)-)-)-)-)-)-)-)-)-(-)-)-)-)-(-(-)-)-(-(-(-)-)-)-(-)-)-)-)-)-)-(-(-(-(-(-)-(-)-)-)-)-)-)-(-(-)- För alla λ > 0, låt Eftersom vi vet att ( unh, F H,λ ) är SLN-robust, följer det omedelbart att för gångjärn : (y, v) → max(0, 1− yv), ( gångjärn, F H,λ ) är på liknande sätt SLN-robust förutsatt att λ är tillräckligt stor. Det vill säga, stark 2 legalisering (och en begränsad funktion karta) ger gångjärnsförlust med SLN-robustness 4. Proposition 7 kan generaliseras för att visa att med tillräckligt stark legalisering kommer den begränsande lösningen av två olika konvexa potentialer att vara den ohingade lösningen, dvs. , Centroid klassificeraren. Intuitivt, med stark legalisering, betraktar man bara beteendet hos en förlust nära noll; men eftersom en konvex 4 Däremot, Long och Servedio [2010, avsnitt 6] fastslår att 1 legalisering inte ger SLN-robustness. 7 Potentiellt har A (0) < 0, det kommer att vara väl approximerad av den ohinged förlusten nära noll (som helt enkelt är linjär approximation till ska). Detta visar att stark två legalisering ger de flesta inlärare SLNrobustness. Förslag 8. Välj vilken D som helst, avgränsad funktionskartläggning 0 : X → H, och två olika konvex potential. Låta v * och λ vara den minsta av den legaliserade risken. Då, Kom ihåg att för binär klassificering på D M,η, Fisher Linear Discriminant (FLD) finner en vikt vektor proportionell mot den minimala av kvadratförlust Vi illustrerar nu att SLN-robustness av ohinged förlust är empiriskt manifesterad. Vi upprepar att med hög legalisering, den ohinged lösningen är likvärdig med en SVM (och i gränsen till någon klassificering kalibrerad förlust) lösning. Experimenten syftar således inte till att hävda att den ohinged förlusten är "bättre" än andra förluster, utan snarare till att visa att dess SLN-robustness inte är rent teoretisk. Vi visar först att den ohinged riskminimern presterar bra på exemplet Long and Servedio [2010]. Figur 1 visar fördelningen D, där X = {( 1, 0), (γ, 5γ), (γ, −γ)} R 2, med marginalfördelning M = { 1 4, 1 4, 1 2 } och alla tre fallen är deterministiskt positiva. Vi väljer γ = 1/2. Från figur 1, Vi ser den ohinged minimaler perfekt klassificerar alla tre punkter, oavsett nivån av etikettbuller. Gångjärnet riskminimering är perfekt när det inte finns någon etikett buller, men med även en liten mängd etikett buller, uppnår en felfrekvens på 50%. Hange t-logistic Unhinged ρ = 0 0.00 ± 0,00 0.00 ± 0.00 ± 0.00 ρ = 0,1 0,15 ± 0,27 0.00 ± 0.00 ± 0.00 ρ = 0,2 0,21 ± 0,30 0.00 ± 0.00 ρ = 0,3 0,38 ± 0,37 0,22 ± 0,08 0.00 ± ρ = 0,4 0,42 ± 0,36 0,22 ± 0,08 0.00 ± 0,47 ± 0,38 ± 0,39 ± 0,33 ± 0,34 ± 0,48 Vi bedömer nästa minimerande av den empiriska risken från ett slumpmässigt träningsprov: vi konstruerar en träningsuppsättning av 800 fall, injiceras med varierande nivåer av etikettbuller, och utvärdera klassificeringsprestanda på en testuppsättning av 1000 fall. Vi jämför gångjärn, t-logistik (för t = 2) [Ding och Vishwanathan, 2010] och ohinged minderiors. För varje förlust använder vi en linjär poängtagare utan en sned term, och ställer in regulariseringsstyrkan λ = 10 −16. Från tabell 1, Det är uppenbart att även vid 40% etikett buller, den ohinged klassificerare kan hitta en perfekt lösning. Däremot drabbas båda andra förluster av till och med måttliga bullernivåer. Vi nästa rapport resultat på vissa UCI dataset, där vi dessutom justera en tröskel för att säkerställa den bästa utbildning uppsättningen 0-1 noggrannhet. I tabell 2 sammanfattas resultaten på ett urval av fyra datauppsättningar. (Tillägg H innehåller resultat med fler datauppsättningar, prestandamått och förluster.) Även om den ohinged förlusten ibland överträffas vid lågt buller, tenderar den att vara mycket mer robust vid höga bullernivåer: även vid buller nära 50 %, kan den ofta lära sig en klassificerare med viss diskriminerande effekt. Vi har föreslagit en konvex, klassificeringskalibrerad förlust, visat att är robust för symmetrisk märkning buller (SLN-robust), visat att det är den unika förlust som uppfyller en uppfattning om stark SLN-robustness, fastställt att den optimeras av närmaste centroid klassificerare, och också visat hur arten av den optimala lösningen innebär att de flesta konvexa potentialer, såsom SVM, är också SLN-robust när hög legaliserade. I det framtida arbetet ingår att studera förluster som är robusta mot asymmetriskt buller, och avvikelser från exempelvis rymden. 9 Erkännanden
|
När det gäller traditionella problem har REF visat att den ohingade förlusten är en konvex förlust som teoretiskt är robust för att symmetriskt märka buller på binär klassificering.
| 6,788,443 |
Learning with Symmetric Label Noise: The Importance of Being Unhinged
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 15,053 |
Kleisli kategorier över monader har använts i dennotational semantics för att beskriva funktionella språk med hjälp av olika begrepp av beräkningar som värden. Kleisli kategorier över comonader har också använts för att beskriva intensiv semantik snarare än extensiv. Detta papper utforskar möjligheterna att kombinera monader och comonader för att få en intensiv semantik med hjälp av beräkningar som värden. Vi ger tre alternativa sätt att kombinera de två och utforska som gäller för kända monader och comonader av intresse. Vi kommer också att titta på olika extensiva semantik för ett exempel programmeringsspråk som använder monader för beräkningar och jämföra dem med den ursprungliga extensiva semantiken.
|
Brookes och Stone REF använde monad och comonader för att beskriva respektive förlängnings- respektive intensifieringssemantik för ett språk med beräkningseffekter.
| 119,594,180 |
Monads and Comonads in Intensional Semantics
|
{'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics']}
| 15,054 |
Kunskapsbaserad ekonomi tvingar företag i varje land att gruppera sig som kluster för att behålla sin konkurrenskraft på världsmarknaden. Klusterutvecklingen bygger på två viktiga framgångsfaktorer som är kunskapsdelning och samarbete mellan aktörerna i klustret. Därför försöker vår studie att föreslå ett kunskapshanteringssystem för att stödja kunskapshanteringsaktiviteter inom klustret. För att uppnå studiens mål spelar ontologin en mycket viktig roll i kunskapshanteringsprocessen på olika sätt, såsom att bygga upp återanvändbara och snabbare kunskapsbaser och bättre sätt att representera kunskapen explicit. Att skapa och representera ontologi skapar dock svårigheter för organisationen på grund av den tvetydighet och ostrukturerade karaktären hos källan till kunskap. Därför är syftet med detta dokument att föreslå metoder för att fånga, skapa och representera ontologi för organisationsutveckling genom att använda den kunskapsbaserade metoden. Hantverksklustret i Thailand används som fallstudie för att illustrera vår föreslagna metod.
|
P. Sureephong, etc. I REF föreslogs ett ontologiskt kunskapshanteringssystem för att stödja kunskapshanteringsverksamheten inom industriklustret.
| 51,983,246 |
An Ontology-based Knowledge Management System for Industry Clusters
|
{'venue': 'Dans Proceeding of International Conference on Advanced Design and Manufacture - International Conference on Advanced Design and Manufacture (ICADAM 2008), Sanya : Chine (2008)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Business']}
| 15,055 |
Denna studie utvecklar en integrerad datadriven och modelldriven metod (mallmatchning) som samlar de urbana järnvägspunktmolnen i tre klasser av järnvägsspår, kontaktkabel och kontaktkabel. Den använda datasetet täcker 630 m av de nederländska stadsjärnvägskorridorerna där det finns fyra järnvägsspår, två kontaktkablar och två kontaktkablar. Datauppsättningen innehåller endast geometrisk information (punkternas tredimensionella (3D) koordinater) utan intensitetsdata och inga RGB-data. De erhållna resultaten visar att alla objekt av intresse klassificeras framgångsrikt på objektnivå utan falska positiva och inga falska negativa. Resultaten visar också att en genomsnittlig 97,3% precision och en genomsnittlig 97,7% noggrannhet på punktmolnsnivån uppnås. Den höga precisionen och hög noggrannheten hos järnvägsspårsklassificeringen (båda större än 96 %) på punktmolnsnivå beror på den stora inverkan som den använda mallmatchningsmetoden har på att utesluta falska positiva värden. Kablarna uppnår också ganska hög genomsnittlig precision (96,8%) och noggrannhet (98,4%) på grund av sin höga provtagning och isolerade position i järnvägskorridoren.
|
Mostafa m.fl. REF klustrade stadsjärnvägspunktmolnen i tre klasser av järnvägsspår, kontaktkabel och kanalkabel genom en mallmatchningsmetod.
| 7,389,738 |
Application of Template Matching for Improving Classification of Urban Railroad Point Clouds
|
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 15,056 |
Abstract-Dynamic routing protokoll såsom RIP och OSPF i huvudsak genomföra distribuerade algoritmer för att lösa de kortaste vägar problem. Gränsportprotokollet (BGP) är för närvarande det enda interdomain routingprotokollet som används på Internet. BGP löser inte ett kortaste problem eftersom det krävs ett interdomänprotokoll för att tillåta policybaserade mätvärden att överskrida avståndsbaserade mätvärden och göra det möjligt för autonoma system att självständigt definiera sin routingpolicy med liten eller ingen global samordning. Det är då naturligt att fråga om BGP kan ses som en distribuerad algoritm för att lösa några grundläggande problem. Vi introducerar problemet med stabila vägar och visar att BGP kan ses som en distribuerad algoritm för att lösa detta problem. Till skillnad från en kortaste stig träd, en sådan lösning representerar inte en global optimal, utan snarare en jämviktspunkt där varje nod tilldelas sin lokala optimal. Vi studerar problemet med stabila vägar med hjälp av en härledd struktur som kallas ett tvistehjul, som representerar motstridiga routingstrategier vid olika noder. Vi visar att om inget tvisthjul kan konstrueras så finns det en unik lösning på problemet med stabila vägar. Vi definierar det enkla vektorprotokollet (SPVP), en distribuerad algoritm för att lösa problemet med stabila vägar. SPVP är avsett att fånga det dynamiska beteendet hos BGP på en abstrakt nivå. Om SPVP konvergerar motsvarar det resulterande tillståndet en stabil väglösning. Om det inte finns någon lösning, då SPVP alltid skiljer sig. I själva verket kan SPVP även avvika när en lösning finns. Vi visar att SPVP kommer att konvergera till den unika lösningen av en instans av stabila vägar problem om ingen tvist hjul finns.
|
I REF infördes problemet med stabila vägar (SPP) som en formell modell för BGP (och policyrouting med pathvector protokoll, i allmänhet).
| 4,542,928 |
The stable paths problem and interdomain routing
|
{'venue': 'TNET', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,057 |
Även om många beräkningsmetoder (rekursiva formler) för att blockera sannolikheter i ändlig kapacitet M/D/1 köer redan har producerats, dessa är former av transformer eller är begränsade till ennode köer. Med hjälp av ett klart annorlunda tillvägagångssätt än den vanliga köteorin introducerar denna studie explicita (transformfria) formler för en blockerande sannolikhet, en stationär sannolikhet, och medel vistelsetid under antingen produktions- eller kommunikationsblockering politik. Dessutom kan den minsta buffertkapacitet som är föremål för en given blockeringssannolikhet bestämmas numeriskt ur dessa formler. Med rätt val av den totala erbjudna belastningen ρ, kan den metod som beskrivs häri vara tillämplig på mer allmänna köer från beräkningssynpunkt om de uttryckliga uttrycken för slumpmässig vektor D n är tillgängliga. Nyckelord: Blockering sannolikhet, ändlig kapacitet köer, max-plus algebra, max-plus linjärt system, stationär sannolikhet, system vistelse tid. Manuskriptet mottogs 19 augusti 2013; reviderade 1 november 2013; accepterade 8 november 2013. Forskningen understöddes av bidrag från Kyung Hee University 2011 (KHU-20110900 En M/D/1 kö, den enklaste kön med deterministisk servicetid, har studerats omfattande och har en mängd olika tillämpningar i prestandautvärderingen av produktionsledning, telekommunikationsnät och andra områden. Eftersom blockering av fenomen som orsakas av ändlig kapacitet ger upphov till många svårigheter och medför komplexitet i utvärderingarna av olika resultatåtgärder, är resultaten när det gäller köer med begränsad kapacitet små till antalet. Med undantag för vissa specialfall, såsom markoviska köer (M/M/1/K), Erlangs förlustköer (inget väntrum alls, M/G/c/c), M/G/1/1 och M/G/1/2 köer, och så vidare, är det mycket svårt att få uttryckliga uttryck för en blockerande sannolikhet eller en stationär fördelning i finitkapacitet köer (till exempel, se Gross och Harris [1] och Takagi [2] ). Å ena sidan tillhandahölls den rekursiva formeln för stationära distributioner (eller blockering av sannolikheter) i M/G/c/K-köer först av Tijms [3]. Brun och Garcia [4] visade analytiska (transform-free) lösningar av steady-state sannolikhetsfördelningar i ändlig kapacitet M/D/1 köer via användning av generatorfunktionen (z-transform). Alouf m.fl. [5] härledde analytiskt den stationära fördelningen av M/D/1/K-kön med hjälp av Cohens resultat – som baserades på Laplace-Stieltjestransform (LST) – av M/G/1/K-kön i servicetidsdistributionen (se Cohen [6] konstruerade en approximationsformel för överflödets sannolikhet för GI/GI/c/N-köer i form av en kölängdsfördelning för motsvarande GI/GI/c/ņ-köer. Den blockerande sannolikheten spelar en viktig roll i analysen av ändlig kapacitet köer. När en blockerande sannolikhet erhålls, kan vi beräkna olika prestandamått av intresse, inklusive bärbar last, stationära sannolikheter, (högre) stunder av stationär väntetid och vistelsetid, och så vidare. Normalt köande teori har dock begränsningar i applikationer till allmänna köer med multinode, multi-server, eller generellt strukturerade köer. I ett försök att övervinna dessa brister använder vi en annan metod än den vanliga köteorin - nämligen max-plus algebra. Många typer av nätverk som tillhör en klass av könät, det så kallade max-plus linjära systemet, kan modelleras korrekt genom tidsinställda händelsegrafer, ett specialfall av Petri nätet. De kan analyseras med hjälp av maxplus algebra, vilket innebär att endast två operatörer används: "max" och "+". Kort sagt, ett max-plus linjärt system är ett valfritt nätverk av enkelserver köer med första-in första-ut service disciplin. Eftersom det är tydligt att en M/G/1/K kö hör till ett max-plus linjärt system, är en max-plus algebra användbar för att analysera denna ändliga kapacitet kö. Dessutom gör ständiga tjänsttider serieuttrycken (se avsnitt II) enkla och lättåtkomliga så att vi enbart inriktade oss på deterministiska tjänsttider. Huvudsyftet med denna studie är att visa en sluten form (transform-free) uttryck av en blockerande sannolikhet för en M/D/1/K kö under antingen kommunikation eller produktionsblockering politik. När det gäller kommunikationsblockeringspolitiken kan vi få samma uttryck som Brun och Garcia [4] och Alouf med flera [5], medan vi i fråga om produktionsblockeringspolitiken får en ny formel. Dessutom ges även andra relaterade uttryck för stationär sannolikhet, genomsnittlig vistelsetid i systemet och optimal buffertkapacitet. Liknar Sakasegawa och andra [9], Dessa uttryck är skrivna i termer av blockeringsannolikheten och kölängd fördelningen av motsvarande M/D/1/∞ kö. Detta dokument är organiserat enligt följande. Korta preliminärer på max-plus algebra och på väntetider i ett max-plus linjärt system finns i avsnitt II. Avsnitt III innehåller våra huvudsakliga resultat på uttryckligt uttryck för blockering sannolikhet i ändlig kapacitet M/D/1 köer. Vi visar andra relaterade uttryck i avsnitt IV och avslutar med några avslutande kommentarer i avsnitt V.
|
Särskilt M/D/1/K-modellen är av särskilt intresse för TDMA-nätverk, som beskriver Poisson distribuerad ankomst, deterministisk servicetid, en enda sändare och en kö av längd K. I REF anges slutna formuttryck för blockerande sannolikhet och andra egenskaper.
| 18,550,770 |
Explicit Formulae for Characteristics of Finite-Capacity M/D/1 Queues
|
{'venue': None, 'journal': 'Etri Journal', 'mag_field_of_study': ['Mathematics']}
| 15,058 |
På senare tid har många skalbara och effektiva lösningar för händelsespridning i publicerings-/prenumerationssystem (pub/ sub) dykt upp i litteraturen. Denna spridning sker vanligtvis via ett overlay nätverk av mäklare och dess kostnad kan mätas som antalet meddelanden som skickas över overlay för att göra det möjligt för händelsen att nå alla avsedda abonnenter. Effektiva lösningar på detta problem erhålls ofta genom smarta spridningsalgoritmer som undviker översvämningar på överlägget. I detta dokument föreslår vi ett kompletterande tillvägagångssätt som ger en effektiv spridning av händelser genom att omorganisera nätets topologi. Mer specifikt, denna omorganisation görs genom en självorganiserande algoritm som utförs av mäklare vars syfte är att direkt ansluta, genom overlay länkar, par av mäklare som matchar samma händelser. På så sätt minskar i genomsnitt antalet mäklare som deltar i en händelsespridning, vilket minskar dess kostnader. Även om paradigmet för den självorganiserande algoritmen är allmänt och sedan tillämpas på alla overlay-baserade pub / sub-system, beror dess konkreta genomförande på det specifika systemet. Som en följd av detta studerade vi effekten av införandet av den självorganiserande algoritmen i samband med ett specifikt system som implementerar en trädbaserad routingstrategi, nämligen SIENA, som visar de faktiska prestandafördelarna genom en omfattande simuleringsstudie. I synnerhet pekar resultat på algoritmens förmåga att konvergera till en overlay topologi som tar emot effektiva händelser med avseende på (w.r.t) spridning ett specifikt scenario. Dessutom, algoritmen visar en betydande kapacitet att anpassa overlay nätverket topologi till ständigt förändra scenarier samtidigt som ett effektivt beteende w.r.t. Spridning av evenemang.
|
Baldoni och al. REF föreslog en självorganiserande algoritm för att ansluta mäklare som matchar liknande händelser, som syftar till att förbättra den övergripande systemprestanda genom att minska overlay humle för händelse routing.
| 9,620,171 |
Efficient publish/subscribe through a self-organizing broker overlay and its application to SIENA
|
{'venue': 'Comput. J.', 'journal': 'Comput. J.', 'mag_field_of_study': ['Computer Science']}
| 15,059 |
Djupa neurala nätverk (DNN) är en av de mest framträdande teknikerna i vår tid, eftersom de uppnår state-of-the-art prestanda i många maskininlärning uppgifter, inklusive men inte begränsat till bildklassificering, textbrytning, och talbehandling. Den senaste tidens forskning om DNN har dock visat en allt större oro för robustheten i kontradiktoriska exempel, särskilt när det gäller säkerhetskritiska uppgifter som identifiering av trafikskyltar för autonom körning. Studier har avslöjat sårbarheten hos en vältränad DNN genom att visa förmågan att generera knappt märkbara (till både mänskliga och maskiner) motbilder som leder till felklassificering. Dessutom har forskare visat att dessa kontradiktoriska bilder är mycket överförbara genom att helt enkelt träna och attackera en alternativ modell byggd på målmodellen, känd som en black-box attack till DNNs. I likhet med fastställandet av utbildningssubstitut modeller föreslår vi i detta dokument en effektiv black-box attack som också endast har tillgång till indata (bilder) och resultat (förtroende poäng) av en riktad DNN. Däremot, skiljer sig från hävstång attack överförbarhet från ersättningsmodeller, föreslår vi noll orderoptimering (ZOO) baserade attacker för att direkt uppskatta lutningarna av den riktade DNN för att generera kontrarimala exempel. Vi använder nollordordning stokastisk koordinat nedstigning tillsammans med dimensionsreduktion, hierarkisk attack och betydelse provtagning tekniker till * Pin-Yu Chen och Huan Zhang bidrar lika till detta arbete. † Detta arbete utförs under praktik på IBM T. J. Watson Research Center angriper effektivt svart-box modeller. Genom att utnyttja noll-orderoptimering kan förbättrade attacker mot den riktade DNN åstadkommas, vilket sparar behovet av utbildningssubstitut modeller och undvika förlust av angrepp överförbarhet. Experimentella resultat på MNIST, CIFAR10 och ImageNet visar att den föreslagna ZOO-attacken är lika effektiv som den toppmoderna white-box-attacken (t.ex., Carlini och Wagners attack) och avsevärt överträffar befintliga black-box-attacker via alternativa modeller. KEYWORDS kontradiktoriskt lärande; Black-box attack; djupinlärning; neurala nätverk; substitut modell Session: Deep Learning AISec'17, November 3, 2017, Dallas, TX, USA
|
För att ta itu med detta problem föreslog REF algoritmen Zeroth-Order Optimization (ZOO) som utvidgar CW attacken till Black-box inställning och använder en noll-order optimering för att genomföra attacken.
| 2,179,389 |
ZOO: Zeroth Order Optimization Based Black-box Attacks to Deep Neural Networks without Training Substitute Models
|
{'venue': "AISec '17", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 15,060 |
Detta dokument ger en ny trafikfunktion för att identifiera onormala variationer i trafiken under DDOS översvämningsattacker. Det är histogrammet för maximum för den begränsade trafikhastigheten på intervall-för-intervall-basis. Vi använder den för att experimentera med trafikdata från MIT Lincoln Laboratory under Defense Advanced Research Projects Agency DARPA 1999. De experimentella resultaten ökar på ett lönsamt sätt bevisen för att trafiken vid DDOS-attacker är statistiskt högre än vid normal trafik. De visar att mönstret för histogrammet av maximum av begränsad hastighet av attack-innehållande trafik skiljer sig mycket från mönstret för attack-fri trafik. Dessutom är den nuvarande trafikfunktionen enkel i matematik och lätt att använda i praktiken. I dag är människor starkt beroende av Internet som fungerar som en infrastruktur i det moderna samhället. Men distribuerade överbelastning DDOS översvämning angripare förblir stora hot mot den. Genom att konsumera resurser från en angripen plats, kan offret överväldigas så att det förnekar tjänster som det bör erbjuda eller dess tjänsteprestationer är avsevärt försämrad. Därför, intrångsdetekteringssystem ISD för att upptäcka DDOS översvämning attacker har varit mycket önskvärt. Det finns två kategorier när det gäller IDS. Det ena handlar om att upptäcka fel och det andra om att upptäcka anomalier. Attackera varningar som ges av missbruk upptäckt bygger främst på ett bibliotek av kända signaturer för att matcha mot nätverkstrafik, se t.ex. 1-5. Således, attacker med okända signaturer från nya varianter av en attack kan fly från att upptäckas av signatur-baserade IDS med sannolikhet en, se, till exempel, 6, vilket gör en sådan kategori av IDS på den skyddade platsen irrelevant. Men, baserat på anomali upptäckt, onormala variationer i trafiken identifieras som potentiella intrång så att denna kategori av IDS är särskilt uppmärksamma på för att identifiera nya attacker, se t.ex. 7-13. För enkelhetens skull, i det följande, termen IDS är i betydelsen av anomali upptäckt. Noterade att detektionsnoggrannheten är en nyckelfråga för en anomalidetektor, se till exempel 14, 15. För att vara effektiva, IDS kräver lämpliga funktioner för att exakt upptäcka en attack och skilja den från den normala aktiviteten som kan ses från 10, avsnitt IV. Därför är det viktigt att utveckla nya trafikfunktioner för att upptäcka avvikelser. Referensdokumenten om trafikfunktioner för IDS-användning är förmögna. Till exempel, 86 funktioner för klusterering normala aktiviteter diskuteras i 9. Observera att en vald funktion är metodberoende. I detta avseende använder 16 uppgifter om pakethuvud. Papper 17 använder automatisk korrelering funktion av långdistansberoende LRD trafiktid serien i paketstorlek och 18 använder Hurst parametern. Scherrer m.fl. anta skalegenskaper för LRD trafik 19. De trafikmodeller som användes 17-23 är i fraktal betydelse. I allmänhet kan fraktalmodeller vara något komplicerade i praktisk tillämpning inom teknik jämfört med den trafikfunktion som föreslås i detta dokument. Kom ihåg att det finns två kategorier i trafikmodellering 24, Avsnitt XIV. En är statistisk modellering t.ex., LRD-processer. Den andra begränsade modellering, som har särskilda tillämpningar för modellering av trafik på anslutningsnivå, se t.ex. 25-30. Gränsade modeller, i kombination med en klass av service discipliner, är genomförbara och relativt effektiva i tillämpningar, såsom anslutning antagningskontroll CAC i garanterad kvalitet-of-service QoS. Dessutom är sådana modeller enkla i matematik och relativt lätta att använda i praktiken i jämförelse med fraktalmodeller. Syftet med detta dokument är att tillhandahålla en ny trafikfunktion för att upptäcka avvikelser på grundval av begränsad modellering av trafiken. De viktigaste bidragen i detta dokument är följande: I Vi presenterar histogrammet av maximum av den begränsade trafikhastigheten på en intervall-by interval som en trafikfunktion för att uppvisa onormal variation av trafiken under DDOS översvämningsattacker. ii De experimentella resultaten visar att maximum av hastighetsbundet av attack-innehållande trafik är statistiskt större än den av attack-fri trafik drastiskt. Resten av papperet är organiserat enligt följande. Experimentella data och därmed sammanhängande arbete redovisas i avsnitt 2. I avsnitt 3 föreslås histogrammet för den högsta tillåtna trafikhastigheten. Experimentella resultat visas i avsnitt 4, som följs av diskussioner och slutsatser. Experimental Data and Related Work Medan DDOS attacker fortsätter att vara ett problem, finns det för närvarande inte mycket kvantitativa data tillgängliga för forskare att studera beteendet hos DDOS översvämning attacker. Uppgifterna i 1998-1999 DARPA http://www.ll.mit.edu/IST/ideval är värdefulla men sällsynta för allmänheten, även om det finns punkter som förtjänar ytterligare diskussion 31. Dessa uppgifter erhölls under förhållanden av realistisk bakgrundstrafik och genomsnittliga exempel på realistiska attacker 32, 33. De använda datamängderna under 1999 innehåller mer än 200 fall och 58 typer av attacker, se, för detaljer 34. Två datauppsättningar förklaras nedan. Den första uppsättningen data som innehåller 5 spår. Vi namnger dem av OM-W1-i-1999AF i 1, 2, 3, 4, 5, vilket betyder utanför-MIT-vecka1-i-1999-attack-fri. I tabell 1 anges de faktiska tidpunkter då det första och det sista paketet extraherades för varje spår. Fem spår ingår i den andra datamängden. De kallas OM-W2-i-1999AC i 1, 2, 3, 4, 5, vilket innebär utanför-MIT-week2-i-1999-attack som ingår. De faktiska tidpunkter då det första paketet och det sista extraherades för varje spår anges i tabell 2. Omkring är hög hastighet det radikala draget i den anfallsbundna trafiken. Tidningen 35 rapporterade om de verkliga händelserna år 2000. Han noterade att "attackerna översvämmade servrar med 1 gigabit per sekund inkommande data, vilket är mycket mer trafik än de byggdes för att hantera 35, sid 12." Analysen från Moore et al. säger att "för att ladda nätverket, skickar en angripare i allmänhet små paket så snabbt som möjligt eftersom de flesta nätverksenheter både routers och NICs begränsas inte av bandbredd utan genom paket bearbetningshastighet 36, Avsnitt 2.1." De drar slutsatsen att trafikhastigheten vanligtvis är det bästa måttet på nätbelastning under en attack. Kort sagt, dataforskare anser hög hastighet som en grundläggande egenskap i attack-innesluten trafik, se även, till exempel, 37-42. De experimentella resultaten i detta dokument är helt enkelt för data från 1999 års DARPA vid höggradiga attacker. I detta underavsnitt informerar vi deterministiska gränserna för ackumulerad trafik och trafikhastighet med hjälp av demonstrationer med hjälp av trafikspår OM-W1-1-1999AF och OM-W1-1-1999CF. I detta avsnitt introducerar vi först tidsserierna för den trafik som är bunden. Sedan fastställer vi maximum av trafikhastigheten bunden. Slutligen uppnår vi histogrammet för den maximala trafikhastighet som är bunden. Demonstrationerna med experimentella data används för att underlätta diskussionerna. Teoretiskt sett kan jag vara vilken som helst verklig siffra. I praktiken är jag dock utvald som ett ändligt positivt heltal. Fixa värdet av I och observera trafikbegränsningar i intervallet n−1 I, nI, n 1, 2,..., N. Sedan uttrycker vi trafikbegränsningar som en funktion i termer av intervallet index n. Med tanke på index n, vi uttrycker trafik övre gräns F I, n, vilket är en serie. Observera att x i är en stokastisk serie och så är F I, n. Det vill säga F I, m / F I, n för m / n. Vi kallar F I, n trafik övre bundna serien. På samma sätt använder vi GAMA I, n för att representera trafikhastighet bundna serier. Figur 4 visar den övre trafikbundna serien. Figur 5 ritar den hastighetsbundna serien. Eftersom GAMA I, n är slumpmässigt, är identifiering i ett enda intervall inte tillräckligt. Vi använder figur 6 för att förklara denna synvinkel. Från figur 6, Vi ser att hastigheten på anfallssluten trafik är större än den för attackfri trafik i vissa intervall, till exempel i den andra och tredje intervallen. Det är dock mindre än hastigheten för anfallsfri trafik i vissa intervall, t.ex. i de första och fjärde intervallen. Därför kommer vi att studera frågan hur den bundna serien av trafikhastigheter statistiskt varierar under DDOS översvämningsattacker. Av denna anledning studerar vi maximum av trafikhastigheten bunden. Observera att över index I i varje intervall n − 1 I, nI. Därefter representerar MGAMA n en serie för att beskriva det maximala värdet av GAMA I, n i varje intervall n − 1 I, nI. Med andra ord, MGAMA n står för maxima av GAMA I, n. Enheten för MGAMA n är samma som för GAMA I, n. Här och nedan, använder vi notation MGAMA F n för attackfri trafik och MGAMA C n för attack-innehållande trafik. Figur 7 a och 7 b anger tomterna MGAMA F n och MGAMA C n för OM-W1-1999AF respektive OM-W2-1999AC. Anteckna Hist MGAMA F n och Hist MGAMA C n som histogram för MGAMA F n och MGAMA C n. Därefter representerar de empiriska distributioner av MGAMA F n och MGAMA C n. Figurerna 8 a och 8 b anger Hist MGAMA F n och Hist MGAMA C n för OM-W1-1-1999AF respektive OM-W1-1999CF. Från figur 8 c, Vi ser att mönstret av Hist MMA F n skiljer sig avsevärt från det av Hist MMA C n. För att undersöka detta fenomen kvantitativt, vi behöver en åtgärd för att beskriva likheten eller olikhet mellan mönstret av Hist MMA F n och det av Hist MMA C n, som kommer att förklaras i nästa underavsnitt. Det finns många åtgärder för att karakterisera likheten eller olikheten av två mönster inom området mönstermatchning, se t.ex. 44, 45. Bland dem, korrelationskoefficienten mellan två mönster används ofta inom teknik, se till exempel 46. Vi använder den för att mäta mönsterlikheten i denna forskning. Observera att om corr innebär korrelationsoperationen. Det är känt att 0 ≤ Corr FC ≤ 1. Ju större värdet av Corr FC desto mer liknande mellan mönstret av Hist MMA F n och Hist MMA C n. Mathematically, fallet med Corr FC 1 innebär att mönstret av Hist MMA F n är exakt samma som det av Hist MMA C n. Tvärtom, Corr FC 0 innebär att mönstret av Hist MMA F n är helt annorlunda från det av MMA C n. Ur teknisk synvinkel, dock det extrema fallet av antingen Corr FC 1 eller Corr FC 0 inte gör mycket vettigt på grund av fel och osäkerheter i mätning och digital beräkning. I praktiken använder man en tröskel för Corr FC för att bedöma likheten mellan två. Tröskelvärdets konkreta värde beror på det krav som forskarna har utformat, men det är ganska vanligt att man tar 0,7 som det minsta värdet av tröskeln för mönstrets lappningsändamål. Anta att vi betraktar 0.8 som tröskelvärdet. Sedan säger vi att mönstret för Hist MMA F n liknar det för Hist MMA C n om Corr FC ≥ 0.8 och olika annars. Genom beräkning får vi Corr FC 0,01751 för OM-W1-1-1999AF och OM-W2-1-1999CF, vilket innebär att mönstret för Hist MMA F n skiljer sig avsevärt från det för Hist MMA C n som anges i figur 8 c. Vi kommer att ytterligare visa detta intressanta fenomen i nästa avsnitt. Värdet av Corr FC för OM-W1-1-1999AF och OM-W2-1999CF har nämnts ovan. I detta avsnitt illustrerar vi experimentella resultat som beskriver Corr FC för OM-W1-2-1999AF och OM-W2-2-1999CF. Tomterna för att illustrera Corr FC för OM-W1-3-1999AF och OM-W2-3-1999CF, OM-W1-4-1999AF och OM-W2-4-1999CF, OM-W1-5-1999AF och OM-W2-5-1999CF och förtecknas i bilagorna. Tabell 3, som visar att Corr FC < 0,2 för alla par av testspår. Den maximala hastighet som är bunden av anfallsbaserad trafik är inte alltid högre än den för anfallsfri trafik, se figur 7. Statistiskt är det dock högre än för attackfri trafik Tabell 3 indikerar att mönstret för Hist MMA F n uppenbarligen skiljer sig från mönstret för Hist MMA C n. Således, resultaten i detta papper tyder på att histogrammet för maximum trafik hastighet bundna kan ännu vara en trafik funktion för att tydligt identifiera onormal variation av trafiken under DDOS översvämningsattacker. I jämförelse med fraktal modell av trafik som diskuteras i 18, 19, 43, den nuvarande funktionen har en uppenbar fördel. Kom ihåg att statistiska modeller som LRD-processer, se till exempel, 18, 19, vanligtvis är för trafik i det aggregerade fallet, men det saknas bevis för att använda dem för att karakterisera statistiska mönster av verklig trafik vid anslutning. Faktum är att det kan vara en svår uppgift att hitta statistiska trafikmönster vid anslutning. För att övervinna svårigheter med att beskriva trafiken på anslutningsnivå införs begränsad modellering 25-29. Således, om vi låter x j,k t vara alla flöden som går genom servern k från ingång länk j och låt F j,k Jag är den maximala trafikbegränsning funktion x j,k t, den nuvarande analysmetoden för trafik är tekniskt ljud och användbar för x j,k t men fraktal modeller kanske inte. Eftersom de begränsade trafikmodellerna huvudsakligen används på anslutningsnivå i vissa tillämpningar, t.ex. i realtidskontroll, är det uppenbart att den nuvarande trafikfunktionen för att identifiera onormala variationer i trafiken under DDOS översvämningsattacker kan utvinnas i ett tidigt skede av attackerna. Dessa bilagor ger experimentella resultat för tre par spår.
|
Xue m.fl. REF presenterar histogrammet för maximum för den begränsade trafikhastigheten på intervall-för-intervall-basis som en trafikfunktion för att uppvisa onormal variation av trafiken under DDOS översvämningsattacker.
| 120,896,291 |
Bound Maxima as a Traffic Feature under DDOS Flood Attacks
|
{'venue': None, 'journal': 'Mathematical Problems in Engineering', 'mag_field_of_study': ['Mathematics']}
| 15,061 |
Abstract-I detta papper, studerar vi (Q > x), svansen av steady-state kön längd fördelning på en höghastighets multiplexer. I synnerhet fokuserar vi på fallet när den sammanlagda trafiken till multiplexer kan kännetecknas av en stationär Gaussian process. Vi tillhandahåller två asymptotiska övre gränser för svansens sannolikhet och ett asymptotiskt resultat som betonar betydelsen av den dominerande tidsskalan och den maximala variansen. En av våra gränser är i en enda exponentiell form och kan användas för att beräkna en övre gräns till den asymptotiska konstanten. Men vi visar att denna gräns, att vara av en enda exponentiell form, kanske inte exakt fånga svans sannolikhet. Vårt asymptotiska resultat på vikten av den maximala variansen och vår omfattande numeriska studie på en känd nedre gräns motiverar utvecklingen av vår andra asymptotiska övre gräns. Denna gräns uttrycks i termer av den maximala variansen för en Gaussisk process, och möjliggör en korrekt uppskattning av svansens sannolikhet över ett brett spektrum av kölängder. Vi tillämpar våra resultat på Gaussian såväl som multiplexade icke-gaussianska ingångskällor, och validerar deras prestanda via simuleringar. Där det är möjligt har vi genomfört vår simuleringsstudie med hjälp av viktiga provtagningar för att förbättra dess tillförlitlighet och effektivt fånga sällsynta händelser. Vår analytiska studie är baserad på extremvärdesteori, och skiljer sig därför från de tillvägagångssätt som använder traditionella Markovian och Large Avvikelser tekniker. Index Terms-Asymptotic övre gräns, Gaussian process, kö längdfördelning, stark asymptotik.
|
En metod som använder den maximala variansen asymptotic (MVA) övre gräns för att beräkna en övre gräns för buffert svans fördelningen i en kö med Gaussian ingångstrafik föreslogs REF.
| 235,251 |
A central-limit-theorem-based approach for analyzing queue behavior in high-speed networks
|
{'venue': 'IEEE/ACM TRANSACTIONS ON NETWORKING', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 15,062 |
Ett viktigt steg mot att demonstrera ett kvantsystem som kan ta itu med svåra problem inom fysik och kemi kommer att utföra en beräkning utöver kapaciteten hos en klassisk dator och därmed uppnå så kallad kvantsuveränitet. I den här studien använde vi nio supraledande qubit för att visa en lovande väg mot kvantsuveränitet. Genom att individuellt justera qubit parametrar, kunde vi generera tusentals olika Hamiltonska evolutioner och sondera utdata sannolikheter. De uppmätta sannolikheterna lyder en universell fördelning, som överensstämmer med en jämn provtagning av hela Hilbertrymden. Allteftersom antalet qubits ökar fortsätter systemet att utforska det exponentiellt växande antalet stater. Utvidga dessa resultat till ett system på 50 qubits har potential att ta itu med vetenskapliga frågor som är bortom kapaciteten hos någon klassisk dator. Ett programmerbart kvantsystem som endast består av 50 till 100 qubits kan ha en markant inverkan på vetenskaplig forskning. Även om en sådan plattform är naturligt lämpad för att ta itu med problem inom kvantkemi och materialvetenskap (1-4), omfattar tillämpningar så olika områden som klassisk dynamik (5) och datavetenskap (6-9). En viktig milstolpe på vägen mot att förverkliga dessa tillämpningar kommer att vara demonstrationen av en algoritm som överstiger kapaciteten hos en klassisk dator och därmed uppnå kvantsuveränitet (10). Provtagningsproblem är ett ikoniskt exempel på algoritmer som utformats särskilt för detta ändamål (11) (12) (13) (14). En framgångsrik demonstration av kvantsuveränitet skulle bevisa att konstruerade kvantsystem, även om de fortfarande är i sin linda, kan överträffa de mest avancerade klassiska datorerna. Betrakta ett system av kopplade qubits vars dynamik utforskar enhetligt alla tillgängliga tillstånd över tiden. Komplexiteten i att simulera denna utveckling på en klassisk dator är lätt att förstå och kvantifiera. Eftersom varje stat är lika viktig är det inte möjligt att förenkla problemet genom att använda ett mindre trunkerat tillståndsutrymme. Komplexiteten är då helt enkelt given av hur mycket klassiskt minne det krävs för att lagra statsvektorn. Att lagra tillståndet i ett 46-qubit system kräver nästan en petabyte minne och är på gränsen till de mest kraftfulla datorer (14, 15). Provtagning från ett sådant systems produktionsannolikhet skulle därför utgöra ett tydligt bevis på kvantsuveränitet. Observera att detta är en övre gräns på endast det antal qubits som krävs-andra begränsningar, såsom beräkningstid, kan sätta praktiska begränsningar på ännu mindre systemstorlekar. I denna studie illustrerar vi experimentellt en plan för att visa kvantsuveränitet. Vi presenterar data som kännetecknar två grundläggande ingredienser som krävs för alla suprematetsexperiment: komplexitet och trohet. För det första visar vi att qubits kan kvasi-uniformly utforska Hilbert utrymme, vilket ger en experimentell indikation på algoritm komplexitet [se (16) för en formell diskussion om beräkning komplexitet]. Därefter jämför vi mätresultaten med det förväntade beteendet och visar att algoritmen kan implementeras med hög trohet. Experiment som visar komplexitet och trohet ger en grund för att demonstrera kvantsuveränitet. Ju mer kontroll en kvantplattform erbjuder, desto lättare är det att bädda in olika applikationer. Av denna anledning har vi utvecklat supraledande gmon qubits, som är baserade på transmon qubits men har tonfiskbara frekvenser och tonfiskbara interaktioner (Fig. 1A)................................................................................................ Den nio-qubit enheten består av tre distinkta sektioner: kontroll (bottom), qubits (center) och avläsning (top). Ett detaljerat kretsdiagram finns i (16). Var och en av våra gmon qubits kan ses som en icke-linjär oscillator. Hamiltonian för enheten ges av varn är numret operatör ochâ † (â) är den stigande (lägre) operatör. Den qubit frekvens sätter koefficienten d i, den ickelinjäritet sätter h i, och närmaste granne koppling sätter g i. De två lägsta energinivåerna (j0i och j1i) bildar qubit subrymden. De högre energinivåerna i qubits, även om bara praktiskt taget upptagen, väsentligt ändra dynamiken. I avsaknad av högre nivåer kartlägger denna modell för att frigöra partiklar och kan simuleras effektivt (16). Införandet av högre nivåer inför effektivt en interaktion och möjliggör uppkomsten av komplexa dynamiker. På bild. 1, B och C, vi beskriver det experimentella förfarandet och ger två fall av rådata output data. Figur 1B visar ett fem-qubit exempel på de pulser som används för att styra qubits. För det första initieras systemet (rött) genom att placera två av qubits i det upphetsade tillståndet; t.ex. j00101i. Dynamiken är ett resultat av att man fixerar qubit-frekvenserna (orange) och samtidigt drar fram alla närmaste grannes interaktioner på och av (grön). Formen på kopplingspulsen väljs för att minimera läckaget från qubit subspace (17). Efter evolutionen mäter vi samtidigt tillståndet för varje qubit. Varje mätning resulterar i ett enda utdatatillstånd, såsom j10010i; experimentet upprepas många gånger för att uppskatta sannolikheten för varje möjligt utdatatillstånd. Vi utför sedan denna procedur för slumpmässigt valda värden av qubit frekvenser, koppel puls längder, och koppel puls höjder. Sannolikheten för de olika produktionstillstånden visas i bild. 1C för två fall av evolution efter 10 kopplingspulser (cykler). Höjden på varje bar representerar sannolikheten för att det utdatatillståndet visade sig i experimenten. Hamiltonianen i Eq. 1 sparar det totala antalet upphetsningar. Detta innebär att om vi börjar i ett tillstånd med hälften av qubits upphetsade, bör vi också sluta i ett tillstånd med hälften av qubits upphetsad. Men de flesta experimentella fel lyder inte denna symmetri, vilket gör att vi kan identifiera och ta bort felaktiga resultat. Även om denna symmetri bidrar till att minska effekten av fel, minskar den något storleken på Hilbert utrymme. För N qubits, antalet stater ges av permutationer av N/2 excitations i N qubits och är cirka 2 N = ffffifffiffi N p. Som ett exempel, en 64-qubit system skulle komma åt ~2 61 stater enligt vårt protokoll. Även om de uppmätta sannolikheterna till stor del verkar slumpmässiga, ger de viktig insikt i systemets kvantdynamik. Ett viktigt inslag i dessa datauppsättningar är de sällsynta, högre än genomsnittets toppar, som är jämförbara med de högintensiva regionerna i en lasers spräckliga mönster. Dessa mycket troliga stater fungerar som ett fingeravtryck på den underliggande evolutionen och utgör ett sätt att kontrollera att den önskade evolutionen genererades på rätt sätt. Fördelningen av dessa sannolikheter visar att dynamiken konsekvent och enhetligt utforskar Hilbertrymden. På bild. 2, Vi använder de uppmätta sannolikheterna för att visa att dynamiken utforskar Hilbert utrymme för experiment som utförs med
|
Google föreslår en plan för att konstruera slumpmässiga kretsar för att visa kvantsuveränitet på pulsnivå REF.
| 4,875,670 |
A blueprint for demonstrating quantum supremacy with superconducting qubits
|
{'venue': 'Science', 'journal': 'Science', 'mag_field_of_study': ['Medicine', 'Physics']}
| 15,063 |
Multidimensionell latent textmodeller, såsom faktoriell LDA (f-LDA), fånga flera faktorer av corpora, skapa strukturerad utdata för forskare för att bättre förstå innehållet i en corpus. Vi anser att sådana modeller för klinisk forskning av nya fritidsläkemedel och trender, en viktig tillämpning för gruvdrift aktuell information för hälso- och sjukvårdspersonal. Vi använder en "tredimensionell" f-LDA variant för att gemensamt modellera kombinationer av läkemedel (marijuana, salvia, etc.).), aspekt (effekter, kemi osv.) och administreringssätt (rökning, oral användning osv.) Eftersom det är osannolikt att en helt oövervakad ämnesmodell upptäcker dessa specifika faktorer av intresse, utvecklar vi en ny metod för att införliva tidigare kunskap genom att utnyttja användargenererade taggar som tidigare i vår modell. Vi visar att denna modell kan användas som ett undersökande verktyg för att lära sig om dessa läkemedel från webben genom att tillämpa den på uppgiften att extrahera sammanfattning. Förutom att tillhandahålla användbara resultat för denna viktiga folkhälsouppgift, tillhandahåller vår tidigare anrikade modell en ram för tillämpningen av f-LDA på andra uppgifter.
|
REF förbättrade ytterligare faktoriell-LDA-modellen och anpassade den till uppgiften att sammanfatta narkotikaerfarenheter.
| 785,923 |
Drug Extraction from the Web: Summarizing Drug Experiences with Multi-Dimensional Topic Models
|
{'venue': 'NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,064 |
Abstract-Ett mycket vanligt problem vid navigering av robotsvärmar är när grupper av robotar rör sig i motsatta riktningar, orsakar trängsel situationer som kan äventyra prestanda. I detta dokument föreslår vi en distribuerad samordningsalgoritm för att lindra denna typ av överbelastning. Genom att samarbeta och varna sina lagkamrater för en trängselrisk kan robotar samordna sig för att undvika dessa situationer. Vi utförde simuleringar och verkliga experiment för att studera prestanda och effektivitet hos den föreslagna algoritmen. Resultaten visar att algoritmen gör det möjligt för svärmen att navigera på ett smidigare och effektivare sätt, och är lämplig för stora grupper av robotar.
|
Marcolino och Chaimowicz REF föreslog en decentraliserad samordningsalgoritm för att kontrollera trafiken av en svärm av robotar, undvika trängsel situationer när stora grupper av robotar rör sig i motsatta riktningar.
| 4,986,017 |
Traffic control for a swarm of robots: Avoiding group conflicts
|
{'venue': '2009 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'journal': '2009 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'mag_field_of_study': ['Computer Science']}
| 15,065 |
Abstract -Kriminalitet är en allt vanligare företeelse i Storbritannien. Ett pågående forskningsprogram undersöker människans förmåga att upptäcka om en person, fångad på CCTV, bär ett skjutvapen. I den nuvarande undersökningen hävdar vi att observatörer reagerar på signaler som individer i sig producerar medan de bär ett dolt skjutvapen. Dessa signaler kan återspeglas i kroppsspråket hos dem som bär skjutvapen och kan gripas av observatörer på en medveten eller undermedveten nivå. Simulerade CCTV-filmer genererades av personer som fungerade som övervakningsobjekt och som bar, dolda på sina personer, antingen skjutvapen eller matchade ofarliga föremål. Utbildade CCTV-operatörer och lekmän tittade sedan på dessa bilder och ombads ange om de trodde att övervakningsmålet var att bära ett skjutvapen eller inte. Storleken på inflytandet av att bära ett skjutvapen på ett övervakningsobjekts ångestnivå befanns vara relaterad till det antal gånger som individen ansågs bära ett skjutvapen. Övervakningsmålets ångestnivå var dock inte relaterad till känslighet vid upptäckt av skjutvapen. Ett test av förmågan att avkoda kroppsspråk visade inte heller att observatörernas förmåga att läsa kroppsspråk var relaterad till förmågan att upptäcka ett dolt skjutvapen. Dessa första resultat ger viss insikt i möjligheten att använda ett övervakningsobjekts kroppsspråk för att avgöra om de döljer ett vapen och om en sådan förmåga kan förvärvas genom övervakning utbildning och erfarenhet.
|
Detta team arbetade också på att identifiera de signaler som kan tyda på att en individ bär ett dolt skjutvapen REF.
| 17,577,626 |
Skills in detecting gun carrying from CCTV
|
{'venue': '2008 42nd Annual IEEE International Carnahan Conference on Security Technology', 'journal': '2008 42nd Annual IEEE International Carnahan Conference on Security Technology', 'mag_field_of_study': ['Computer Science']}
| 15,066 |
aradyn är ett verktyg för att mäta prestandan hos storskaliga parallella program. Vårt mål med att utforma ett nytt prestandaverktyg var att tillhandahålla detaljerad, flexibel prestandainformation utan att ådra sig det utrymme (och den tid) som normalt förknippas med spårbaserade verktyg. Paradyn uppnår detta mål genom att dynamiskt instrumentera applikationen och automatiskt kontrollera denna instrumentering i sökandet efter prestandaproblem. Dynamisk instrumentering låter oss skjuta upp insättandet till det ögonblick det behövs (och ta bort det när det inte längre behövs); Paradyns Performance Consultant bestämmer när och var man ska infoga instrumentering. PRINCIPER OCH CHARACLERLSTICS Sju principer styrde utformningen av Paradyn: skalbarhet, automatiserad sökning, väldefinierade datauttag, stöd för heterogena miljöer och språk på hög nivå, öppna gränssnitt och strömlinjeformad användning. Nedan beskriver vi dessa principer och sammanfattar de funktioner i Paradyn som införlivar dem. Vi behöver mäta långa program (timmar eller dagar) på stora (ca 1000 nod) parallella maskiner med hjälp av stora datamängder. För korrekt felsökning, kan du ofta testa ett program på små datamängder och vara säker på att det kommer att fungera korrekt på större, men för prestanda inställning, är detta ofta inte fallet. I många verkliga applikationer, i takt med att program- och datauppsättning storlek ökar, olika resurser mättas och blir flaskhalsar. Vi måste också mäta stora program som har hundratals moduler och tusentals förfaranden. Mekanismerna för instrumentering, programkontroll och datavisning måste graciöst hantera detta stora antal programkomponenter. Paradyn använder dynamisk instrumentering för att instrumentera endast de delar av programmet som är relevanta för att hitta det aktuella prestandaproblemet. Det börjar leta efter problem på hög nivå (t.ex. för mycket total synkroniseringsblockering, I/O-blockering eller minnesförseningar) för hela programmet. Endast en liten mängd instrument införs för att hitta dessa problem. När ett allmänt problem väl har hittats, infogas instrumentering för att hitta mer specifika orsaker. Ingen detaljerad instrumentering infogas för klasser av problem som inte finns.
|
Det bygger på dynamisk instrumenteringsteknik [18] som utvecklats som en del av Paradyn Parallel Performance Tools-projektet REF.
| 18,912,936 |
The paradyn parallel performance measurement tools
|
{'venue': 'IEEE Computer', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,067 |
Multiroundalgoritmer används nu ofta i distribuerade databehandlingssystem, men i vilken utsträckning algoritmer kan dra nytta av att köra fler rundor är inte väl förstådd. Detta dokument besvarar denna fråga för flera rundor för problemet med att beräkna equijoin av n relationer. Med tanke på alla frågor Q med bredd w, skärningsbredd iw, ingångsstorlek IN, utgångsstorlek UT, och en kluster av maskiner med M = och (IN 1 ) minne finns per maskin, där > 1 och w ≥ 1 är konstanter, visar vi att: Intersektionsbredd är en ny idé som vi introducerar för frågor och generaliserade hypertree decompositions (GHDs) av frågor som fångar hur anslutna angränsande komponenter av GHDs är. Vi uppnår vårt första resultat genom att introducera en distribuerad och generaliserad version av Yannakakis algoritm, kallad GYM. GYM tar som ingång alla GHD av Q med bredd w och djup d, och beräknar Q i O(d + log(n) rundor och O(n (n) w + OUT) 2 M ) kommunikationskostnad. Vi uppnår vårt andra resultat genom att visa hur man konstruerar GHDs av Q med bredd max (w, 3iw) och djup O(log(n)). Vi beskriver en annan teknik för att konstruera GHD med längre bredder och kortare djup, som visar andra kompromisser man kan göra mellan kommunikation och antalet rundor. nätverk. Kostnader för algoritmer i dessa system kan delas upp i: 1) lokal beräkning av maskiner; 2) kommunikation mellan maskinerna; och 3) antalet nya omgångar av beräkningar som startas, som kan ha stora omkostnader i vissa system, t.ex. på grund av att du läser indata från disken eller väntar på att resurser ska finnas tillgängliga i klustret. I detta dokument fokuserar vi på kommunikation och antalet rundor, liksom för många databehandlingsuppgifter, beräkningskostnaden i allmänhet subsumeras av kommunikationskostnaden [20, 21]. I detta dokument studeras problemet med att utvärdera en equijoin-fråga Q i flera beräkningsrundor i ett distribuerat kluster. Vi begränsar oss till frågor som är fullständiga, d.v.s. inte innehåller prognoser, men frågor kan innehålla själv-joins. Vi låter n vara antalet relationer, I indatastorleken, UT utgångsstorleken av Q, och M = o(IN) minne tillgängliga per maskin i kluster. Memorystorlekar på maskinerna fångar intuitivt olika parallellismnivåer: när minnesstorlekarna är mindre behöver vi ett större antal maskiner för att utvärdera fogen, vilket ökar parallellismen. Vi antar i hela tidningen att M = och (IN 1 ) för vissa konstant > 1. För praktiska värden av ingångs- och minnesstorlekar, är en liten konstant. Till exempel, om IN är i terabyte, då även när M är i megabyte, 2. Vår studie av multiround gå algoritmer motiveras av två utvecklingar. För det första har det nyligen visat sig att det finns oöverkomligt höga lägre gränser för kommunikationskostnaden för en allroundalgoritm för att utvärdera vissa gå frågor [2, 5]. Till exempel, för kedjefrågan, C n =R 1 (A 0, A 1 ) R 2 (A 1, A 2 )... R n (A n1, A n ), den lägre gränsen på kommunikationskostnaden för någon en-runda algoritm är ≥ ( IN M ) n/4. 1 Till exempel, om indata är en petabyte, d.v.s., IN=10 15, även när vi har maskiner med tio gigabyte minne, dvs., M = 10 10, kommunikationskostnaden för någon en-round algoritm för att utvärdera C 16 fråga är 100000 petabyte. Dessutom håller denna nedre gräns även när frågeutgången är känd för att vara liten, t.ex., UT = O(IN), och inmatningen har ingen skev [5], vilket innebär att utforma multiround algoritmer är det enda sättet att beräkna sådana går mer effektivt. För det andra har driften av en ny beräkningsomgång minskat från flera minuter i de tidiga systemen (t.ex. Hadoop [4]) till millisekunder i vissa nya system (t.ex., Spark [32], vilket gör det praktiskt att köra algoritmer som består av ett stort antal rundor. Även om multiroundalgoritmer blir vanligt förekommande, är det svårt att förstå hur många algoritmer som kan dra nytta av att köra fler rundor. I den här artikeln besvarar vi denna fråga för equijoin-frågor. Vi beskriver en multiroundalgoritm, kallad GYM, för Generalized Yannakakis i MapReduce (avsnitt 4-5), som är en distribuerad och generaliserad version av Yannakakis algoritm för acykliska frågor [31]. GYM:s prestanda beror på två viktiga strukturella egenskaper hos inmatningsfrågan: djup och bredder av dess generaliserade hypertree nedbrytningar (GHDs). Vi presenterar sedan två algoritmer, Log-GTA (avsnitt 6) och C-GTA (avsnitt 7), för att konstruera GHDs av frågor med olika djup och bredder, exponera ett spektrum av kompromisser som man kan göra mellan antalet rundor och kommunikation med hjälp av GYM. I återstoden av detta avsnitt ger vi en översikt över våra resultat.
|
Referens REF har infört en multiround gå algoritm kallas GYM, som tar som ingång en generaliserad hypertree nedbrytning (GHD) D av Q. Algoritmen beräknar först flera mellanliggande relationer baserat på D i en omgång med hjälp av Shares.
| 2,001,989 |
GYM: A Multiround Distributed Join Algorithm
|
{'venue': 'ICDT', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 15,068 |
Processen att anpassa ett par former är en grundläggande funktion i datorgrafik. Traditionella tillvägagångssätt är starkt beroende av att matcha motsvarande punkter eller funktioner för att styra anpassningen, ett paradigm som vacklar när betydande form delar saknas. Dessa tekniker inkluderar i allmänhet inte tidigare kunskap om förväntade formegenskaper, vilket kan bidra till att kompensera för eventuella vilseledande signaler som lämnas av felaktigheter som visas i inmatningsformerna. Vi presenterar en strategi baserad på ett djupt neuralt nätverk, utnyttja form dataset för att lära sig en form-medveten innan för käll-till-mål-anpassning som är robust för att forma ofullständighet. I avsaknad av jordsanningar för övervakning, utbildar vi ett nätverk om uppgiften att forma anpassning med hjälp av ofullständiga former som genereras från full form för självövervakning. Vårt nätverk, som kallas ALIGNet, är tränat för att warpa kompletta källformer till ofullständiga mål, som om målformerna var färdiga, vilket i huvudsak gör anpassningen partiell-form agnostic. Vi strävar efter att nätverket ska utveckla specialiserad expertis över de gemensamma egenskaperna hos formerna i varje dataset och därigenom uppnå en högre nivå förståelse av den förväntade formen utrymme som en lokal strategi skulle vara omedvetna om. Vi begränsar ALIGNet genom en anisotrop total variation identitet legalisering för att främja bitvis släta deformationsfält, underlättar både partiell-form agnosticism och efter-deformation applikationer. Vi visar att ALIGNet lär sig att anpassa geometriskt distinkta former och kan härleda rimliga kartläggningar även när målformen är betydligt ofullständig. Vi visar att vårt nätverk lär sig de vanliga förväntade egenskaperna av formsamlingar utan övermontering eller memorering, vilket gör det möjligt att producera rimliga deformationer på osedda data under testtiden.
|
REF använde volymetriska form representationer för att träna ett nät för att regressera rutnätsbaserade warpfält för att anpassa formarna, och tillämpade den uppskattade deformationen på den ursprungliga maskan.
| 5,080,881 |
ALIGNet: Partial-Shape Agnostic Alignment via Unsupervised Learning
|
{'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 15,069 |
Abstrakt. Omni remote procedure call facility, OmniRPC, är en threadsafe rutnät RPC-anläggning för kluster och globala datormiljöer. Fjärrbiblioteken implementeras som körbara program i varje fjärrdator, och OmniRPC fördelar automatiskt fjärrbibliotekssamtal dynamiskt på lämpliga fjärrdatorer för att underlätta platstransparens. Vi föreslår att OpenMP används som en lättanvänd och enkel programmeringsmiljö för OmniRPCs multitrådade klient. Vi använder POSIX tråd implementation av Omni OpenMP kompilatorn som tillåter flertrådig körning av OpenMP-program av POSIX trådar även i en enda processor. Flera utestående förfrågningar från OmniRPC-samtal i OpenMP:s arbetsdelningskonstruktion skickas till olika fjärrdatorer för att utnyttja nätverksövergripande parallellism.
|
I REF föreslås OpenMP som en användarvänlig programmeringsmiljö för OmniRPC:s multitrådade klient.
| 6,990,232 |
OmniRPC: A Grid RPC Facility for Cluster and Global Computing in OpenMP
|
{'venue': 'In In Workshop on OpenMP Applications and Tools (WOMPAT2001', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 15,070 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.