src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Syftet med detta dokument är att utveckla en effektiv analysator för det kinesiska språket, utforska olika mellanformer, uppnå en målhastighet i regionen 1000 wps för fullständig tolkning, 2000 wps för partiell tolkning och 10 000 wps för ordsegmentering och del-av-tal taggning, med toppmoderna föreställningar. Detta papper introducerar en effektiv analysator för det kinesiska språket, som effektivt och effektivt integrerar ordsegmentering, del-av-tal taggning, partiell tolkning och fullständig tolkning. Den kinesiska effektiva analysatorn är baserad på en dold Markov-modell (HMM) och en HMM-baserad tagger. Det vill säga, alla komponenter är baserade på samma HMM-baserade märkningsmotor. En fördel med att använda samma enmotor är att den till stor del minskar kodstorleken och gör underhållet enkelt. En annan fördel är att det är lätt att optimera koden och därmed förbättra hastigheten samtidigt som hastigheten spelar en avgörande roll i många tillämpningar. Slutligen kan alla komponenters prestanda dra nytta av optimeringen av befintliga algoritmer och/eller antagandet av bättre algoritmer till en enda motor. Experiment visar att alla komponenter kan uppnå toppmoderna föreställningar med hög effektivitet för det kinesiska språket. Layouten för detta papper är som följer. Avsnitt 2 beskriver den kinesiska effektiva analysatorn. I avsnitt 3 presenteras den HMM och den HMM-baserade taggern. I avsnitten 4 och 5 beskrivs tillämpningen av den HMM-baserade talken vid integrerad ordsegmentering och del-av-tal-märkning, partiell tolkning respektive fullständig tolkning. Avsnitt 6 ger de experimentella resultaten. Slutligen dras vissa slutsatser med eventuella förlängningar av det framtida arbetet i avsnitt 7. | REF undersökte ett tillvägagångssätt för att bygga en kinesisk analysator som integrerade ordsegmentering, POS taggning och tolkning, baserat på en dold Markov modell. | 7,967,074 | A Chinese Efficient Analyser Integrating Word Segmentation, Part-Of-Speech Tagging, Partial Parsing And Full Parsing | {'venue': 'SIGHAN Workshop On Chinese Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,299 |
Vi föreslår en ny djup nätverksstruktur som kallas "Network In Network" (NIN) för att förbättra modellens diskriminabilitet för lokala patchar inom det mottagliga fältet. Det konventionella konvolutionslagret använder linjära filter följt av en icke-linjär aktiveringsfunktion för att skanna indatan. Istället bygger vi mikroneurala nätverk med mer komplexa strukturer för att abstraktera data inom det mottagliga fältet. Vi omedelbart mikroneurala nätverket med en multilager perceptron, som är en potent funktion approximator. Funktionskartor erhålls genom att flytta mikronätverken över inmatningen på ett liknande sätt som CNN; de matas sedan in i nästa lager. Djup NIN kan genomföras genom stapling mutiple av ovan beskrivna struktur. Med förbättrad lokal modellering via mikronätet kan vi utnyttja global genomsnittlig poolning över funktionskartor i klassificeringsskiktet, vilket är lättare att tolka och mindre benägna att översitta än traditionella fullt anslutna lager. Vi demonstrerade toppmoderna klassificeringsprestanda med NIN på CIFAR-10 och CIFAR-100 och rimliga prestanda på SVHN- och MNIST-datauppsättningar. | Därför är det en nätverksbaserad strategi REF. | 16,636,683 | Network In Network | {'venue': 'ICLR 2014', 'journal': 'arXiv: Neural and Evolutionary Computing', 'mag_field_of_study': ['Computer Science']} | 5,300 |
Abstract-Den optimala och distribuerade avsättning av hög genomströmning i nätnät är känd som ett grundläggande men svårt problem. Situationen förvärras i en trådlös miljö på grund av störningar mellan lokala trådlösa sändningar. I detta dokument föreslår vi ett cross-layer optimeringsramverk för throughput maximization i trådlösa mesh nätverk, där data routing problem och det trådlösa medium innehållsproblem är gemensamt optimerade för multihop multicast. Vi visar att genomströmningsmaximering problemet kan brytas ner i två subproblem: en data routing subproblem på nätverkslagret, och en effektkontroll subproblem på det fysiska lagret med en uppsättning Lagrangian dubbla variabler som samordnar interlayer koppling. Olika effektiva lösningar diskuteras för varje delproblem. Vi betonar nätverkskodningstekniken för multicast routing och en spelteoretisk metod för interferenshantering, för vilken effektiva och distribuerade lösningar härleds och illustreras. Slutligen visar vi att den föreslagna ramen kan utvidgas för att ta hänsyn till fysisk-lager trådlös multisändning i nätnät. | Yuan m.fl. I REF föreslås ett flerskiktsoptimeringsramverk som skalar efterfrågan på nätflöden i nätverksskiktet och tillgången på länkkapacitet i det fysiska skiktet för att hitta hög genomströmningsvägar. | 1,040,413 | A Cross-Layer Optimization Framework for Multihop Multicast in Wireless Mesh Networks | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']} | 5,301 |
Sammanhang spelar en viktig roll i detektionsarbetet. Med tanke på en kontextregion är dock inte all kontextuell information till nytta för den slutliga uppgiften. I detta dokument föreslår vi en ny pixel-wise kontextuell uppmärksamhet nätverk, dvs., PiCANet, att lära sig att selektivt delta i informativa sammanhang platser för varje pixel. Specifikt, för varje pixel, kan det generera en uppmärksamhet karta där varje uppmärksamhet vikt motsvarar den kontextuella relevansen på varje sammanhang plats. En närvarande kontextuell funktion kan sedan konstrueras genom att selektivt samla den kontextuella informationen. Vi formulerar det föreslagna PiCANet i både globala och lokala former för att delta i globala respektive lokala sammanhang. Båda modellerna är helt olika och kan integreras i CNN för gemensam utbildning. Vi införlivar även de föreslagna modellerna med U-Net-arkitekturen för att upptäcka viktiga objekt. Omfattande experiment visar att de föreslagna PiCANets kan konsekvent förbättra detektionsprestandan. De globala och lokala PiCANets underlättar inlärning av globala kontraster respektive homogenitet. Som ett resultat av detta kan vår soliditetsmodell upptäcka framträdande objekt mer exakt och enhetligt, och på så sätt prestera gynnsamt mot de toppmoderna metoderna. * Korresponderande författare Nyligen, konvolutionella neurala nätverk (CNN) har införts i Saliency detektion för att lära sig effektiv kontextuell representation. Specifikt, flera metoder [18, 24, 47] först direkt använda CNNs för att extrahera funktioner från flera bildregioner med varierande sammanhang och därefter kombinera dessa kontextuella funktioner för att sluta sig till sundhet. Några andra modeller [17, 19, 23, 22, 37, 9, 26, 45, 46, 38] antar helt konvolutionella nätverk [25] för funktionsrepresentation på varje bildplats och skapar en solid karta på ett konvolutionellt sätt. I dessa modeller, den första skolan extraherar kontextuella funktioner från varje indata bildregion, medan den andra ett extraherar funktioner på varje bild plats från dess motsvarande mottagliga fält. Alla befintliga modeller använder dock kontextregioner holistiskt för att konstruera kontextuella funktioner, där informationen på varje kontextuell plats är integrerad. Intuitivt, för en viss bild pixel, inte alla dess kontextuella information bidrar till sitt slutliga beslut. Vissa relaterade regioner är vanligtvis mer användbara, medan andra bullriga svar bör förkastas. Till exempel, för den röda prick pixel i den första raden i Figur 1, Vi måste jämföra det med bakgrunden för att dra slutsatsen sin globala kontrast. Om vi vill | Liu m.fl. REF aggregerade de aktuella kontextuella egenskaperna från en global/lokal vy i kartor över olika resolutioner. | 4,534,041 | PiCANet: Learning Pixel-Wise Contextual Attention for Saliency Detection | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 5,302 |
Abstrakt. Historiskt sett är dynamiska tekniker pionjärer inom informationsflödet på 70-talet. I sitt seminala arbete föreslår Denning och Denning ett statiskt alternativ för informationsflödesanalys. Efter detta arbete, 90-talet ser dominansen av statiska tekniker för informationsflöde. Den gemensamma visdomen verkar vara att dynamiska tillvägagångssätt inte är en bra matchning för säkerhet eftersom övervakning av en enda väg missar offentliga biverkningar som kunde ha hänt på andra vägar. Dynamiska tekniker för informationsflöde är på uppgång igen, driven av behovet av eftergivenhet i dagens dynamiska tillämpningar. Men de innebär fortfarande icke-triviala statiska kontroller av läckor relaterade till kontrollflödet. Detta dokument visar att det är möjligt att en rent dynamisk tillämpning är lika säker som Denning-stil statisk informationsflödesanalys, trots den gemensamma visdomen. Vi har den kompromissen att statiska tekniker har fördelar av att minska drifttid overhead, och dynamiska tekniker har fördelarna med eftergivenhet (detta, till exempel, är av särskild betydelse i dynamiska applikationer, där nygenererad kod utvärderas). Men på säkerhetssidan visar vi för ett enkelt imperativt språk att både Denning-liknande analys och dynamisk verkställighet har samma försäkran: uppsägning-okänslig icke-inblandning. | I en flödesokänslig inställning visar Sabelfeld och Russo REF att en rent dynamisk informationsflödesövervakare är mer släpphänt än en analys av det statiska informationsflödet i Denning-stil, samtidigt som både monitorn och den statiska analysen garanterar uppsägningsokänslig icke-inblandning. | 14,777,673 | From dynamic to static and back: Riding the roller coaster of information-flow control research | {'venue': 'Ershov Memorial Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,303 |
De flesta metoder för objekt, t.ex. segmentering, kräver att alla träningsexempel märks med segmenteringsmasker. Detta krav gör det dyrt att kommentera nya kategorier och har begränsat fallsegmenteringsmodeller till 100 väl annoterade klasser. Syftet med detta dokument är att föreslå ett nytt delvis övervakat träningsparadigm, tillsammans med en ny viktöverföringsfunktion, som möjliggör träningsexemplar segmentering modeller på en stor uppsättning kategorier som alla har boxanteckningar, men bara en liten del av vilka har mask annoteringar. Dessa bidrag gör det möjligt för oss att träna Mask R-CNN att upptäcka och segmentera 3000 visuella koncept med hjälp av boxanteckningar från Visual Genome-datasetet och maskera annoteringar från de 80 klasserna i COCO-datasetet. Vi utvärderar vår strategi i en kontrollerad studie av COCO dataset. Detta arbete är ett första steg mot exempelsegmenteringsmodeller som har bred förståelse för den visuella världen. | Mask X R-CNN REF hanterar detta problem genom att använda partiell övervakning av avgränsande rutor för att utföra instanssegmentering för Visual Genome dataset som omfattar 3000 kategorier. | 4,308,965 | Learning to Segment Every Thing | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 5,304 |
Vehicular Sensor Network (VSN) växer fram som en ny lösning för övervakning av stadsmiljöer som intelligenta transportsystem och luftföroreningar. En av de avgörande faktorer som avgör tjänsternas kvalitet i tillämpningar för stadsövervakning är leveransfördröjningen av avkänning av datapaket i VSN. I detta dokument studerar vi problemet med routing data paket med minsta fördröjning i VSN, genom att utnyttja i) fordon trafik statistik, ii) kasta routing och iii) kunskap om framtida banor för fordon som bussar. Vi introducerar först en ny modell för vägnätsdiagram som införlivar de tre faktorerna i routingmåttet. Vi karakteriserar sedan paketförseningen på varje kant som en funktion av fordonets densitet, hastighet och längden på kanten. Baserat på nätverksmodellen och fördröjningsfunktionen formulerar vi problemet med paketrouting som en Markovbeslutsprocess (MDP) och utvecklar en optimal routingpolicy genom att lösa MDP. Utvärderingar som använder verkliga fordonsspår i en stad visar att vår routingpolicy avsevärt förbättrar fördröjningsprestandan jämfört med befintliga routingprotokoll. | I REF (8) formuleras problemet med paket routing som en Markovbeslutsprocess (MDP) baserad på både nätverksmodellen och fördröjningsfunktionen, och även utveckla en optimal routingpolicy genom att lösa MDP. | 2,608,137 | Delay-optimal data forwarding in Vehicular Sensor Networks | {'venue': '2013 11th International Symposium and Workshops on Modeling and Optimization in Mobile, Ad Hoc and Wireless Networks (WiOpt)', 'journal': '2013 11th International Symposium and Workshops on Modeling and Optimization in Mobile, Ad Hoc and Wireless Networks (WiOpt)', 'mag_field_of_study': ['Computer Science']} | 5,305 |
Deep Payload Inspection systems som SNORT och BRO använder reguljärt uttryck för sina regler på grund av deras höga uttrycklighet och kompaktitet. SNORT-IDS-systemet använder PCRE-motorn för reguljärt uttryck som matchar nyttolasten. Den programvarubaserade PCRE Engine använder en NFA-motor baserad på vissa opcodes som bestäms av de reguljära uttryck operatörer i en regel. Varje regel i SNORT-reglerna översätts av PCRE-kompilatorn till en unik motor med reguljärt uttryck. Eftersom den programvarubaserade PCRE-motorn kan matcha nyttolasten med ett enda reguljärt uttryck åt gången, och måste göra det för flera regler i regeluppsättningen, minskar genomströmningen av SNORT IDS-systemet när varje paket bearbetas genom en mängd reguljära uttryck. I detta dokument beskriver vi vår implementering av maskinvarubaserade reguljära uttryck motorer för SNORT IDS genom att omvandla PCRE opcodes som genereras av PCRE kompilatorn från SNORT reguljära uttrycksregler. Vår kompilator genererar VHDL-kod som motsvarar de opcodes som genereras för SNORT reguljära uttrycksregler. Vi har justerat vår maskinvaruimplementering för att använda en NFA-baserad reguljär expression motor, med hjälp av giriga kvantifiers, på ungefär samma sätt som den programvarubaserade PCRE-motorn. Vårt system implementerar ett reguljärt uttryck endast en gång för varje ny regel i SNORT-reglerna, vilket resulterar i ett snabbt system som skalar väl med nya uppdateringar. Vi implementerar två hundra PCRE motorer baserade på en uppsjö av SNORT IDS regler, och använda en Virtex-4 LX200 FPGA, på SGI RASC RC 100 Blade ansluten till SGI ALTIX 4700 supercomputing system som en testbädd. Vi får en gränssnittsgenomströmning på (12,9 GBits/s) och även en maximal hastighetshöjning på 353X över programvarubaserad PCRE-utförande. | En Perl Compatible Regular Expression (PCRE) kompilator som omvandlar regexts från Snort regeluppsättningen till PCRE opcodes genomfördes i REF. | 6,194,234 | Compiling PCRE to FPGA for accelerating SNORT IDS | {'venue': "ANCS '07", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,306 |
Abstrakt. Cloud computing är en ny modell för tillhandahållande av dynamiskt elastiska och ofta virtualiserade resurser på nivåer av infrastruktur, plattformar och programvara. Molnplattformar används i allt större utsträckning för driftsättning och utförande av tjänstebaserade affärsprocesser. Tillhandahållandet av elastiska infrastrukturer och/eller plattformar är dock inte tillräckligt för att ge användarna elasticitet när det gäller bärbara datorer. Det finns därför ett behov av att tillhandahålla system för att öka och minska resursbehoven när så är möjligt. Detta kan uppnås med hjälp av mekanismer för duplicering och konsolidering av de företagstjänster som utgör de övergripande verksamhetsmålen. I detta dokument föreslår vi en formell modell och ett generiskt ramverk för spänst i systolen. | I REF beaktade vi de statslösa SBP:s elasticitet och tillhandahöll dubblerings- och konsolideringsmekanismer. | 9,925,735 | A Generic Framework for Service-based Business Process Elasticity in the Cloud | {'venue': 'BPM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,307 |
I detta dokument anser vi att det trådlösa sändningsscenariot med en källnod som skickar en del gemensam information till en grupp av nära lokaliserade användare, där varje länk är föremål för vissa paketraderingar. För att säkerställa tillförlitlig informationsmottagning av alla användare kräver den konventionella metoden i allmänhet upprepad överföring från källan tills alla användare kan avkoda informationen, vilket är ineffektivt i många praktiska scenarier. I detta dokument föreslår vi, genom att utnyttja den nära närheten mellan användarna, ett nytt tvåfas protokoll för trådlös sändning med användarsamarbete baserat på en effektiv batchad nätverkskod, känd som batched sparse (BATS) kod. I den första fasen kodas informationspaketen i satser med BATS-kodare och sänds sekventiellt av källnoden tills ett visst avslutandekriterium är uppfyllt. I den andra fasen samarbetar användarna med varandra genom att utbyta nätverkskodad information via peer-to-peer-kommunikation (P2P) baserat på deras respektive mottagna paket. En fullt distribuerad och lätt schemaläggningsalgoritm föreslås för att förbättra P2P-kommunikationens effektivitet i den andra fasen. Prestandan hos det föreslagna tvåfasprotokollet analyseras och distributionen av kanalrankning vid avkodning är härledd, baserat på vilken den optimala BATS-koden är utformad. Simuleringsresultat visar att det föreslagna protokollet överträffar de flesta befintliga system för utbyte av paket, särskilt när interanvändarlänkarna inte är tillförlitliga. Slutligen kontrolleras resultatet av det föreslagna systemet ytterligare genom testbäddsförsök. | I REF föreslog författarna ett distribuerat protokoll för kooperativa sändningar i två faser, som använder BATS-koder i den första fasen för att hjälpa peer-to-peer-kommunikationen (P2P). | 14,695,231 | Two-Phase Cooperative Broadcasting Based on Batched Network Code | {'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 5,308 |
Abstract-The nya video-kodning standard MPEG-4 möjliggör innehållsbaserad funktionalitet, samt hög kodning effektivitet, genom att ta hänsyn till form information om rörliga objekt. En ny algoritm för segmentering av rörliga objekt i videosekvenser och utvinning av videoobjektplan (VOP) föreslås i detta dokument. För flera videoobjekt i en scen diskuteras också extraktion av ett specifikt enstaka videoobjekt (VO) baserat på analys av anslutna komponenter och jämnhet av VO-förskjutning i på varandra följande ramar. Vår algoritm börjar med en robust dubbelkantskarta som härleds från skillnaden mellan två på varandra följande ramar. Efter att ha avlägsnat kantpunkter som hör till den föregående ramen används den återstående kantkartan, rörlig kant (ME), för att extrahera VOP. Den föreslagna algoritmen utvärderas på en inomhussekvens fångas av en låg-end kamera samt MPEG-4 testsekvenser och ger lovande resultat. | REF-segment flytta objekt baserat på extraherade flytta-kanter. | 1,151,821 | Fast and automatic video object segmentation and tracking for content-based applications | {'venue': 'IEEE Trans. Circuits Syst. Video Techn.', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,310 |
Beräkningen av betydelsen likhet som operationalized av vektorbaserade modeller har funnit utbredd användning i många uppgifter som sträcker sig från förvärv av synonymer och parafraser till ord sense disambiguation och textanknytning. Vektorbaserade modeller är vanligtvis inriktade på att representera ord isolerat och därmed bäst lämpade för att mäta likhet utifrån sammanhang. I sitt dokument föreslår vi en probabilistisk ram för att mäta likhet i sitt sammanhang. Centralt för vårt tillvägagångssätt är intuitionen att ordbetydelse representeras som en sannolikhetsfördelning över en uppsättning latenta sinnen och moduleras av sammanhang. Experimentella resultat på lexikal substitution och ordlikviditet visar att vår algoritm överträffar tidigare föreslagna modeller. | Slutligen föreslår Ref ett probabilistiskt ramverk som modellerar betydelsen av ord som en sannolikhetsfördelning över latenta dimensioner (senser). | 5,216,936 | Measuring Distributional Similarity in Context | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,311 |
Vi introducerar två Bayesianska modeller för oövervakad semantisk rollmärkning (SRL) uppgift. Modellerna behandlar SRL som kluster av syntaktiska signaturer av argument med kluster som motsvarar semantiska roller. Den första modellen framkallar dessa kluster oberoende för varje predikat, utnyttjar den kinesiska restaurangprocessen (CRP) som en föregångare. I en mer förfinad hierarkisk modell injicerar vi intuitionen att klungorna är likartade mellan olika predikat, även om de inte nödvändigtvis är identiska. Denna intuition kodas som ett avståndsberoende CRP med ett avstånd mellan två syntaktiska signaturer som anger hur troligt det är att de motsvarar en enda semantisk roll. Dessa avstånd induceras automatiskt inom modellen och delas mellan predikat. Båda modellerna uppnår toppmoderna resultat när de utvärderas på PropBank, med den kopplade modellen som konsekvent överträffar den faktoriserade motsvarigheten i alla experimentella uppsättningar. | REF föreslår en bayesisk klusteralgoritm baserad på den kinesiska restaurangprocessen. | 9,406,422 | A Bayesian Approach to Unsupervised Semantic Role Induction | {'venue': 'EACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,312 |
Abstract-In domänen av realtidssystem, analysen av timing beteendet hos program är avgörande för att garantera schedulability och därmed säkerheten i ett system. Statiska analyser av WCET (Worst-Case Execution Time) har visat sig vara en viktig del av tidsanalysen, eftersom de ger säkra övre gränser på ett programs genomförandetid. För enkärniga system är WCET-analysatorer redan tillgängliga, men hittills har endast första förslag lagts fram för att analysera WCET i flerkärniga system, där de olika kärnorna kan störa tillgången till delade resurser. Ett viktigt exempel på detta är delade bussar som kopplar kärnorna till ett gemensamt huvudminne. Tidpunkten för att få tillgång till den delade bussen kan variera avsevärt, beroende på det använda buss skiljedomsprotokollet och tidpunkterna för tillträde. I detta dokument föreslår vi en ny teknik för att analysera varaktigheten för tillträde till delade bussar. Vi implementerade ett prototypverktyg som använder den nya analysen och testade den på en uppsättning realworld-riktmärken. Resultaten visar att vår analys uppnår samma precision som den bästa befintliga metoden samtidigt som den drastiskt överträffar den i frågor om analystid. | Ett alternativt tillvägagångssätt för att analysera varaktigheten av tillgång till en TDMA-arbiterad resurs presenteras av REF. | 13,994,953 | Bus-Aware Multicore WCET Analysis through TDMA Offset Bounds | {'venue': '2011 23rd Euromicro Conference on Real-Time Systems', 'journal': '2011 23rd Euromicro Conference on Real-Time Systems', 'mag_field_of_study': ['Computer Science']} | 5,313 |
Sammanfattning Detta dokument presenterar topp 10 data mining algoritmer identifierade av IEEE International Conference on Data Mining (ICDM) i december 2006: C4.5, k-Means, SVM, Apriori, EM, PageRank, AdaBoost, kNN, Naive Bayes, och CART. Dessa topp 10 algoritmer är bland de mest inflytelserika data mining algoritmer i forskarsamhället. Med varje algoritm ger vi en beskrivning av algoritmen, diskuterar algoritmens inverkan och granskar aktuell och ytterligare forskning om algoritmen. Dessa 10 algoritmer omfattar klassificering, | -medel är en av de 10 bästa algoritmerna i datautvinning REF. | 2,367,747 | Top 10 algorithms in data mining | {'venue': 'Knowledge and Information Systems', 'journal': 'Knowledge and Information Systems', 'mag_field_of_study': ['Computer Science']} | 5,314 |
anses ofta vara den valda metoden för kontinuerlig optimering när första eller andra ordningens information finns tillgänglig. Användningen av L-BFGS kan dock vara komplicerad i en svart låda där gradientinformation inte finns tillgänglig och därför bör beräknas numeriskt. Noggrannheten i denna uppskattning, som erhålls med finita differensmetoder, är ofta problemberoende och kan leda till för tidig konvergens av algoritmen. Denna artikel visar ett alternativ till L-BFGS, den begränsade matrisanpassningsstrategi för minne (LM-CMA) som föreslås av Loshchilov (2014). LM-CMA är en stokastisk derivatfri algoritm för numerisk optimering av ickelinjära, icke konvexa optimeringsproblem. Inspirerad av L-BFGS, provar LM-CMA kandidatlösningar enligt en kovariansmatris reproducerad från m riktning vektorer utvalda under optimeringsprocessen. Nedbrytningen av kovariansmatrisen i Cholesky-faktorer gör det möjligt att minska minneskomplexiteten till O(mn), där n är antalet beslutsvariabler. Den tid komplexa provtagning en kandidat lösning är också O (mn) men skalor som endast ca 25 skalar-vektor multiplikationer i praktiken. Algoritmen har en viktig egenskap av invarians med avseende på strikt ökande omvandlingar av den objektiva funktionen; sådana omvandlingar äventyrar inte dess förmåga att närma sig det optimala. LM-CMA överträffar den ursprungliga CMA-ES och dess storskaliga versioner av icke-separerbara illkonditionerade problem med en faktor som ökar med problemdimension. Varierande egenskaper hos algoritmen hindrar den inte från att demonstrera en jämförbar prestanda med L-BFGS på icke-triviala storskaliga smidiga och icke-smooth optimeringsproblem. | Covariance matris anpassning utvecklingsstrategi är ett annat sätt att söka i ett stort utrymme REF. | 13,200,886 | LM-CMA: An Alternative to L-BFGS for Large-Scale Black Box Optimization | {'venue': 'Evolutionary Computation', 'journal': 'Evolutionary Computation', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Medicine']} | 5,315 |
Ordjustering är en grundläggande och kritisk process i Statistiska Maskinöversättningen (SMT). Det tidigare arbetet med ordanpassning fokuserar främst på utbildningsprocessen för att få ordet kartering samband mellan käll meningar och mål meningar. Men ordet anpassning för kombination av SMT systemutgångar är också viktigt, som syftar till att hitta ordkorrespondens mellan alternativa översättning hypoteser av en källspråk mening. Tyvärr drar det inte så mycket uppmärksamhet till sig i SMT-forskningen. I detta dokument föreslår vi en ny ordjusteringsmetod för att effektivt ta itu med ordjusteringen mellan meningar med olika giltiga ordordningar, som ändrar ordningen på ordsekvenserna (kallad ordomordning) i utdatahypoteserna för att göra ordföljden mer exakt i linjereferensen. Vi presenterar experimentella resultat på IWSLT'2008 utmaning uppgifter med kombinationen av fyra state-of-the-art SMT system outputs. Resultaten visar att vår strategi avsevärt förbättrar prestandan hos systemkombinationen. | Li och Chengqing Zong REF tog upp ordjusteringen mellan meningar med olika giltiga ordordningar, som ändrar ordningen på ordsekvenserna (kallas ordomordning) i utdatahypoteserna för att göra ordföljden mer exakt överensstämmer med anpassningsreferensen. | 6,209,064 | Word Reordering Alignment for Combination of Statistical Machine Translation Systems | {'venue': '2008 6th International Symposium on Chinese Spoken Language Processing', 'journal': '2008 6th International Symposium on Chinese Spoken Language Processing', 'mag_field_of_study': ['Computer Science']} | 5,316 |
Abstract-current anpassningsstrategier fungerar främst isolerat och kan inte enkelt integreras för att hantera komplexa anpassningsscenarier. De få befintliga korsskiktsanpassningsteknikerna är något oflexibla eftersom anpassningsprocessen är fördefinierad och statisk. I detta dokument föreslår vi en metod för dynamisk och flexibel anpassning av flerskiktstillämpningar. Vi använder händelser för att utlösa processen för att matcha anpassningsmallar, som exponerar anpassningslogik som BPEL-processer. Matchningsprocessen använder taxonomier av anpassningsobalanser för att välja anpassningsmallar baserat på graden av matchning mellan händelser och anpassningsobalanser. Vi ger stöd för lageröverskridande anpassning genom att tillåta mallar att antingen direkt, genom anrop av WSDL verksamhet eller indirekt, genom händelser. | Popescu m.fl. I REF presenteras en metod för anpassning över lager med hjälp av anpassningsmallar. | 5,576,370 | Taxonomy-Driven Adaptation of Multi-layer Applications Using Templates | {'venue': '2010 Fourth IEEE International Conference on Self-Adaptive and Self-Organizing Systems', 'journal': '2010 Fourth IEEE International Conference on Self-Adaptive and Self-Organizing Systems', 'mag_field_of_study': ['Computer Science']} | 5,317 |
ABSTRACT Visual-inertial SLAM-system uppnår mycket noggrann uppskattning av kamerans rörelse och 3D-representation av miljön. De flesta av de befintliga metoderna förlitar sig på punkter genom funktionsmatchning eller direkt bildjustering med hjälp av fotokonsistensbegränsningar. Prestandan för dessa metoder minskar vanligtvis vid låga texturerade miljöer. Dessutom är linjer mycket vanliga i konstgjorda miljöer och ger geometrisk strukturinformation om miljön. I detta papper ökar vi robustheten i visuellt-inertial SLAM-system för att hantera dessa situationer genom att använda både punkter och linjer. Vår metod, som implementeras baserat på ORB-SLAM2, gör kombinationen av punkter, linjer och IMU-mätningar på ett effektivt sätt genom att välja nyckelramar mycket noggrant och hantera de yttre linjerna effektivt. Kostnadsfunktionen för bunt justering bildas av punkt, linje reprojection fel, och IMU kvarstående fel. Vi härleder Jacobian matriser av linje reprojection fel med avseende på 3D endpoints av linjesegment och kamerarörelse. Loop stängning detektion bestäms av både punkt och linje funktioner med hjälp av säck-of-words strategi. Vår metod utvärderas på det offentliga EuRoc datasetet och jämförs med de senaste visuella-inertiella fusionsmetoderna. Experimentella resultat visar att vår metod uppnår den högsta noggrannheten på de flesta testsekvenser, särskilt i vissa utmanande situationer som låg textur och ljusskiftande miljöer. INDEX TERMS Visuell samtidig lokalisering och kartläggning, visuell-inertiell fusion, linjesegment funktioner, buntjustering. | Liu m.fl. REF använde både punkter och linjer för att öka robustheten i deras visuella-inertial SLAM-system. | 54,452,792 | Stereo Visual-Inertial SLAM With Points and Lines | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 5,318 |
Inkorporering av kognitiv radio (CR) och energiupptagning (EH) kapacitet i trådlösa sensornätverk möjliggör spektrum och energieffektiv heterogena CR-sensornätverk (HCRSN). HCRSN:s nya nätverksparadigm består av EH-aktiverade spektrumsensorer och batteridrivna datasensorer. Spektrumsensorer kan gemensamt skanna det licensierade spektrumet efter tillgängliga kanaler, medan datasensorer övervakar ett intresseområde och överför avkännbara data till diskbänken över dessa kanaler. I detta dokument föreslår vi en resursallokeringslösning för HCRSN för att uppnå hållbarhet för spektrumsensorer och spara energi från datasensorer. Den föreslagna lösningen uppnås genom två algoritmer som fungerar sida vid sida: en spektrumsensoralgoritm (SSS) och en datasensorresursalgoritm (DSRA). SSS algoritmen allokerar kanaler till spektrumsensorer så att den genomsnittliga detekterade tillgängliga tiden för kanalerna maximeras, medan EH dynamiken beaktas och primära användare (PU) sändningar skyddas. DSRA-algoritmen fördelar överföringstid, kraft och kanaler så att datasensorernas energiförbrukning minimeras. Omfattande simuleringsresultat visar att datasensorernas energiförbrukning kan minskas avsevärt, samtidigt som spektrumsensorernas hållbarhet upprätthålls. Index Terms-Cognitive Radio (CR), energieffektivitet, energiupptagning (EH), flera kanaler, trådlöst sensornätverk (WSN). | I REF föreslog författarna en resursalgoritm för kognitiva radiosensornätverk som antar energiskördande-aktiverade spektrumsensorer. | 8,699,333 | Energy-Harvesting-Aided Spectrum Sensing and Data Transmission in Heterogeneous Cognitive Radio Sensor Network | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']} | 5,319 |
Abstract-Big Data håller på att bli en ny teknikfokusering både inom vetenskap och industri. I detta dokument diskuteras de utmaningar som Big Data innebär för den moderna och framtida vetenskapliga datainfrastrukturen (SDI). I artikeln diskuteras en natur och definition av Big Data som inkluderar funktioner som Volym, Hastighet, Variation, Värde och Veracity. I dokumentet hänvisas till olika forskarsamfund för att fastställa krav på datahantering, åtkomstkontroll och säkerhet. I dokumentet introduceras modellen Scientific Data Lifecycle Management (SDLM) som omfattar alla de viktigaste stegen och återspeglar specifika uppgifter inom datahantering inom modern e-vetenskap. I dokumentet föreslås den allmänna SDI-arkitekturmodellen som ger en grund för att bygga driftskompatibla data eller projektcentrerad SDI med hjälp av modern teknik och bästa praxis. Dokumentet förklarar hur de föreslagna modellerna SDLM och SDI naturligt kan implementeras med hjälp av moderna molnbaserade infrastrukturtjänster som tillhandahåller modell och föreslår de viktigaste infrastrukturkomponenterna för Big Data. | I REF introducerar författarna en modell för Scientific Data Lifecycle Management (SDLM), som är en allmän beskrivning av de olika stegen och bearbetningsstegen för vetenskapliga datamängder när de hanteras av e-vetenskapsinfrastrukturer. | 17,068,080 | Addressing big data issues in Scientific Data Infrastructure | {'venue': '2013 International Conference on Collaboration Technologies and Systems (CTS)', 'journal': '2013 International Conference on Collaboration Technologies and Systems (CTS)', 'mag_field_of_study': ['Computer Science']} | 5,320 |
Vissa kollektivtrafikfordon bäddade enheter som gör det möjligt för passagerare att ansluta till Internet under resor. Dessa fordon är verkliga mobila Internet-åtkomstzoner inom offentliga vägar. Dessa zoner kan användas av andra fordon som rör sig nära dem för att få tillgång till Internet. Samtidigt skulle andra fordon i påverkansområdet kunna användas som relänoder som skulle öka detta tillträdesområde. I detta dokument presenterar vi en gruppbaserad protokoll- och rörlighetsmodell för fordonsbaserade ad hoc-nät där varje kollektivtrafikfordon bildar en grupp fordon. De kan få tillgång till och tillåta tillgång till Internet genom kollektivtrafikfordonet. Varje fordon rör sig inne i gruppen och kan lämna och gå med vilken grupp som helst efter behag, medan alla grupper rör sig. Först ska vi visa algoritmen och protokollet för att uppnå vårt syfte. Sedan kommer vi att undersöka sannolikheten för att få tillgång till Internet för att visa att det är ett genomförbart förslag. Slutligen simulerar vi ett studiefall baserat på verkliga värden för att få resultatet av vårt förslag i form av flera nätverksparametrar såsom antalet humle per rutt, nätverkstrafiken, sidsvarstiden, nätverksfördröjningen, nätbelastningen och så vidare. | I Ref har ett gruppbaserat protokoll och en rörlighetsmodell föreslagits för att tillhandahålla allmänt tillgänglig Internettillgång till fordon. | 40,221,799 | Group-based protocol and mobility model for VANETs to offer internet access | {'venue': 'J. Netw. Comput. Appl.', 'journal': 'J. Netw. Comput. Appl.', 'mag_field_of_study': ['Computer Science']} | 5,321 |
Sammanfattning I många tekniska optimeringsproblem är antalet funktionsutvärderingar ofta mycket begränsat på grund av beräkningskostnaden för att köra en numerisk simulering med hög kvalitet. I detta fall är det inte lämpligt att använda en klassisk optimeringsalgoritm, t.ex. en derivatbaserad algoritm eller en evolutionär algoritm, direkt på en beräkningsmodell. En gemensam strategi för att ta itu med denna utmaning är att använda surrogatmodelleringsmetoder för svarta lådor. Den mest populära surrogatbaserade optimeringsalgoritmen är algoritmen Efficient Global Optimization (EGO), som är en iterativ provtagningsalgoritm som lägger till en (eller många) poäng per iteration. Denna algoritm bygger ofta på ett provtagningskriterium för utfyllnad, som kallas förväntad förbättring, vilket innebär en avvägning mellan lovande och osäkra områden. Många studier har visat EGO:s effektivitet, särskilt när antalet insatsvariabler är relativt lågt. Dess prestanda på högdimensionella problem är dock fortfarande dålig eftersom de Kriging-modeller som används är tidskrävande att bygga. För att ta itu med denna fråga introducerar detta dokument en surrogatbaserad optimeringsmetod som lämpar sig för högdimensionella problem. Metoden använder först "lokalisera den regionala extrem"-kriteriet, som innehåller minimering av surrogatmodellen och samtidigt maximera det förväntade förbättringskriteriet. Därefter ersätter den Kriging-modellerna med KPLS (+K)-modellerna (Kriging kombinerat med den partiella metoden med minst kvadrater), som är lämpligare för högdimensionella problem. Slutligen bekräftas det föreslagna tillvägagångssättet genom en jämförelse med de alternativa metoder som finns i litteraturen om vissa analytiska funktioner och om 12-dimensionella och 50-dimensionella fall av referensfordonsproblemet "MOPTA08". | Nyligen, Kriging modellen, kombinerat med den partiella minsta kvadratmetoden, användes som en surrogat i en begränsad LSGO REF. | 56,405,024 | Efficient global optimization for high-dimensional constrained problems by using the Kriging models combined with the partial least squares method | {'venue': None, 'journal': 'Engineering Optimization', 'mag_field_of_study': ['Mathematics']} | 5,322 |
Abstract-Vi presenterar en enkel metod för kalibrering av en uppsättning kameror som kanske inte har överlappande synfält. Vi minskar problemet med att kalibrera de icke-överlappande kamerorna till problemet med att lokalisera kamerorna med avseende på en global 3D-modell rekonstruerad med en samtidig lokalisering och kartläggning (SLAM) system. Vi rekonstruerar först en sådan global 3D-modell genom att använda ett SLAM-system med hjälp av en RGB-D-sensor. Vi utför sedan lokalisering och egen parameteruppskattning för varje kamera genom att använda 2D-3D-korrespondenser mellan kameran och 3D-modellen. Vår metod lokaliserar kamerorna inom 3D-modellen, vilket är användbart för att visuellt inspektera kamerans poser och ger ett modellstyrt webbgränssnitt för bilderna. Vi visar fördelarna med vår metod genom att använda flera inomhusscener. | Slutligen, i REF, flera kameror med icke-överlappande vyfält kalibreras med hjälp av en samtidig lokalisering och kartläggning (SLAM) teknik av en mobil robot. | 6,070,864 | Calibration of Non-overlapping Cameras Using an External SLAM System | {'venue': '2014 2nd International Conference on 3D Vision', 'journal': '2014 2nd International Conference on 3D Vision', 'mag_field_of_study': ['Computer Science']} | 5,323 |
Abstract-Vi undersöker kvantitativt hur maskininlärningsmodeller läcker information om de enskilda dataposter på vilka de utbildades. Vi fokuserar på den grundläggande medlemskap inference attack: med tanke på en datapost och black-box tillgång till en modell, avgöra om posten var i modellens träningsdataset. För att göra en medlemsslutsats mot en målmodell använder vi oss av maskininlärning och utbildar vår egen inferensmodell för att känna igen skillnader i målmodellens förutsägelser om de ingångar som den tränade på jämfört med de ingångar som den inte tränade på. Vi utvärderar empiriskt våra inferenstekniker på klassificeringsmodeller som utbildats av kommersiella "maskininlärning som en tjänst" leverantörer som Google och Amazon. Med hjälp av realistiska datauppsättningar och klassificeringsuppgifter, inklusive en datauppsättning för sjukhusutskrivning vars medlemskap är känsligt ur ett sekretessperspektiv, visar vi att dessa modeller kan vara sårbara för medlemsinferensattacker. Vi undersöker sedan de faktorer som påverkar detta läckage och utvärderar begränsningsstrategier. | Sochri m.fl. REF utför medlemskap inference attacker mot svart box maskin lärande modeller. | 10,488,675 | Membership Inference Attacks Against Machine Learning Models | {'venue': '2017 IEEE Symposium on Security and Privacy (SP)', 'journal': '2017 IEEE Symposium on Security and Privacy (SP)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 5,324 |
: Vi föreslår Deep3D, en helautomatisk 2D-till-3D konverteringsalgoritm som tar 2D-bilder eller videoramar som ingång och utgångar 3D stereo bildpar. stereobilderna kan ses med 3D-glasögon eller huvudmonterade VR-displayer. Deep3D tränas direkt på stereo par från en datauppsättning av 3D-filmer för att minimera pixel-wise rekonstruktion fel i höger vy när den ges vänster vy. Internt uppskattar Deep3D-nätverket en probabilistisk skillnadskarta som används av ett olika djupbildsbaserat renderingsskikt för att skapa rätt vy. Deep3D kräver således inte insamling av djupsensordata för övervakning. Abstrakt. När 3D-filmvisning blir vanligt förekommande och marknaden för Virtual Reality (VR) växer efterfrågan på 3D-innehåll snabbt. Att producera 3D-videor är dock fortfarande en utmaning. I detta papper föreslår vi att använda djupa neurala nätverk för att automatiskt konvertera 2D-videor och bilder till stereoskopisk 3D-format. I motsats till tidigare automatiska 2D-till-3D omvandlingsalgoritmer, som har separata stadier och behöver mark-sanning djup karta som övervakning, är vårt tillvägagångssätt tränas end-toend direkt på stereo par extraherade från 3D-filmer. Detta nya utbildningsprogram gör det möjligt att utnyttja mer omfattande data och avsevärt öka prestandan. Deep3D överträffar faktiskt utgångspunkterna i både kvantitativa och mänskliga utvärderingar. | Denna idé förfinas ytterligare av Xie et al. REF för konvertering från 2D till 3D. | 5,458,522 | Deep3D: Fully Automatic 2D-to-3D Video Conversion with Deep Convolutional Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,325 |
I detta dokument överväger vi delay-optimal laddning schemaläggning av elfordon (EV) vid en laddningsstation med flera laddningspunkter. Laddstationen är utrustad med apparater för produktion av förnybar energi och kan även köpa energi från elnät. Osäkerheten i fråga om EV:s ankomst, den förnybara energins intermittens och variationen i nätkraftspriset beaktas och beskrivs som oberoende Markovprocesser. Samtidigt är den laddningsenergi som krävs för varje elfordon slumpmässigt. Målet är att minimera den genomsnittliga väntetiden för elfordon under den långsiktiga begränsningen av kostnaden. Vi föreslår kökartläggning för att konvertera EV kön till laddning efterfrågan kö, och vi bevisar ekvivalensen mellan minimering av de två köer "genomsnittlig längd. Sedan fokuserar vi på minimeringen av den genomsnittliga längden på avgiftsefterfrågans kö under den långsiktiga kostnadsbegränsningen. Vi föreslår en ram för Markovs beslutsprocess (MDP) för att undersöka detta begränsade stokastiska optimeringsproblem. Systemet staten inkluderar laddning efterfrågan kö längd, laddning efterfrågan ankomst, energinivån i lagring batteriet av förnybar energi, den förnybara energi ankomsten, och nät elpriset. Dessutom utgör antalet laddningskrav och den tilldelade energin från lagringsbatteriet 2-D-policyn. Vi har två nödvändiga förutsättningar för en optimal politik. Dessutom diskuterar vi minskningen av 2-D-politiken för att bara vara antalet avgiftskrav. Vi ger de systemstater för vilka man inte tar ut någon efterfrågan och tar ut så många krav som möjligt är optimala. Slutligen undersöker vi den föreslagna politiken numeriskt. | Zhang m.fl. REF övervägde en delayoptimal ECS för PEV med kökartläggning för att konvertera PEV-kön till avgiftsefterfrågans kö vid en laddstation utrustad med anordningar för produktion av förnybar energi och flera laddningspunkter. | 13,087,923 | Charging Scheduling of Electric Vehicles With Local Renewable Energy Under Uncertain Electric Vehicle Arrival and Grid Power Price | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 5,326 |
Abstract-Satellite nätverk har undersökts brett både i näringslivet och akademin i många år, med många viktiga routing algoritmer rapporteras i litteraturen. Men färre befintliga routingalgoritmer fokuserar på avvägningen mellan routingöverlevbarheten och routingberäkningen och omkostnaderna för lagring. På grund av topologisk dynamik är det svårt att effektivt tillämpa de konventionella routing protokollen såsom RIP eller OSPF till Low Earth Orbit (LEO) satellitnät. Enligt den virtuella topologimodellen baserad på virtuell nod föreslås i detta dokument ett nytt fullständigt distribuerat routingprotokoll för LEO-satellitnät, kallat Distributed Traffic Balancing Routing (DTBR). Det föreslagna protokollet garanterar inte bara körbarheten och ger möjlighet till trafikbalansering, utan resulterar också i få ytterligare beräkningar och lagring omkostnader endast härrör från informationsöversvämningar av misslyckade satelliter. Simuleringsresultat visar positiva slutsatser av våra metoder. | Distribuerad trafikbalansering (DTBR) REF använder VT-modell för trafikbalansering. | 28,043,928 | Distributed Traffic Balancing Routing for LEO Satellite Networks | {'venue': None, 'journal': 'International Journal of Computer Network and Information Security', 'mag_field_of_study': ['Computer Science']} | 5,327 |
Vi genomförde en pilotstudie på 10 patienter som genomgick allmän kirurgi för att testa genomförbarheten av diffus reflektansspektroskopi i det synliga våglängdsområdet som ett icke-invasivt övervakningsverktyg för blodförlust under kirurgi. Förhållanden av rå diffus reflex vid våglängdspar testades som en första passage för att uppskatta hemoglobinkoncentration. Förhållanden kan beräknas enkelt och snabbt med begränsad efterbehandling, och därför kan detta betraktas som en övervakningsanordning i nära realtid. Vi hittade den bästa hemoglobin korrelationer var när nyckeltal vid isosbest punkter av oxy-och deoxyhemoglobin användes, specifikt 529/500 nm. Utgångsvärdet för subtraktion förbättrade korrelationer, särskilt vid 520/509 nm. Dessa resultat visar bevis-of-concept för förmågan hos denna icke-invasiva anordning att övervaka hemoglobinkoncentration förändringar på grund av kirurgisk blodförlust. Förhållandet 529/500 nm förefaller också stå för variationerna i sondtrycket, enligt mätningar på två frivilliga. | Bender och Al. REF beskrev ett system som använder diffus reflektansspektroskopi (DRS) för att övervaka hemoglobin under operation. | 17,308,695 | Noninvasive monitoring of tissue hemoglobin using UV-VIS diffuse reflectance spectroscopy: a pilot study. | {'venue': 'Optics express', 'journal': 'Optics express', 'mag_field_of_study': ['Physics', 'Medicine']} | 5,328 |
Abstract-This paper presenterar en översikt över den invigda Amazon Picking Challenge tillsammans med en sammanfattning av en undersökning som genomförts bland de 26 deltagande teamen. Utmaningen var att designa en autonom robot för att plocka föremål från en lagerhylla. Denna uppgift utförs för närvarande av mänskliga arbetare, och det finns hopp om att robotar en dag kan bidra till att öka effektiviteten och genomströmningen samtidigt som kostnaderna sänks. Vi rapporterar om en 28-fråga undersökning som ställs till teamen för att lära sig om varje lags bakgrund, mekanism design, perception apparat, planering och kontroll tillvägagångssätt. Vi identifierar trender i dessa data, korrelerar med varje lags framgång i tävlingen och diskuterar observationer och lärdomar baserade på enkätresultat och författarnas personliga erfarenheter under utmaningen. Not to Practitioners-Perception, rörelseplanering, grepp och robotsystemteknik har nått en mognadsnivå som gör det möjligt att utforska automatisera enkla lageruppgifter i halvstrukturerade miljöer som involverar högmix, låg- | Robot hylla stapling var en del av Amazon plock utmaning i den senaste iteration REF. | 6,728,079 | Analysis and Observations From the First Amazon Picking Challenge | {'venue': 'IEEE Transactions on Automation Science and Engineering', 'journal': 'IEEE Transactions on Automation Science and Engineering', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 5,329 |
Tillförlitlighet är ett allvarligt problem för framtida högeffektiva datorsystem (HPC). Prognoser baserade på den nuvarande generationen HPC-system och tekniska färdplaner tyder på att mycket höga felfrekvenser förekommer i framtida system. Medan HPC-gemenskapen har utvecklat olika motståndskraftslösningar, tillämpningstekniker och systembaserade lösningar, är lösningsutrymmet fortfarande fragmenterat. Det finns inga formella metoder och mätmetoder för att integrera olika HPC-resistanstekniker i sammansatta lösningar, och det finns inte heller några metoder för att holistiskt utvärdera sådana lösningars lämplighet och effektivitet i fråga om skydd och deras prestanda- och effekteffektivitetsegenskaper. Dessutom är få av de nuvarande tillvägagångssätten portabla till nyare arkitekturer och programvarumiljöer som kommer att användas på framtida system. I detta dokument utvecklar vi ett strukturerat tillvägagångssätt för design, utvärdering och optimering av HPC-resiliens med hjälp av konceptet designmönster. Ett mönster är en allmän repeterbar lösning på ett vanligt förekommande problem. Vi identifierar de problem som orsakas av olika typer av fel, fel och fel i HPC-system och de tekniker som används för att hantera dessa händelser. Varje välkänd lösning som tar itu med en specifik HPC-resistansutmaning beskrivs i form av ett mönster. Vi utvecklar en komplett katalog över sådana mönster för motståndskraftsdesign, som kan användas av systemarkitekter, systemprogramvara och verktygsutvecklare, applikationsprogrammerare samt användare och operatörer som viktiga byggstenar vid utformning och driftsättning av motståndskraftslösningar. Vi utvecklar också en designram som ökar en designers förståelse för möjligheterna att integrera flera mönster över lager av systemstacken och de viktiga begränsningarna under implementeringen av de enskilda mönstren. Det är också användbart för att definiera mekanismer och gränssnitt för att samordna flexibel felhantering mellan maskinvaru- och programvarukomponenter. Motståndskraftsmönstren och konstruktionsramarna möjliggör också prospektering och utvärdering av designalternativ och stöder optimering av kostnads-nyttojämförelser mellan prestanda, skyddstäckning och effektförbrukning av motståndskraftslösningar. Det övergripande målet med detta arbete är att fastställa en systematisk metod för utformning och utvärdering av motståndskraftsteknik i extrema HPC-system som håller vetenskapliga tillämpningar igång till en korrekt lösning i rätt tid och kostnadseffektivt sätt trots frekventa fel, fel och fel av olika typer. | De motståndskraftsdesignmönster REF och det mönsterspråk som presenteras i detta dokument är avsedda att förse HPC-designers med ett tillvägagångssätt för att systematiskt utforma och implementera heltäckande motståndskraftslösningar. | 873,258 | Resilience Design Patterns: A Structured Approach to Resilience at Extreme Scale | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,330 |
Abstract-Searching för mobila data offloading lösningar har varit aktuella under de senaste åren. I detta dokument presenterar vi en samverkande WiFi-baserade mobila data offloading arkitektur Metropolitan Advanced Delivery Network (MADNet), som syftar till att förbättra energieffektiviteten för smartphones. Enligt våra mätningar är det svårt att avlasta WiFi-baserade mobila data för att flytta smartphones på grund av begränsningen av WiFi-antenner som används på befintliga smartphones och den korta kontakttiden med WiFi APs. Dessutom visar vår studie att antalet open-accessable WiFi AP är mycket begränsat för smartphones i storstadsområden, vilket i hög grad påverkar avlastningsmöjligheterna för tidigare system som endast använder öppna AP. För att ta itu med dessa problem aggregerar MADNet intelligent den samarbetskraft som cellulära operatörer, leverantörer av WiFi-tjänster och slutanvändare har. Vi utformar en energimedveten algoritm för energianslutna enheter för att hjälpa avlastningsbeslutet. Vår design gör det möjligt för smartphones att välja den mest energieffektiva WiFi AP för avlastning. Den experimentella utvärderingen av vår prototyp på smartphone (Nokia N900) visar att vi kan uppnå mer än 80 % energibesparing. Våra mätresultat visar också att MADNet kan tolerera mindre fel i lokalisering, mobilitetsförutsägelse och avlastning kapacitetsuppskattning. | REF föreslog en algoritm för att minska energiförbrukningen genom att välja den mest energieffektiva WiFi AP för avlastning. | 15,664,314 | Enabling energy-aware collaborative mobile data offloading for smartphones | {'venue': '2013 IEEE International Conference on Sensing, Communications and Networking (SECON)', 'journal': '2013 IEEE International Conference on Sensing, Communications and Networking (SECON)', 'mag_field_of_study': ['Computer Science']} | 5,331 |
Abstrakt. Temporal relationell resonemang, förmågan att länka meningsfulla omvandlingar av objekt eller entiteter över tid, är en grundläggande egenskap hos intelligenta arter. I detta dokument introducerar vi en effektiv och tolkningsbar nätverksmodul, Temporal Relation Network (TRN), utformad för att lära sig och resonera om tidsberoenden mellan videoramar på flera tidsskalor. Vi utvärderar TRN-utrustade nätverk på aktivitetsigenkänning uppgifter med hjälp av tre senaste video dataset -Något, Jester, och Charades -som i grunden beror på temporal relationell resonemang. Våra resultat visar att den föreslagna TRN ger konvolutionella neurala nätverk en anmärkningsvärd kapacitet att upptäcka tidsmässiga relationer i videor. Genom endast glest provade videoramar, TRN-utrustade nätverk kan exakt förutsäga mänskliga objekt interaktioner i något-någonting dataset och identifiera olika mänskliga gester på Jester dataset med mycket konkurrenskraftiga prestanda. TRN-utrustade nätverk överträffar också tvåströmsnät och 3D-konvolutionsnät när det gäller att känna igen den dagliga verksamheten i Charades dataset. Ytterligare analyser visar att modellerna lär sig intuitivt och tolkningsbart visuellt sunt förnuft kunskap i videor 1. | Till exempel föreslog REF Temporal Relation Network för att resonera de tidsbundna "relationerna" mellan ramar på flera tidsskalor. | 22,044,313 | Temporal Relational Reasoning in Videos | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,332 |
I denna artikel analyseras effekterna av nätneutralitetsreglering på investeringsincitament för Internetleverantörer och innehållsleverantörer och deras konsekvenser för den sociala välfärden. När det gäller Internetleverantörernas investeringsincitament anser vi att kapacitetsökningen minskar försäljningspriset för den prioriterade rättigheten under det diskriminerande systemet. I motsats till Internetleverantörernas påstående att nätneutralitetsregler skulle ha en kylande effekt på deras incitament att investera kan vi därför inte avfärda möjligheten till motsatsen. Ett diskriminerande system kan också försvaga CP:s investeringsincitament på grund av CP:s oro över att ISP skulle expropriera vissa av investeringsfördelarna. | Choi m.fl. REF analyserade effekten av neutrala bestämmelser på Internetleverantörernas investeringsincitament och fann att kapacitetsökningen minskar försäljningspriset för premiumtjänsten. | 64,764,077 | Net neutrality and investment incentives | {'venue': None, 'journal': 'The RAND Journal of Economics', 'mag_field_of_study': ['Economics']} | 5,333 |
Att upptäcka förändringar i en dataström är ett viktigt forskningsområde med många tillämpningar. I detta dokument presenterar vi nya metoder för att upptäcka och uppskatta förändringar. Till skillnad från tidigare föreslagna verktyg ger våra tekniker bevisade garantier för den statistiska betydelsen av upptäckta förändringar. Förutom att ge tillförlitlig upptäckt av förändringar möjliggör vår metod en meningsfull beskrivning och kvantifiering av dessa förändringar. Våra tekniker är icke-parametriska och kräver därför inga förutfattade antaganden om vilken typ av distribution som genererar data, med undantag för antagandet att punkter i strömmen genereras självständigt. Dessutom fungerar dessa tekniker för både kontinuerliga och diskreta data. I en experimentell studie visar vi nyttan av våra tekniker. | I samband med stora databaser föreslår Kifer, BenDavid och Gehrke en algoritm för att upptäcka förändringar i dataströmmar REF. | 52,800,392 | Detecting Change in Data Streams | {'venue': 'VLDB', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,334 |
Hur kan ett enda fullständigt konvolutionellt neuralt nätverk (FCN) utföra på objektdetektion? Vi introducerar DenseBox, en enhetlig end-to-end FCN ram som direkt förutsäger avgränsande rutor och objekt klass förtroenden genom alla platser och skalor av en bild. Vårt bidrag är tvåfaldigt. För det första visar vi att en enda FCN, om den utformas och optimeras noggrant, kan upptäcka flera olika objekt extremt exakt och effektivt. För det andra visar vi att när man införlivar med landmärke lokalisering under multi-task lärande, DenseBox ytterligare förbättrar objekt upptäckt accuray. Vi presenterar experimentella resultat på offentliga referensdataset inklusive MALF ansiktsdetektering och KITTI bildetektering, som indikerar att vår DenseBox är det toppmoderna systemet för att upptäcka utmanande objekt som ansikten och bilar. | Dense-Box REF föreslog först en enhetlig end-to-end full convolutional ram som direkt förutsåg avgränsande rutor. | 14,710,847 | DenseBox: Unifying Landmark Localization with End to End Object Detection | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,335 |
För visuella spårningsmetoder baserade på kärnstödsvektorer (SVMs) används vanligtvis dataprovtagning för att minska beräkningskostnaden under utbildningen. Dessutom krävs budgetering av stödvektorer för beräkningseffektivitet. Istället för provtagning och budgetering har nyligen den cirkulantmatris som bildas genom tät provtagning av översatta bildplåster använts i korreleringsfilter för snabb spårning. I detta papper härleder vi en likvärdig formulering av en SVM-modell med det cirkulära matrisuttrycket och presenterar en effektiv alternerande optimeringsmetod för visuell spårning. Vi införlivar den diskreta Fourier transform med den föreslagna alternerande optimeringsprocessen, och utgör spårningsproblemet som en iterativ inlärning av stödkorrelationsfilter (SCFs). I full övervakning kan vår SCF hitta den globalt optimala lösningen med realtidsprestanda. För en given cirkulant datamatris med n 2 prov av n В n pixlar är den föreslagna algoritmens beräkningskomplex Oðn 2 log n på medan den för standard SVM-baserade metoder är minst Oðn 4. Dessutom utökar vi den SCF-baserade spårningsalgoritmen med flerkanalsfunktioner, kärnfunktioner och skalanpassningsmetoder för att ytterligare förbättra spårningsprestandan. Experimentella resultat på en stor uppsättning referensdata visar att de föreslagna SCF-baserade algoritmerna fungerar gynnsamt mot de senaste spårningsmetoderna när det gäller noggrannhet och hastighet. | Zuo m.fl. REF omformulera SVM-modellen med cirkulärt matrisuttryck och presentera en effektiv alternerande optimeringsmetod. | 9,811,284 | Learning Support Correlation Filters for Visual Tracking | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 5,336 |
Att dra slutsatser om probabilistiska grafiska modeller är fortfarande i hög grad en praktisk utmaning inom stora områden. Den vanliga och effektiva trosutbredningsalgoritmen (BP) och dess generaliseringar konvergerar ofta inte när den tillämpas på hårda, verkliga resultatuppgifter. Även om det är allmänt erkänt att schemaläggningen av meddelanden i dessa algoritmer kan ha betydande konsekvenser, är denna fråga fortfarande till stor del outforskad. I detta arbete tar vi upp frågan om hur man schemalägger meddelanden för asynkron spridning så att en fast punkt nås snabbare och oftare. Vi visar först att alla rimliga asynkrona BP konvergerar till en unik fast punkt under förhållanden som liknar dem som garanterar konvergens av synkron BP. Dessutom visar vi att konvergenshastigheten för ett enkelt rundarobinschema är minst lika bra som för synkron förökning. Vi föreslår sedan resterande trosutbredning (RBP), en ny, lätt att genomföra, asynkron spridningsalgoritm som schemalägger meddelanden på ett informerat sätt, som trycker ner en gräns på avståndet från den fasta punkten. Slutligen visar vi på RBP:s överlägsenhet jämfört med de senaste metoderna för en mängd utmanande syntetiska och verkliga problem: RBP konvergerar betydligt oftare än andra metoder; och det minskar körtiden avsevärt fram till konvergens, även när andra metoder konvergerar. | Slutligen noterar vi att vår uppfattning om termen resterande di tillers från den av Residual Belief Propagation (RBP) REF. | 9,008,993 | Residual Belief Propagation: Informed Scheduling for Asynchronous Message Passing | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,337 |
Många distribuerade multimediaapplikationer uppvisar exibilitet till uktuationer i nätverksförhållandena. Genom att handla o temporal och rumslig kvalitet till tillgänglig bandbredd, eller manipulera playout tiden för kontinuerliga medier som svar på variationer i fördröjning, multimedia ows kan hålla en acceptabel QoS-nivå på slutsystemen. I denna studie presenterar vi ett nytt skalbart system för att anpassa överföringshastigheten för multimediatillämpningar till överbelastningsnivån i nätet. Systemet bygger på slutet för att avsluta transportprotokollet i realtid (RTP). Med hjälp av det föreslagna systemet undersöker vi effektiviteten i att tillämpa anpassning för att utnyttja nätresurserna, minska förlusterna och systemets skalbarhet samt RTP-protokollet. De resultat som uppnås genom simuleringar tyder på att systemet är effektivt när det gäller att utnyttja nätverksresurserna och minska förlusterna. | Papper REF, En stor majoritet av multimediatillämpningar som för närvarande används på Internet baserat på UDP och RTP transportprotokoll. | 60,998,394 | End-To-End Quality of Service Control Using Adaptive Applications | {'venue': "In IFIP Fifth International Workshop on Quality of Service (IWQOS '97", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,338 |
Multi-Label klassificering är ett viktigt inlärningsproblem med många tillämpningar. I detta arbete föreslår vi en likhetsbaserad metod för flermärkt lärande som kallas SML. Vi introducerar också ett likhetsbaserat tillvägagångssätt för att förutsäga märkningens storlek. SML är kompatibel med strömmande data och online-inlärning, naturligt kunna hantera förändringar i problemdomänen, robust att träna data med skeva klassetiketter, exakt med låg varians, och lämpar sig för ett effektivt parallellt genomförande. De experimentella resultaten visar SML:s effektivitet för multi-label klassificering där det visas att det är fördelaktigt att jämföra med en mängd olika befintliga algoritmer inom en rad olika utvärderingskriterium. 978-1-5090-6014-6/18/$31.00 ©2018 IEEE | Rossi och Al. I REF användes ett likhetsbaserat lärande för klassificering med flera märken. | 30,961,380 | Similarity-based Multi-label Learning | {'venue': '2018 International Joint Conference on Neural Networks (IJCNN)', 'journal': '2018 International Joint Conference on Neural Networks (IJCNN)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 5,339 |
Modern digital kretsdesign bygger på snabba simuleringsverktyg för digital timing och därmed på exakta binärt värderade kretsmodeller som troget modellerar signalutbredning, även genom en komplex design. Av särskild betydelse är förmågan att spåra glapp och andra korta pulser, eftersom deras närvaro / frånvaro kan även påverka en kretss korrekthet. Tyvärr har det nyligen bevisats [Függer et al., ASYNC'13] att ingen befintlig binärt värderad kretsmodell hittills föreslagits, inklusive de två mest använda rena och tröga fördröjningskanaler, troget fångar glitch utbredning: För den enkla Short-Pulse Filtrering (SPF) problem, som är relaterad till en krets förmåga att undertrycka en enda glitch, visade vi att den ganska breda klassen av avgränsade enkel-historia kanaler antingen motsäger olöslighet SPF i begränsad tid eller löslighet SPF i obegränsad tid i fysiska kretsar. I detta dokument föreslår vi en klass av binära kretsmodeller som inte lider av denna brist: Precis som avgränsade singel-historia kanaler, våra involution kanaler innebär förseningar som kan bero på tiden för den tidigare utdata övergången. Deras karakteristiska egenskap är fördröjningsfunktioner som är baserade på involutioner, d.v.s. funktioner som bildar deras egen invers. Ett konkret exempel på en sådan fördröjningsfunktion, som härleds från en generaliserad analog kretsmodell i första ordningen, visar att detta inte är ett orealistiskt antagande. Vi bevisar att SPF, i skarp kontrast till vad som är möjligt med avgränsade singlehistoria kanaler, inte kan lösas i begränsad tid på grund av att det inte finns en lägre gräns på fördröjningen av involution kanaler, medan det är lätt att ge en obegränsad SPF genomförande. Härav följer att binärt värderade kretsmodeller baserade på involutionskanaler gör det möjligt att lösa SPF exakt när detta är möjligt i fysiska kretsar. Såvitt vi vet är vår modell därför den allra första kandidaten till en modell som verkligen garanterar en trogen spridning av glitch. | Så vitt vi vet, Függer et al. REF har varit det första som gjort det. | 10,149,400 | Faithful Glitch Propagation in Binary Circuit Models | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,340 |
Det seminala resultatet av Impagliazzo och Rudich (STOC 1989) gav en black-box separation mellan enkelriktade funktioner och kryptering med öppen nyckel: ett krypteringssystem med öppen nyckel kan inte konstrueras med enkelriktade funktioner i svartbox. Dessutom deras resultat implicita svart-box separationer mellan enkelriktade funktioner och protokoll för vissa Secure Function Evaluation (SFE) funktioner (särskilt Obligatorisk överföring). Förvånansvärt nog har det dock sedan dess inte gjorts några ytterligare framsteg när det gäller att separera enkelriktade funktioner och SFE-funktioner. I detta arbete presenterar vi den kompletta bilden för finita deterministiska 2-parts SFE-funktioner, vis envägsfunktioner. Vi visar att i händelse av halvhederliga motståndare, enkelriktade funktioner är svart-box separerade från alla sådana SFE-funktioner, utom de som har villkorslöst säkra protokoll (och därför inte förlitar sig på någon beräkningshårdhet). När det gäller aktiva motståndare är en enkelriktad funktion i svartbox verkligen användbar för SFE, men vi visar att den är användbar bara så mycket som tillgång till en idealisk åtagandefunktion är användbar. Tekniskt sett fastställer vårt huvudresultat begränsningarna för slumpmässiga orakel för säker beräkning. Vi visar att en tvåpartsdeterministisk funktionalitet f har ett säkert protokoll i den slumpmässiga orakelmodellen som (statistiskt) är säker mot halvhederliga motståndare om och endast om f har ett protokoll i den enkla modellen som (fullständigt) är säker mot halvhederliga motståndare. Dessutom, när det gäller aktiva motståndare, en deterministisk SFE funktionalitet f har ett (UC eller fristående) statistiskt säkert protokoll i den slumpmässiga oraklet modellen om * En fullständig version av detta papper är tillgänglig på [36] och endast om f har ett (UC eller fristående) statistiskt säkert protokoll i åtagande-hybrid modellen. Vårt bevis är baserat på en "gränsanalys" av två-part protokoll, kombinera det med (förlängningar av) "oberoende inlärare" av Impagliazzo-Rudich/Barak-Mahmoody. Vi gör viktig användning av en combinatorial egenskap, som ursprungligen upptäcktes av Kushilevitz (FOCS 1989), av funktioner som har semi-hedest säkra protokoll i den enkla modellen (och därför vår analys gäller endast funktioner av polynomialsized domäner, för vilka en sådan karakterisering är känd). Vårt resultat kan ses som ett första steg mot att bevisa en gissning som vi lägger fram i detta arbete och kallar det många världars gissning. För varje 2-parts SFE funktionalitet f, kan man överväga en "värld" där f kan vara semi-honest säkert realiseras i beräkningsinställningen. Många-Worlds Conjecture säger att det finns oändligt många "skiljaktiga världar" mellan minicrypt och kryptomani i universumet av Impagliazzos världar. | Mahmoody m.fl. REF visar att allfunktionsfamiljen (och därmed enkelriktade funktioner) är värdelösa för säker funktionsutvärdering av deterministiska, polynomiska indata-domänfunktioner med två parter. | 1,930,181 | Limits of random oracles in secure computation | {'venue': "ITCS '14", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 5,341 |
Abstract-För att öka vår förmåga att använda mätning för att stödja mjukvaruutveckling praxis behöver vi göra mer analys av kod. Men empiriska studier av kod är dyra och deras resultat är svåra att jämföra. Vi beskriver Qualitas Corpus, en stor kurerad samling av Javasystem med öppen källkod. Korpus minskar kostnaden för att utföra stora empiriska studier av kod och stöder jämförelse av mätningar av samma artefakter. Vi diskuterar design, organisation och frågor i samband med dess utveckling. | Tempero m.fl. presenterade qualitas corpus-en kurerad samling av Java-program REF. | 1,961,650 | The Qualitas Corpus: A Curated Collection of Java Code for Empirical Studies | {'venue': '2010 Asia Pacific Software Engineering Conference', 'journal': '2010 Asia Pacific Software Engineering Conference', 'mag_field_of_study': ['Computer Science']} | 5,342 |
Abstract-Vi undersöker problemet med distribuerat kanalval med hjälp av en spel-teoretisk stokastisk inlärningslösning i ett opportunistiskt spektrumaccess (OSA) system där statistiken över kanaltillgänglighet och antalet sekundära användare är apriori okänt. Vi formulerar kanalen urvalsproblem som ett spel som har visat sig vara ett exakt potentiellt spel. Men på grund av bristen på information om andra användare och begränsningen att spektrumet är tidsvariation med okänd tillgänglighet statistik, uppgiften att uppnå Nash jämvikt (NE) punkter i spelet är utmanande. För det första föreslår vi en genie-aid-algoritm för att uppnå NE-poäng under antagande av perfekt miljökunskap. Baserat på detta undersöker vi det uppnåeliga resultatet av spelet när det gäller systemgenomströmning och rättvisa. Sedan föreslår vi en stokastisk inlärningsautomat (SLA) baserad kanalvalalgoritm, med vilken de sekundära användarna lär sig av sin individuella action-reward historia och justera sina beteenden mot en NE-punkt. Den föreslagna inlärningsalgoritmen kräver varken informationsutbyte eller förhandsinformation om statistiken över kanaltillgänglighet och antalet sekundära användare. Simuleringsresultat visar att den SLA-baserade inlärningsalgoritmen uppnår hög systemgenomströmning med god rättvisa. Index Terms-kognitiva radionätverk, opportunistisk spektrumåtkomst, distribuerat kanalval, exakt potentiellt spel, stokastisk inlärningsautomata. | SL tillämpades också på den opportunistiska spektrumaccessen i kognitiva radionät REF för att uppnå Nash jämviktsstrategi (NE). | 2,153,482 | Opportunistic Spectrum Access in Unknown Dynamic Environment: A Game-Theoretic Stochastic Learning Solution | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Computer Science']} | 5,343 |
Abstrakt. JavaScript är ett populärt språk för webbskript på klientsidan. Det har ett tvivelaktigt rykte bland programmerare av två skäl. För det första är många JavaScript-program skrivna mot ett snabbt föränderligt API vars implementationer ibland är motsägelsefulla och idiosynkratiska. För det andra är språket bara svagt skrivbart och kommer praktiskt taget utan utvecklingsverktyg. Det nuvarande arbetet är ett första försök att ta upp den andra punkten. Det gör det genom att definiera en typ system som spårar de möjliga egenskaperna hos ett objekt och flaggor misstänkta typ omvandlingar. Eftersom JavaScript är ett klasslöst, objektbaserat språk med förstklassiga funktioner, måste typsystemet innehålla singleton-typer, undertypning och förstklassiga skivetiketter. Typsystemet omfattar en representativ delmängd av språket och det finns ett typsondbevis med avseende på en operationell semantik. | I tidigare arbete har den andra författaren föreslagit ett typsystem för JavaScript REF. | 16,709,787 | Towards a type system for analyzing javascript programs | {'venue': 'ESOP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,344 |
Många informationssystem använder taggar och nyckelord för att beskriva och kommentera innehåll. Dessa möjliggör effektiv organisation och kategorisering av objekt, samt underlättar relevanta sökningar. Som sådan kan den valda uppsättningen taggar för ett objekt ha en betydande effekt på den trafikvolym som så småningom når ett objekt. I inställningar där taggar väljs av ett objekts skapare, som i sin tur är intresserad av att maximera trafiken, kan ett principfast tillvägagångssätt för att välja taggar visa sig värdefullt. I det här dokumentet introducerar vi problemet med optimal taggning, där uppgiften är att välja en undergrupp av taggar för ett nytt objekt så att sannolikheten för att en surfare når det objektet maximeras. Vi formulerar problemet genom att modellera trafiken med hjälp av en Markov kedja, och frågar hur övergångar i denna kedja bör ändras för att maximera trafiken till ett visst läge av intresse. Det resulterande optimeringsproblemet innebär att maximera en viss funktion över undergrupper, under en kardinalitet begränsning. Vi visar att optimeringsproblemet är NP-hård, men ändå har en enkel (1 − 1 e )-uppskattning via en enkel girig algoritm. Dessutom möjliggör problemets struktur ett effektivt genomförande av det giriga steget. För att visa hur effektiv vår metod är utför vi experiment på tre taggade datauppsättningar, och visar att den giriga algoritmen överträffar andra baslinjer. | Arbetet mest relaterade till vårt är den optimala taggning problem REF, där målet är att välja en delmängd av taggar för ett objekt så att sannolikheten för att en användare når objektet maximeras. | 7,584,618 | Optimal Tagging with Markov Chain Optimization | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,345 |
Med slumpmässig nätverkskodning, nätverksnoder mellan källan och mottagare kan inte bara relä och replikera datapaket, men också koda dem med slumpmässigt genererade kodningskoefficienter. Ur ett teoretiskt perspektiv har man insett att nätverkskodning maximerar nätverksflödet i multicastsessioner i riktade acykliska nätverksgrafer. Hittills har slumpmässig nätverkskodning sett praktiska och verkliga tillämpningar i peer-to-peer (P2P) nätverk, där overlay nätverk topologier bildas bland deltagande slutvärdar, som kallas Bpeers.[ På grund av osäkerhet och dynamik i samband med peer ankomster och avgångar, dessa nätverk topologier genereras vanligtvis slumpmässigt i praktiken, och kallas Brandom mesh[ topologies. Till skillnad från strukturerade topologier som träd, är slumpmässiga mesh topologier praktiskt att genomföras, och är motståndskraftiga till den nivå av volatilitet som typiskt upplevs i peerto-peer nätverk. Ur både teoretiska och praktiska perspektiv har det visat sig att slumpmässig nätkodning leder till prestandafördelar i dessa peer-to-peer-nätverk med slumpmässiga mesh topologier. I detta dokument presenteras en undersökning av befintliga resultat med avseende på praktiska tillämpningar av slumpmässig nätkodning i peer-to-peer-nätverk. Vi fokuserar på massinnehållsdistribution och streamingsystem för media, samt de beräkningsmässiga overhead som införs genom slumpmässig nätverkskodning i moderna off-the-shelf servrar och mobila enheter. Genom hela tidningen visar vi också teoretiska insikter om varför slumpmässig nätverkskodning kan bli till nytta i praktiken. | En utmärkt granskning av nätkodningsbaserade peer-to-peer-nätverk presenteras i REF. | 850,574 | Random Network Coding in Peer-to-Peer Networks: From Theory to Practice | {'venue': 'Proceedings of the IEEE', 'journal': 'Proceedings of the IEEE', 'mag_field_of_study': ['Computer Science']} | 5,346 |
Algoritm visualiseringsteknik (AV) illustrerar grafiskt hur algoritmer fungerar. Trots teknikens intuitiva dragningskraft har den inte lyckats ta sig an den traditionella utbildningen i datavetenskap. Vissa har tillskrivit detta misslyckande till de blandade resultaten av experimentella studier som utformats för att styrka AV-teknikens pedagogiska effektivitet. Dock, medan flera integrativa recensioner av AV-teknik har dykt upp, ingen har fokuserat specifikt på programvarans effektivitet genom att analysera denna kropp av experimentella studier som helhet. För att bättre förstå AV-teknikens effektivitet presenterar vi en systematisk meta-studie av 24 experimentella studier. Vi genomför två separata analyser: en analys av oberoende variabler, där vi knyter varje studie till en särskild vägledande inlärningsteori i ett försök att bestämma vilken vägledande teori som har haft den mest prediktiva framgången; och en analys av beroende variabler, som gör det möjligt för oss att bestämma vilka mättekniker som har varit mest känsliga för inlärningsfördelarna med AV-teknik. Vårt viktigaste resultat är att hur studenter använder AV-teknik har en större inverkan på effektiviteten än vad AV-tekniken visar dem. Baserat på våra resultat formulerar vi en agenda för framtida forskning om AV-effektivitet. | I REF, efter att ha utfört analysen, fann man att den största inverkan på utbildningseffektiviteten är resultatet av hur studenter använder AV-teknik snarare än vad de ser. | 528,221 | A Meta-Study of Algorithm Visualization Effectiveness | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,347 |
Moderna processorer har instruktioner som tillåter grundläggande operationer att utföras på flera dataelement parallellt. Dessa instruktioner kallas SIMD-instruktioner, eftersom de tillämpar en enda instruktion för flera dataelement. SIMD-tekniken byggdes ursprungligen in i råvaruprocessorer för att öka multimediatillämpningarnas prestanda. SIMD-instruktioner ger nya möjligheter för konstruktion och implementering av databasmotorer. Vi studerar olika typer av operationer i ett databassammanhang och visar hur verksamhetens inre slinga kan accelereras med hjälp av SIMD-instruktioner. Användningen av SIMD-instruktioner har två omedelbara prestandafördelar: Det tillåter en grad av parallellism, så att många operander kan behandlas på en gång. Det leder också ofta till eliminering av villkorliga avdelningskontorets anvisningar, vilket minskar avdelningskontorets försumlighet. Vi anser att de viktigaste databasverksamheten, inklusive sekventiella skanningar, aggregering, indexoperationer, och går med. Vi presenterar tekniker för att genomföra dessa med hjälp av SIMD instruktioner. Vi visar att det finns betydande fördelar med att omforma traditionella frågebehandlingsalgoritmer så att de bättre kan använda SIMD-teknik. Vår studie visar att med hjälp av en SIMD parallellism på fyra, CPU-tiden för de nya algoritmerna är från 10% till mer än fyra gånger mindre än för de traditionella algoritmerna. Superlinjära speedups erhålls som ett resultat av elimineringen av gren felprediction effekter. | Tillämpningen av SIMD instruktioner för att påskynda B+-tree operationer (utan kompression) granskas av Zhou och Ross REF. | 17,064,783 | Implementing database operations using SIMD instructions | {'venue': "SIGMOD '02", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,348 |
Peer-to-peer (P2P) streaming försöker uppnå skalbarhet (som P2P-fildistribution) och samtidigt uppfylla realtid uppspelningskrav. Det är ett utmanande problem som fortfarande inte är välbegripligt. I den här artikeln beskriver vi en enkel stokastisk modell som kan användas för att jämföra olika nedladdningsstrategier med slumpmässiga peer selection. Baserat på denna modell studerar vi avvägningarna mellan stödd peer population, buffertstorlek och uppspelningskontinuitet. Vi studerar först två enkla strategier: Rarest First (RF) och Greedy. Den förra är en välkänd strategi för P2P-fildelning som ger god skalbarhet genom att försöka sprida bitar av en fil till så många jämlikar som möjligt. Den senare är en intuitivt rimlig strategi för att få brådskande bitar först för att maximera uppspelningskontinuitet från en kamrats lokala perspektiv. Men i verkligheten bör man ta hand om både skalbarhet och brådska. Med denna insikt föreslår vi en blandad strategi som uppnår det bästa av båda världarna. Dessutom kommer den blandade strategin med en adaptiv algoritm som kan anpassa sin buffertinställning till dynamisk peer population. Vi validerar vår analytiska modell med simulering. Slutligen diskuterar vi även modelleringsantaganden och modellens känslighet för olika parametrar och visar att vår modell är robust. Index Terms-Marginal sannolikhetsmodell, peer-to-peer (P2P), prestandaanalys, streaming, video. | Genom en liknande men förenklad metod, Zhou et al. REF studerar de mest sällsynta först och de giriga strategierna i pull-baserad läge, och föreslår en blandad strategi som kan utnyttja fördelarna med båda de två strategierna. | 3,986,206 | A simple model for chunk-scheduling strategies in P2P streaming | {'venue': 'TNET', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,349 |
Handlingsigenkänning är en viktig men utmanande uppgift i datorseendet. I detta dokument föreslår vi en ny djupbaserad ram för erkännande av åtgärder, som förbättrar igenkänningsnoggrannheten genom att 1) få mer exakta egenskaper för att representera åtgärder, och 2) minska asynkronin mellan olika informationsströmmar. Vi introducerar först ett grov-till-fine nätverk som extraherar delade djupa funktioner på olika aktionsklass granularities och gradvis integrerar dem för att få en mer exakt funktion representation för inmatningsåtgärder. Vi introducerar också ett asynkront fusionsnätverk. Det sammanställer information från olika strömmar genom asynkront integrera stream-wise funktioner vid olika tidpunkter och därmed bättre utnyttja den kompletterande informationen i olika strömmar. Experimentella resultat när det gäller riktmärken för erkännande av åtgärder visar att vår strategi uppnår de senaste resultaten. | Lin m.fl. REF föreslår ett CNN-LSTM-baserat nätverk (CO2FI) som extraherar funktioner från olika konvolutionslager och integrerar dem genom ett LSTM-nätverk. | 19,089,216 | Action Recognition with Coarse-to-Fine Deep Feature Integration and Asynchronous Fusion | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,350 |
I denna studie utforskar vi kapselnätverk med dynamisk routing för textklassificering. Vi föreslår tre strategier för att stabilisera den dynamiska routing processen för att lindra störningar i vissa bullerkapslar som kan innehålla "bakgrundsinformation" eller inte har framgångsrikt utbildats. En serie experiment utförs med kapselnätverk på sex textklassificeringsriktmärken. Capsule-nätverken uppnår konkurrenskraftiga resultat jämfört med de jämförda baslinjemetoderna på 4 av 6 datauppsättningar, vilket visar hur effektiva kapselnäten är för textklassificering. Vi visar dessutom att kapselnäten uppvisar betydande förbättringar när de överför enmärkning till flermärkt textklassificering över konkurrenterna. Såvitt vi vet är detta det första arbetet som kapselnätverk har undersökts empiriskt för textmodellering 1. | REF visade att Capsule-nätverk kan bidra till att förbättra inlärningen av lågdata och märkningsöverföring. | 4,588,148 | Investigating Capsule Networks with Dynamic Routing for Text Classification | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,351 |
Vi introducerar en metod för funktionellt klassificera gener genom att använda genuttrycksdata från DNA microarray hybridization experiment. Metoden är baserad på teorin om stödvektormaskiner (SVMs). SVM anses vara en övervakad datorinlärningsmetod eftersom de utnyttjar förkunskaper om genfunktion för att identifiera okända gener av liknande funktion från expressionsdata. SVM undviker flera problem i samband med oövervakade klustermetoder, såsom hierarkisk klusterbildning och självorganiserande kartor. SVMs har många matematiska funktioner som gör dem attraktiva för genuttrycksanalys, inklusive deras flexibilitet i att välja en likhetsfunktion, gleshet i lösningen när det gäller stora datamängder, förmågan att hantera stora funktionsrymder, och förmågan att identifiera avvikelser. Vi testar flera SVMs som använder olika likhetsmått, liksom några andra övervakade inlärningsmetoder, och finner att SVMs bäst identifiera uppsättningar av gener med en gemensam funktion med hjälp av expressionsdata. Slutligen använder vi SVMs för att förutsäga funktionella roller för okaraktäriserade jäst ORFs baserat på deras uttrycksdata. | I REF använde författarna SVM för att funktionellt klassificera gener genom att använda genuttrycksdata från DNA-mikroarray. | 2,698,102 | Knowledge-based analysis of microarray gene expression data by using support vector machines | {'venue': 'International Conference on Computational Science (2)', 'journal': None, 'mag_field_of_study': ['Medicine', 'Computer Science']} | 5,352 |
Metoder för att lära Bayesianska nätverk kan upptäcka beroendestruktur mellan observerade variabler. Även om dessa metoder är användbara i många tillämpningar, de stöter på beräknings- och statistiska problem inom områden som omfattar ett stort antal variabler. I den här artikeln överväger vi en lösning som är tillämplig när många variabler har liknande beteende. Vi inför en ny klass av modeller, modulnätverk, som explicit delar in variablerna i moduler som delar samma föräldrar i nätverket och samma konditio nella sannolikhetsfördelning. Vi definierar seman tics av modulnätverk, och beskriver en algoritm som lär sig modulernas sammansättning och deras depens struktur från data. Utvärdering av verkliga data inom områdena genuttryck och lagermarket visar att modulnätverk generaliseras bättre än Bayesianska nätverk, och att den lärda modulens arbetsstruktur avslöjar regulariteter som är skymda i lärda Bayesiska nätverk. | Segal m.fl. REF introducerar modulnätverk som konstruerar grupper av variabler med "liknande beteende" (dvs. variabler som delar samma uppsättning föräldrar och samma parametrar), kallade moduler. | 1,582,144 | Learning Module Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 5,353 |
Med mobila enheter som blir allestädes närvarande har samarbetsapplikationer blivit alltmer genomträngande. I dessa applikationer finns ett stort behov av att få en räkning av antalet mobila enheter som finns i ett område, eftersom det nära motsvarar storleken på publiken. Helst bör en crowd counting lösning vara enkel att distribuera, skalbar, energieffektiv, vara minimalt påträngande för användaren och någorlunda korrekt. Befintliga lösningar som använder datakommunikation eller RFID uppfyller inte dessa kriterier. I detta dokument föreslår vi en crowd counting lösning baserad på ljudtoner, utnyttja mikrofoner och högtalartelefoner som är allmänt tillgängliga på de flesta telefoner, ta itu med alla ovanstående kriterier. Vi har implementerat vår lösning på 25 Android-telefoner och kör flera experiment på en busshållplats, ombord på en buss, i en cafeteria och ett klassrum. Experimentella utvärderingar visar att vi kan uppnå upp till 90 % noggrannhet och förbruka 81 % mindre energi än WiFi-gränssnittet i tomgångsläge. | En intressant och någorlunda korrekt lösning för crowdcounting baserat på ljudtoner presenterades av Kannan et al REF. | 8,614,229 | Low cost crowd counting using audio tones | {'venue': "SenSys '12", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,354 |
Långvariga robotuppdrag på månens och planetens ytor, t.ex., har Mars Exploration Rovers arbetat kontinuerligt på Mars yta i nära 3 år, ger möjlighet att skaffa vetenskapligt intressant information från en mängd olika yt- och undervattensplatser och att utforska flera platser i större detalj. Att utforska ett brett spektrum av terrängtyper, inklusive slätter, klippor, sanddyner och lavarör, kräver utveckling av robotsystem med ökad rörlighet utöver det som för närvarande är fält. Dessa system inkluderar enskilda såväl som grupper av robotar. TRESSA.Teamed Robots for Exploration and Science on Steep Areas och är ett nära kopplat trerobotteam utvecklat på Jet Propulsion Laboratory på Jet Propulsion Laboratory, som tidigare visat förmågan att köra på jordtäckta sluttningar upp till 70 deg. I denna uppsats presenterar vi resultat från fältdemonstrationer av TRESSA-systemet i ännu mer utmanande terräng: grova klippsluttningar på upp till 85 grader. Dessutom har integrationen av en robotisk arm och instrument svit gjort det möjligt för TRESSA att demonstrera semi-autonom vetenskap undersökning av klippor och vetenskapliga prov insamling. TRESSA genomgick framgångsrikt klippor och samlade prover på tre analoga Mars-platser i Svalbard, Norge som en del av en nyligen genomförd geologisk och astrobiologisk fältundersökning kallad AMASE: Arctic Mars Analog Svalbard Expedition under NASA ASTEP-programmet Astrobiologi Vetenskap och teknik för utforskande av planeter. | Teamed Robots for Exploration and Science on Step Areas (TRESSA) är ett robotsystem med dubbla mått som används för att klättra branta klippor med sluttningar som varierar från 50 till 90 grader REF. | 6,412,855 | TRESSA: Teamed Robots for Exploration and Science on Steep Areas | {'venue': None, 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']} | 5,355 |
Abstrakt. Webbtjänster utgör det mest framträdande momentet i det tjänsteorienterade datorparadigmet. På senare tid har dock företrädare för annan datateknik, såsom peer-to-peer (p2p), också valt det tjänsteorienterade tillvägagångssättet och avslöjat funktionalitet som tjänster. På så sätt skulle det serviceinriktade samhället kunna få stort stöd, om dessa heterogena tjänster integrerades och bestod. En nyckel för att uppnå denna integration är inrättandet av en enhetlig strategi för tjänsteupptäckt. I detta dokument beskriver vi vissa funktioner i ett enhetligt sökspråk och fokuserar på dess tillhörande motor, som används för att upptäcka webb- och p2p-tjänster på ett enhetligt sätt. Vi exemplifierar hur vår enhetliga strategi tillämpas i fallet med webb- och p2p-tjänst upptäckt i UDDI respektive JXTA, respektive. Dessutom visar vi hur vår sökmotor kan bearbeta heterogena tjänsteannonser och därmed utnyttja de annonserade syntaktiska, semantiska och servicekvalitetsegenskaperna under matchmaking. | I REF föreslår författarna Uniified Service Query language (USQL), ett XML-baserat språk för att representera syntaktiska, semantiska och kvalitet-of-service sökkriterier. | 2,432,744 | Discovering Web Services and JXTA Peer-to-Peer Services in a Unified Manner | {'venue': 'ICSOFT (1)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,356 |
Trådlösa ad hoc-sensornätverk har framträtt som ett intressant och viktigt forskningsområde under de senaste åren. De tillämpningar som förutses för sådana nätverk kräver samarbete utförande av en distribuerad uppgift bland en stor uppsättning sensornoder. Detta realiseras genom att utbyta meddelanden som är tidsstämplade med hjälp av lokala klockor på noderna. Därför blir tidssynkronisering en oumbärlig infrastruktur i sådana system. I åratal har protokoll som NTP hållit klockorna i nätverksanslutna system i perfekt synkronisering. Denna nya typ av nätverk har dock en stor täthet av noder och mycket begränsade energiresurser vid varje nod, vilket leder till skalbarhetskrav samtidigt som de resurser som kan användas för att uppnå dem begränsas. En ny metod för tidssynkronisering behövs för sensornätverk. I detta dokument presenterar vi Timing-sync Protocol for Sensor Networks (TPSN) som syftar till att tillhandahålla nätverkstäckande tidssynkronisering i ett sensornätverk. Algoritmen fungerar i två steg. I det första steget etableras en hierarkisk struktur i nätverket och sedan utförs en parvis synkronisering längs kanterna på denna struktur för att etablera en global tidsskala i hela nätverket. Till slut synkroniserar alla noder i nätverket sina klockor till en referensnod. Vi implementerar vår algoritm på Berkeley Motes och visar att det kan synkronisera ett par angränsande Motes till en genomsnittlig noggrannhet på mindre än 20μs. Vi hävdar att TPSN ungefär ger en 2x bättre prestanda jämfört med Reference Broadcast Synkronization (RBS) och verifiera detta genom att genomföra RBS på motes. Vi visar också prestandan hos TPSN över små multihop nätverk av Motes och använder simuleringar för att verifiera dess noggrannhet över storskaliga nätverk. Vi visar att synkroniseringsnoggrannheten inte försämras avsevärt med ökningen av antalet noder som används, vilket gör TPSN helt skalbar. | Timing-synch Protocol för Sensor Networks (TPSN) är ett annat protokoll baserat på avsändare-till-mottagare system REF. | 22,550,674 | Timing-sync protocol for sensor networks | {'venue': "SenSys '03", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,357 |
Cloud computing växer fram som nästa generations IT-arkitektur. Men cloud computing väcker också oro för säkerhet och integritet eftersom användarna inte har någon fysisk kontroll över de outsourcade data. Detta papper fokuserar på att ganska hämta krypterade privata journaler outsourced till avlägsna opålitliga molnservrar i händelse av medicinska olyckor och tvister. Vårt mål är att göra det möjligt för en oberoende kommitté att på ett rättvist sätt återställa de ursprungliga privata journalerna så att medicinska undersökningar kan utföras på ett övertygande sätt. Vi uppnår detta mål med en rättvis fjärrsökning (FRR) modell där antingen t undersökningskommittén medlemmar samarbetat hämta de ursprungliga medicinska data eller ingen av dem kan få någon information om de medicinska journaler. Vi inser den första FRR-systemet genom att utnyttja rättvis flera medlemmar nyckelutbyte och homomorfa privat kontrollerbara taggar. Baserat på den standard beräkning Diffie-Hellman (CDH) antagande, vårt system är bevisligen säker i slumpmässig orakle modell (ROM). En detaljerad prestandaanalys och experimentella resultat visar att vårt system är effektivt när det gäller kommunikation och beräkning. | År 2014, Wang m.fl. föreslog en rättvis fjärrsökning av privata patientjournaler som lagts ut på entreprenad i elektroniska hälsonätverk REF. | 5,548,035 | FRR: Fair remote retrieval of outsourced private medical records in electronic health networks | {'venue': 'Journal of biomedical informatics', 'journal': 'Journal of biomedical informatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 5,358 |
Vi presenterar en multi-purpose algoritm för samtidig ansiktsdetektering, ansiktsjustering, pose uppskattning, kön igenkänning, leende detektering, åldersuppskattning och ansiktsigenkänning med hjälp av en enda djup konvolutional neurala nätverk (CNN). Den föreslagna metoden använder en multi-task lärande ram som legaliserar de gemensamma parametrarna i CNN och bygger en synergi mellan olika områden och uppgifter. Omfattande experiment visar att nätverket har en bättre förståelse för ansikte och uppnår toppmoderna resultat för de flesta av dessa uppgifter. | Förutom att lära sig identitetsfria uttrycksrelaterade funktioner har Multi-task Learning (MTL) använts för att samtidigt utföra olika ansiktsrelaterade uppgifter, inklusive detektion, anpassning, pose estimation, genusigenkänning, åldersuppskattning, leendedetektion och ansiktsigenkänning med hjälp av ett enda djupt CNN. | 5,896,299 | An All-In-One Convolutional Neural Network for Face Analysis | {'venue': '2017 12th IEEE International Conference on Automatic Face & Gesture Recognition (FG 2017)', 'journal': '2017 12th IEEE International Conference on Automatic Face & Gesture Recognition (FG 2017)', 'mag_field_of_study': ['Computer Science']} | 5,359 |
Abstrakt. Det tyska indonesiska Tsunami Early Warning System (GITOWS) är byggt på en komplex sensor datainfrastruktur. För att bäst kunna tillgodose efterfrågan på ett långlivat system måste den underliggande programvaran och maskinvaruarkitekturen hos GITEWS förberedas för framtida modifieringar av både enstaka sensorer och hela sensorsystem. Grunden för en flexibel integration och för stabila gränssnitt är ett resultat av paradigmet för en tjänsteorienterad arkitektur (SOA). Tsunami Service Bus (TSB) - vår integration plattform i GITEWS - förverkligar denna SOA-strategi genom att genomföra Sensor Web Enablement (SWE) standarder och tjänster. Detta dokument fokuserar på arkitektur- och implementationsaspekter av TSB. Inledningsvis presenteras det allmänna arkitektoniska synsättet i GITEWS av SOA och SWE. Baserat på denna uppfattning, den konkreta systemarkitekturen av GITEWS introduceras. Därefter diskuteras TSB:s sensorintegrationsplattform i detalj, efter dess primära ansvarsområden och komponenter. Särskild vikt läggs vid arkitektonisk transparens, begripliga designbeslut och hänvisningar till tillämpad teknik. Tsunami Service Bus (TSB) är sensor integration plattform för den tyska indonesiska Tsunami Early Warning System (Rudloff et al., 2009 ). På grund av den geologiska situationen i Indonesien, är det primära målet för GITEWS att leverera en tillförlitlig tsunami varning så snabbt som möjligt. Detta uppnås med hjälp av flera sensorsystem: det seismologiska systemet, den nära realtid GPS-deformation övervakning sysKorrespondens till: J. Fleischer ([email protected]) tem, flera tidvattenmätare, och bojsystem. Tillsammans ger de de grundläggande data som behövs för att stödja förutsägelsen om en tsunamivåg som utförs av varningscentralen. Men alla dessa sensorer använder sina egna ganska fasta egna dataformat och specifika beteenden (Fig. 1).................................................................. Detta kompliceras av det faktum att GITEWS är ett långgående system, som måste hantera förändrade krav över tid: nya sensortyper kan läggas till medan gamla sensorer kommer att ersättas av nyare. Dessutom antas nya algoritmer av experter eller inklusive utländska sensornätverk ändra gränssnitt och kvantitetsstrukturer även under genomförandefasen. För att hantera denna mängd sensorer över tid måste ytterligare ett mellanskikt införas för att ge både den flexibilitet som krävs för sensorintegration och ett stabilt och enhetligt gränssnitt för varningssystemet. Därför, sett ur ett arkitektoniskt perspektiv, GiteWS är ett typiskt integrationsprojekt. Även om de övergripande funktionella kraven för integrationsplattformen TSB kunde ha angivits vid projektstart var de icke-funktionella kraven för systemdrift osäkra: -TSD:n ska tillhandahålla ett standardiserat gränssnitt för åtkomst till sensordata och för att fylla i sensorerna. Tiden för åtkomst till sensordata ska vara mindre än sekunder. - TSB ska tillhandahålla lagring efter halva tiden (veckor) av alla inkommande sensordata, inklusive efterbehandling och kvalitetskontroll. Långsiktiga sensordata är inte meningsfulla för ett system för tidig varning. Tiden för behandling av inkommande sensordata ska vara inom ett intervall av sekunder eller mindre. Utgiven av Copernicus Publikationer på uppdrag av European Geosciences Union. | Ett framträdande exempel är Tsunami Service Buss i det tyska indonesiska Tsunami Early Warning System (GITECS) REF som använder SOS, Sensor Planning Service (SPS), SAS och Web Notification Service (WNS). | 6,168,433 | An integration platform for heterogeneous sensor systems in GITEWS – Tsunami Service | {'venue': None, 'journal': 'Natural Hazards and Earth System Sciences', 'mag_field_of_study': ['Engineering']} | 5,360 |
I detta papper studerar vi problemet med att hitta den ungefärliga närmaste granne till en frågepunkt i den höga dimensionella rymden, med fokus på den euklideiska rymden. De tidigare tillvägagångssätten använder locality-bevarande hash funktioner (som tenderar att kartlägga närliggande punkter till samma värde) för att konstruera flera hash tabeller för att säkerställa att frågepunkten hashes till samma hink som dess närmaste granne i minst en tabell. Vår strategi är olika vi använder en (eller några) hash tabell och hash flera slumpmässigt valda punkter i närheten av frågepunkten visar att åtminstone en av dem kommer hash till hinken som innehåller sin närmaste granne. Vi visar att antalet slumpmässigt valda punkter i grannskapet av frågepunkten q krävs beror på entropin av hashvärdet h(p) av en slumpmässig punkt p på samma avstånd från q på dess närmaste granne, givet q och lokaliteten bevara hash funktion h väljs slumpmässigt från hash familjen. Just det, vi visar att om entropin I(h(p)-q, h) = M och g är bunden på sannolikheten att två avlägsna punkter kommer hash till samma hink, då kan vi hitta den ungefärliga närmaste granne i O(n ρ ) tid och nära linjär Õ(n) utrymme där ρ = M/ log(1/g). Alternativt kan vi bygga en datastruktur av storlek Õ(n 1/(1=ρ) ) för att svara på frågor iñ O(d) tid. Genom att tillämpa denna analys på lokaliteten bevara hash funktioner i [17, 21, 6] och justera parametrarna visar vi att c närmaste granne kan beräknas i tid Õ(n ρ ) och nära linjärt utrymme där ρ och 2.06/c som c blir stor. SODA '06, 22-26 januari, Miami, FL | I REF visar Panigrahy att i stället för att använda ett stort antal haschtabeller som det är fallet i metoden ovan, kan bara ett fåtal användas. | 8,741,352 | Entropy based nearest neighbor search in high dimensions | {'venue': "SODA '06", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 5,361 |
Scentext detektionsmetoder som bygger på djupt lärande har uppnått anmärkningsvärda resultat under de senaste åren. På grund av den stora mångfalden och komplexiteten i naturliga scener kan dock tidigare toppmoderna metoder för att upptäcka text fortfarande producera en betydande mängd falska positiva, när de tillämpas på bilder som fångas i verkliga miljöer. För att ta itu med denna fråga, främst inspirerad av Mask R-CNN, föreslår vi i detta dokument en effektiv modell för scentextdetektering, som bygger på Feature Pyramid Network (FPN) och exempelsegmentering. Vi föreslår ett övervakat pyramidkontextnätverk (SPCNET) för att exakt lokalisera textregioner och samtidigt undertrycka falska positiva. Med hjälp av vägledningen för semantisk information och delning av FPN får SPCNET betydligt bättre prestanda samtidigt som marginell extra beräkning införs. Experiment på standarddata visar att vår SPCNET klart överträffar start-of-the-art metoder. Särskilt uppnås en F-åtgärd på 92,1 % på ICDAR2013, 87,2 % på ICDAR2015, 74,1 % på ICDAR2017 MLT och 82,9 % på Total-Text. | SPCNET REF ser textdetektion som ett exempel på segmenteringsproblem, baserat på Mask R-CNN, det föreslår en textkontextmodul och en re-score mekanism för att undertrycka falska positiva. | 53,790,237 | Scene Text Detection with Supervised Pyramid Context Network | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,362 |
Abstract-baserat på en effektiv kluster algoritm-Affinity Propagation (AP)-vi presentera i detta papper en ny semiövervakad text kluster algoritm, som kallas Seeds Affinity Propagation (SAP). Det finns två huvudsakliga bidrag i vår strategi: 1) en ny likhetsmått som fångar den strukturella informationen i texter, och 2) en ny metod för såddkonstruktion för att förbättra den halvövervakade klusterprocessen. För att studera prestandan hos den nya algoritmen tillämpade vi den på referensdatamängden Reuters-21578 och jämförde den med två toppmoderna klusteralgoritmer, nämligen k-meansalgoritm och den ursprungliga AP-algoritmen. Dessutom har vi analyserat de enskilda effekterna av de två föreslagna bidragen. Resultat visar att den föreslagna likheten metrisk är mer effektiv i textkluster (F-åtgärder ca. 21 procent högre än i AP-algoritmen) och den föreslagna semiövervakade strategin uppnår både bättre klusterresultat och snabbare konvergens (med endast 76 procent iterationer av den ursprungliga AP-fonden). Den kompletta SAP-algoritmen får högre F-mått (ca. 40 procent förbättring över k- medelvärden och AP) och lägre entropi (ca. 28 procent minskar över k-medelvärden och AP), förbättrar betydligt klustertid (20 gånger snabbare) för att k-medelvärden, och ger ökad robusthet jämfört med alla andra metoder. | Al Ref En Affinity Propagation (AP) baserad metod, nämligen metod kallad Seeds Affinity Propagation (SAP) för att improvisera den halvövervakade klustermetoden. | 14,053,903 | Text Clustering with Seeds Affinity Propagation | {'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']} | 5,363 |
Obemannade flygfordon monterade basstationer (UAV-BS) kan tillhandahålla trådlösa tjänster i en mängd olika scenarier. I detta brev föreslår vi en optimal placeringsalgoritm för UAV-BS som maximerar antalet täckta användare med minsta sändningseffekt. Vi frikopplar UAV-BS-utplaceringsproblemen i vertikala och horisontella dimensioner utan att förlora optimalitet. Dessutom modellerar vi UAV-BS-utplaceringen i den horisontella dimensionen som ett cirkelplaceringsproblem och ett minsta cirkelproblem. Simuleringar genomförs för att utvärdera prestandan hos den föreslagna metoden för olika rumsliga fördelningar av användarna. | Problemet med 3D-placering för att maximera antalet användare som omfattas har också behandlats i REF och har lösts genom frikoppling av horisontella och vertikala placeringar utan någon förlust av optimalitet. | 505,889 | 3-D Placement of an Unmanned Aerial Vehicle Base Station (UAV-BS) for Energy-Efficient Maximal Coverage | {'venue': 'IEEE Wireless Communications Letters', 'journal': 'IEEE Wireless Communications Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 5,364 |
Strömming av kontinuerliga medier över trådlösa länkar är ett notoriskt svårt problem. Detta beror på de stränga tjänstekvalitetskraven för kontinuerliga medier och otillförlitligheten hos trådlösa länkar. Vi utvecklar ett streamingprotokoll för leverans i realtid av gpreinspelade kontinuerliga medier från en central basstation till flera mobila kunder i en trådlös cell. Vårt protokoll prefetcherar delar av den pågående kontinuerliga media strömmar in i prefetch buffertar i klienterna. Vårt protokoll prefetches enligt en Join-the-Shortest-Queue politik. Genom att utnyttja teknik för hastighetsanpassning av trådlösa datapaketprotokoll fördelar Join-the-Shortest-Queue-policyn dynamiskt mer överföringskapacitet till kunder med små förinställda reserver. Vårt protokoll använder kanalundersökning för att hantera platsberoende, tidsvarierande och spruckna fel av trådlösa länkar. Vi utvärderar vårt prefetching protokoll genom omfattande simuleringar med VBR MPEG kodade video spår. Våra simuleringar visar att för spruckna VBR video med en genomsnittlig hastighet på 64 kbit/sec och typiska trådlösa kommunikationsvillkor vårt prefetching protokoll uppnår klient svält sannolikheter i storleksordningen ¢ ¡ ¤ £ och en bandbreddseffektivitet på 90 % med kundbuffertar på 128 kByter. | Vi har nyligen utvecklat ett prefetching protokoll för video streaming, som schemalägger sändningarna enligt en gå-kortaste-queue (JSQ) policy och de nuvarande kanalförhållandena REF. | 3,549,233 | A prefetching protocol for continuous media streaming in wireless environments | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,365 |
Abstract-I många datorseende applikationer, en önskad modell av någon typ beräknas genom att minimera en kostnadsfunktion baserat på flera mätningar. Vanligtvis kan man beräkna den modell som minimerar L 2-kostnaden, det vill säga summan av kvadrater av mätfel med avseende på modellen. Lq-lösningen som minimerar summan av felens qth-effekt ger dock oftast mer robusta resultat i närvaro av avvikelser för vissa värden av q, till exempel q 1⁄4 1. Weiszfeld algoritm är en klassisk algoritm för att hitta det geometriska L1-medelvärdet för en uppsättning punkter i Euclidean utrymme. Det är bevisligen optimalt och kräver varken differentiering, eller linjesökning. Weiszfeld-algoritmen har också generaliserats för att hitta L1-medelvärdet för en uppsättning punkter på ett Riemannskt grenrör av icke-negativ krökning. Detta dokument visar att Weiszfeld-metoden kan utvidgas till att omfatta en mängd olika problem för att finna ett Lq-medelvärde för 1 q < 2, samtidigt som enkelheten och den påvisbara konvergensen bibehålls. Vi tillämpar detta problem på både singelrotation medelvärde (enligt vilken algoritmen bevisligen finner den globala Lq optimal) och multipel rotation medelvärde (för vilken inga sådana bevis finns). Experimentella resultat av Lq-optimering för rotationer visar den förbättrade tillförlitligheten och robustheten jämfört med L2-optimering. | Till exempel, i REF, var L q norm (för 1 ≤ q < 2) minimeras genom iterativt minimera en viktad L 2 kostnad funktion. | 14,383,014 | Generalized Weiszfeld Algorithms for Lq Optimization | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Medicine']} | 5,366 |
Traditionell relation extraktion förutsäger relationer inom vissa fasta och ändliga mål schema. Maskininlärning metoder för denna uppgift kräver antingen manuell annotering eller, i fallet med avlägsen övervakning, befintliga strukturerade källor av samma schema. Behovet av befintliga dataset kan undvikas genom att använda ett universellt schema: föreningen av alla inblandade scheman (ytform predikat som i OpenIE, och relationer i scheman för befintliga databaser). Detta schema har en nästan obegränsad uppsättning relationer (på grund av ytformer), och stöder integration med befintliga strukturerade data (genom relation typer av befintliga databaser). För att fylla en databas av sådana schema presenterar vi matris factorization modeller som lär latent funktion vektorer för entitet tuples och relationer. Vi visar att sådana latenta modeller uppnår betydligt högre noggrannhet än en traditionell klassificeringsmetod. Ännu viktigare, genom att arbeta samtidigt på relationer som observeras i text och i befintliga strukturerade DBs som Freebase, kan vi resonera om ostrukturerade och strukturerade data på ömsesidigt stödjande sätt. Genom att göra det överträffar vårt tillvägagångssätt den senaste avlägsna övervakningen. | I Ref föreslogs en metod som lär sig implicita associationer mellan par av relationer utöver en latent funktionsmodell i samband med relationsextraktion. | 2,687,019 | Relation Extraction with Matrix Factorization and Universal Schemas | {'venue': 'NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,367 |
Olika modelleringsmetoder har föreslagits för att övervinna varje konstruktionsgrop av utvecklingen av de olika delarna av ett datalager (DW) system. De är dock alla partiella lösningar som behandlar isolerade aspekter av DW och inte ger designers en integrerad och standardmetod för att utforma hela DW (ETL-processer, datakällor, DW-arkiv osv.). Å andra sidan är Model Driven Architecture (MDA) ett standardramverk för programvaruutveckling som behandlar hela livscykeln för att designa, distribuera, integrera och hantera applikationer genom att använda modeller i mjukvaruutveckling. I detta dokument beskriver vi hur man kan anpassa hela utvecklingsprocessen för DW till MDA. Därefter definierar vi MD 2 A (MultiDimensional Model Driven Architecture), ett tillvägagångssätt för att tillämpa MDA-ramverket på ett av stegen i DW-utvecklingen: multidimensionell (MD) modellering. Först beskriver vi hur man bygger de olika MDA artefakterna (dvs. modeller) genom att använda utökningar av det enhetliga modellspråket (UML). För det andra är omvandlingar mellan modeller tydligt och formellt fastställda med hjälp av metoden Query/View/Transformation (QVT). Slutligen ges ett exempel för att bättre visa hur man tillämpar MDA och dess omvandlingar till MD-modellering. | MD 2 A enligt beskrivningen i REF är ett exempel på användning av MDA i samband med datalager. | 8,504,901 | Applying MDA to the development of data warehouses | {'venue': "DOLAP '05", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,368 |
En grundläggande utmaning inom robotik är att resonera med ofullständig domänkunskap för att förklara oväntade observationer och partiella beskrivningar av domänobjekt och händelser som extraherats från sensorobservationer. Befintliga förklaringsgenereringssystem bygger på idéer från två breda klasser av system, och stöder inte alla önskade förklaringsgenereringskapaciteter för robotar. Syftet med detta dokument är att först jämföra förklaringsgenerering kapacitet av ett toppmodernt system från var och en av dessa två klasser, med användning av utförande scenarier för en robot servitör assistera i en restaurang. Speciellt undersöker vi KRAVP, ett system baserat på det förklarande språket Svarset Prolog, som använder en detaljerad systembeskrivning och observationer av systembeteende för att förklara oväntade observationer och partiella beskrivningar. Vi utforskar också UMBRA, en arkitektur som ger förklaringar med hjälp av en svagare systembeskrivning, en heuristisk representation av tidigare erfarenheter, och andra heuristiker för selektivt och gradvis genomsökning genom relevanta jord ordagranna. På grundval av denna studie identifierar detta dokument några nyckelkriterier, och ger några rekommendationer, för att utveckla ett förklaringsgenereringssystem för robotar som utnyttjar de kompletterande styrkorna hos de två klasserna av förklaringsgenereringssystem. | Vårt senaste dokument jämförde ett representativt system från var och en av två breda distinktioner av utrymmet för förklaringsgenereringssystem REF. | 8,756,076 | A tale of many explanations: towards an explanation generation system for robots | {'venue': "SAC '16", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,369 |
Diskontinuerlig överföring baserad på tal-/pausdetektering är en giltig lösning för att förbättra den nya generationens trådlösa kommunikationssystems spektraleffektivitet. I detta sammanhang krävs robusta röstaktivitetsdetektionsalgoritmer (VAD), eftersom traditionella lösningar uppvisar en hög felklassificeringsfrekvens i närvaro av bakgrundsbuller som är typiska för mobila miljöer. Detta dokument presenterar en röstdetekteringsalgoritm som är robust för bullriga miljöer tack vare en ny metod som antagits för matchningsprocessen. Det föreslagna direktivet bygger närmare bestämt på en metod för mönsterigenkänning där matchningsfasen utförs med hjälp av en uppsättning av sex luddiga regler som utbildats med hjälp av ett nytt verktyg för hybridinlärning. En serie objektiva tester utförda på en stor taldatabas, som varierade signal-till-brusförhållandet, typerna av bakgrundsbuller och ingångssignalnivån, visade att jämfört med vad som nyligen standardiserats av ITU-T i Rec. G.729 Bilaga B, den Fuzzy VAD i genomsnitt uppnå en förbättring i minskning både av aktivitetsfaktorn på ca 25 % och av klippning införs med ca 43 %. Informella hörtester bekräftar också en förbättring av den upplevda talkvaliteten. | Den algoritm som föreslås i REF bygger på en metod för mönsterigenkänning, där matchningsfasen följer sex luddiga regler och utbildas av ett nytt hybridinlärningsverktyg. | 1,596,966 | A robust voice activity detector for wireless communications using soft computing | {'venue': 'IEEE J. Sel. Areas Commun.', 'journal': 'IEEE J. Sel. Areas Commun.', 'mag_field_of_study': ['Computer Science']} | 5,370 |
Caching populära innehåll vid basstationer (BS) i ett heterogent cellulärt nätverk (HCN) undviker frekventa informationspassage från innehållsleverantörer till nätkanten, vilket minskar latensen och lindrar trafikstockningar i backhaul länkar. Möjligheten att cacha vid nätverkskanten för att ta itu med 5G-utmaningar har motiverat nyligen gjorda studier om optimal innehållsplacering i storskaliga HCN:er. På grund av nätverkets komplexa prestandaanalys baserades dock de befintliga strategierna till största delen på approximation, heuristik och intuition. I allmänhet är optimala strategier för innehållsplacering i HCN fortfarande i stort sett okända och härled dem är temat för detta dokument. I detta syfte antar vi den populära slumpmässiga HCN-modellen, där K-skikt av BS modelleras som oberoende Poisson-punktprocesser fördelade i planet med olika densiteter. Dessutom beaktas det slumpmässiga cachesystemet, där var och en av en viss uppsättning M-filer med motsvarande popularitetsåtgärder placeras vid varje BS för en viss nivå med motsvarande sannolikhet, kallad placeringsannolikhet. Sannolikheterna är identiska för alla BS i samma nivå men varierar över nivåer, vilket ger namnet nivånivå innehåll placering. Vi anser att nätverksprestanda metrisk, träff sannolikhet, definieras som sannolikheten att en fil som begärs av den typiska användaren levereras framgångsrikt till användaren. Genom att utnyttja befintliga resultat på HCN-prestanda maximerar vi träffsannolikheten för sannolikheter för placering av innehåll, vilket ger den optimala placeringspolicyn på nivånivå. När det gäller enhetliga tröskelvärden för signal-till-interferens (SIR) för framgångsrika sändningar för BS i olika nivåer, är policyn i sluten form, där placeringsannolikheten för en viss fil är proportionell mot kvadratroten för motsvarande popularitetsmått med en offset beroende på BS-cachekapacitet. För det allmänna fallet med icke-uniforma SIR-trösklar är optimeringsproblemet icke-konvext och en suboptimal placeringspolicy är utformad genom approximation, som har en liknande struktur som i fallet med enhetliga SIR-trösklar och som genom simulering visas vara nära-tooptimal. Index Terms-Cache-aktiverade trådlösa nätverk, heterogena cellulära nätverk, innehåll leverans, stokastisk geometri. Manuskript | Referensreferensreferensen föreslår policyer för innehållsplacering på nivånivå i HCN. | 6,510,813 | Cache-Enabled Heterogeneous Cellular Networks: Optimal Tier-Level Content Placement | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 5,371 |
Ett antal senaste resultaten om optimeringsproblem som involverar submodulära funktioner har använt sig av "multilinjär avkoppling" av problemet [3], [8], [24], [14], [13]. Vi presenterar en allmän strategi för att härleda omätbarhet resulterar i värdet orakelmodellen, baserat på begreppet "symmetrigap". Vårt huvudsakliga resultat är att för varje fast instans som uppvisar en viss "symmetrigap" i sin multilinjära avkoppling, finns det en naturligt relaterad klass av instanser för vilka en bättre approximationsfaktor än symmetrigapet skulle kräva exponentiellt många orakelfrågor. Detta förenar flera kända hårdhetsresultat för submodulär maximering, t.ex. optimaliteten av (1 −1/e)-uppskattning för monoton submodulär maximering under en kardinalitetsbegränsning [20], [7], och omöjligheten av ( 1 2 + )-uppskattning för okonstruerad (icke-monoton) submodulal maximering [8]. Det följer av vårt resultat att ( 1 2 + )-uppskattning är också omöjligt för icke-monoton submodulär maximering föremål för en (icke-trivial) matroid begränsning. På den algoritmiska sidan presenterar vi en 0,309 approximation för detta problem, vilket förbättrar den tidigare kända faktorn 1 4 − o(1) [14]. Som en annan tillämpning, anser vi problemet med att maximera en icke-monoton submodulär funktion över baserna i en matroid. A ( 1 6 − o(1)) - approximation har utvecklats för detta problem, förutsatt att matroiden innehåller två olika baser [14]. Vi visar att den bästa approximationen man kan uppnå verkligen är relaterad till förpackningar av baser i matroiden. Specifikt, för varje k ≥ 2, det finns en klass av matriser av fraktionerad bas förpackningsnummer v = k‐1, sådan att någon algoritm som uppnår en bättre än (1 - 1 v ) - approximation för denna klass skulle kräva exponentiellt många värdefrågor. På den positiva sidan presenterar vi en 1 2 (1 - 1 v - o(1)) approximationsalgoritm för samma problem. Våra hårdhetsresultat håller i själva verket för mycket speciella symmetriska fall. För sådana symmetriska fall visar vi att approximationsfaktorerna 1 2 (för submodulär maximering som är föremål för en matrisrestriktion) och 1 - 1 v (för en matrisbasrestriktion) kan uppnås algoritmiskt och därmed är optimala. | Problemet med att maximera en (inte nödvändig monoton) submodulär funktion som är föremål för en matris basrestriktion visades inte ha någon konstant approximation förhållande i Reference Ref. | 7,271,003 | Symmetry and Approximability of Submodular Maximization Problems | {'venue': '2009 50th Annual IEEE Symposium on Foundations of Computer Science', 'journal': '2009 50th Annual IEEE Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 5,372 |
WebView är en viktig komponent i både Android- och iOS-plattformar, vilket gör det möjligt för smartphone och surfplattor att bädda in en enkel men kraftfull webbläsare inuti dem. För att uppnå en bättre interaktion mellan appar och deras inbäddade "browsers", WebView ger ett antal API:er, vilket gör att kod i appar att åberopa och åberopas av JavaScript-koden på webbsidorna, snappa upp deras händelser, och ändra dessa händelser. Med hjälp av dessa funktioner kan appar bli anpassade "browsers" för sina avsedda webbapplikationer. För närvarande, på Android-marknaden, 86 procent av de 20 mest nedladdade appar i 10 olika kategorier använder WebView. Designen av WebView förändrar landskapet på webben, särskilt ur säkerhetssynpunkt. Två viktiga delar av webbens säkerhetsinfrastruktur försvagas om WebView och dess API:er används: Trusted Computing Base (TCB) på klientsidan, och sandlåda skydd som införs av webbläsare. Som resultat kan många attacker startas antingen mot appar eller av dem. Syftet med detta dokument är att presentera dessa attacker, analysera deras grundläggande orsaker och diskutera möjliga lösningar. | Referens REF rapporterade att WebView används i 86% av de 20 mest nedladdade Android-appar i 10 olika kategorier. | 10,466,633 | Attacks on WebView in the Android system | {'venue': "ACSAC '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,373 |
Trots deras växande betydelse är optimering i generativa kontrariska nätverk (Gans) fortfarande ett dåligt underförstått ämne. I detta papper analyserar vi formen av GAN-optimering (dvs. den naturliga inställningen där vi samtidigt tar små gradientsteg i både generator- och diskriminatorparametrar). Vi visar att även om GAN-optimering inte motsvarar ett konvext konkavspel, även för enkla parameteriseringar, under korrekta förhållanden, är jämviktspunkter i denna optimeringsprocess fortfarande lokalt asymptotiskt stabila för den traditionella GAN-formuleringen. Å andra sidan visar vi att den nyligen föreslagna Wasserstein GAN kan ha icke-konvergenta gränscykler nära jämvikt. Motiverade av denna stabilitetsanalys, föreslår vi en ytterligare legalisering term för gradient nedstigning GAN uppdateringar, som kan garantera lokal stabilitet för både WGAN och för den traditionella GAN, och också visar praktiska löften om att påskynda konvergens och adresserande läge kollaps. Vi presenterar nu systemets jakobin i jämvikt i närvaro av gradientstraffet. Kom ihåg att påföljden i grund och botten lägger till en extra − - Lemma F.1. - Vad är det? - Lemma F.1. För det dynamiska system som definieras av GAN-målet i ekvation 3 och uppdateringarna i ekvation 5, Jacobian vid en jämviktspunkt ( på D, G ), enligt antagandena I och IV är: där J DD och J DG är termer i Jacobian som motsvarar de ursprungliga uppdateringarna, som beskrivs i Theorem 3.1. Bevis. Observera att den enda förändringen till Jacobian skulle vara i raderna som motsvarar generatorparametrarna. Därför kommer vi bara att fokusera på de ytterligare villkoren i dessa rader. | När det gäller stabiliteten i GAN algoritmer, REF bevisar att GDA algoritmen kommer att vara lokalt stabil för vanilj och legaliserade Wasserstein GAN problem. | 8,424,807 | Gradient descent GAN optimization is locally stable | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 5,374 |
Problemet med konnektivitet är oerhört viktigt i samband med massiva grafer. I många stora kommunikationsnät, sociala nätverk och andra grafer är det önskvärt att bestämma det minsta snittet mellan varje par av noder. Problemet är väl löst i den klassiska litteraturen, eftersom det är relaterat till det maximala flödet problem, som effektivt kan lösas. Stora grafer kan dock ofta ha diskplats, och sådana grafer kan inte behandlas effektivt för anslutningsfrågor. Detta beror på att det minsta skär problemet är typiskt löst med användning av en mängd olika kombinatoriska och flödesbaserade tekniker som kräver slumpmässig tillgång till de underliggande kanterna i grafen. I detta dokument föreslår vi att man utvecklar ett konnektivitetsindex för grafer med massiv-disk hemvist. Vi kommer att använda en kantampling baserad strategi för att skapa komprimerade representationer av de underliggande graferna. Eftersom dessa komprimerade representationer kan hållas i huvudminnet, kan de användas för att härleda effektiva approximationer för det minsta skär problemet. Dessa komprimerade representationer är sedan organiserade i en disk-bostad indexstruktur. Vi presenterar experimentella resultat som visar att den resulterande metoden ger mellan två och tre storleksordningar effektivare frågebehandling än en disk-bofast metod på bekostnad av en liten mängd noggrannhet. | Ett konnektivitet index för massiva-disk bosatta grafer studeras i REF. | 2,950,611 | GConnect: A Connectivity Index for Massive Disk-resident Graphs | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 5,375 |
Abstract-I detta dokument undersöker vi effekterna av kodning på AoI (The Age of Information) i en två-användar symbol radering kanal med feedback. Vi antar att varje uppdatering består av K-symboler och att källan kan sända en symbol i varje tidsslot. På grund av slumpmässig kanalbuller kommer den avsedda symbolen för varje användare att raderas enligt en oberoende och identiskt distribuerad (i.i.d.) Bernoulli-processen. En användare kan framgångsrikt avkoda en uppdatering om den ackumulerar tillräcklig information och framgångsrikt avkodar K-symbolerna i uppdateringen. Förutsatt perfekt feedback information vid källan direkt efter överföringen av varje symbol, vårt mål är att utforma en adaptiv kodsystem för att uppnå små AoI hos båda användarna. Vi föreslår ett nytt kodsystem för att klokt kombinera symboler från olika uppdateringar tillsammans, och analysera AoI hos båda användarna. Jämfört med ett girigt grundschema förbättrar det föreslagna adaptiva kodsystemet AoI hos den svaga användaren genom storleksordningar utan att äventyra AoI hos den starka användaren. | Ett adaptivt kodningssystem föreslogs i REF för att förbättra användarens AoI-prestanda med svaga kanalförhållanden. | 143,422,744 | Adaptive Coding for Information Freshness in a Two-User Broadcast Erasure Channel | {'venue': '2019 IEEE Global Communications Conference (GLOBECOM)', 'journal': '2019 IEEE Global Communications Conference (GLOBECOM)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 5,376 |
Abstract-Mobile-edge cloud computing är ett nytt paradigm för att tillhandahålla molndatafunktioner i utkanten av genomträngande radionät i nära anslutning till mobila användare. I det här dokumentet studerar vi först problemet med att avlasta flera användare för molndata i en trådlös störningsmiljö med flera kanaler. Vi visar att det är NP-hårdt att beräkna en centraliserad optimal lösning, och därmed anta en spelteoretisk metod för att uppnå effektiv beräkning offloading på ett distribuerat sätt. Vi formulerar den distribuerade beräkningen offloading beslutsfattande problem bland mobila användare som en multi-användare beräkning offloading spel. Vi analyserar den strukturella egenskapen i spelet och visar att spelet medger en Nash jämvikt och har den ändliga förbättring egenskapen. Vi utformar sedan en distribuerad beräkning offloading algoritm som kan uppnå en Nash jämvikt, härleda den övre gränsen för konvergenstiden, och kvantifiera dess effektivitet förhållande över de centraliserade optimala lösningarna i termer av två viktiga prestandamått. Vi utökar ytterligare vår studie till scenariot med fleranvändarberäkningsavlastning i den trådlösa innehållsmiljön med flera kanaler. Numeriska resultat bekräftar att den föreslagna algoritmen kan uppnå överlägsen beräkning offloading prestanda och skala samt användarens storlek ökar. | Chen och Al. REF visade att problemet med att hitta det maximala antalet avlastande användare är NP-Hard och författarna valde ett spelteoretiskt tillvägagångssätt för att hitta det optimala avlastningsbeslutet på ett distribuerat sätt. | 1,663,452 | Efficient Multi-User Computation Offloading for Mobile-Edge Cloud Computing | {'venue': 'TNET', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,377 |
Vi presenterar en modell som genererar naturligt språk de scriptions av bilder och deras regioner. Vår strategi hävarmen åldras datauppsättningar av bilder och deras mening beskrivningar för att lära sig om de intermodala korrespondenser mellan lan guage och visuella data. Vår anpassningsmodell är baserad på en ny kombination av Convolutional Neural Networks över bildregioner, dubbelriktade Recurrent Neural Networks över meningar, och ett strukturerat mål som anpassar de två formerna genom en multimodal inbäddning. Vi beskriver sedan en multimodal Recurrent Neural Network architecture som använder de inferred anpassningarna för att lära sig att generera nya beskrivningar av bildregioner. Vi visar att vår anpassningsmodell producerar toppmoderna resultat i re trieval experiment på Flickr8K, Flickr30K och MSCOCO dataset. Vi visar sedan att de genererade beskrivningar signifikant överträffar hämtning baslinjer på både fullständiga bilder och på en ny datauppsättning av region-nivå annoteringar. | I stället för att ge hela bilden, föreslår REF en anpassningsmodell för att lära sig en multimodal inbäddning för att generera beskrivningar över bildregioner. | 8,517,067 | Deep visual-semantic alignments for generating image descriptions | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 5,378 |
Abstract-I detta dokument, vi anser utbyggnad av energiförbrukning schemaläggning (ECS) enheter i smarta mätare för autonom efterfrågesidan förvaltning i ett område, där flera byggnader delar en energikälla. ECS-enheterna antas byggas inuti smarta mätare och vara anslutna till inte bara elnätet, utan också till ett lokalt nät som är nödvändigt för att hantera dubbelriktad kommunikation i en smart nätinfrastruktur. De interagerar automatiskt genom att köra en distribuerad algoritm för att hitta den optimala energiförbrukningen schema för varje abonnent, i syfte att minska den totala energikostnaden samt topp-till-genomsnitt-förhållande (PAR) i belastningsefterfrågan i systemet. Det finns också incitament för abonnenterna att faktiskt använda ECS-utrustningen via en ny prismodell, som bygger på en spelteoretisk analys. Simuleringsresultat bekräftar att vår föreslagna distribuerade algoritm avsevärt minskar PAR och den totala kostnaden i systemet. | I REF minskar författarna den maximala till genomsnittliga elförbrukningen enligt Optimal Consumption Schedule (OCS) för kunderna i ett grannskap. | 8,892,146 | Optimal and autonomous incentive-based energy consumption scheduling algorithm for smart grid | {'venue': '2010 Innovative Smart Grid Technologies (ISGT)', 'journal': '2010 Innovative Smart Grid Technologies (ISGT)', 'mag_field_of_study': ['Computer Science']} | 5,379 |
Världen är täckt av miljontals byggnader, och just vetskapen om varje instanss position och omfattning är avgörande för en mängd tillämpningar. Nyligen, automatiserade byggnadsavtryck segmentering modeller har visat överlägsen detektion noggrannhet tack vare användningen av Convolutional Neural Networks (CNN). Men även de senaste evolutionerna kämpar för att exakt avgränsa gränser, vilket ofta leder till geometriska förvrängningar och oavsiktlig fusion av angränsande byggnadsfall. Vi föreslår att denna fråga ska lösas genom att man utnyttjar byggnadernas distinkta geometriska egenskaper. I detta syfte presenterar vi Deep Structured Active Contours (DSAC), ett nytt ramverk som integrerar tidigare och begränsningar i segmenteringsprocessen, såsom kontinuerliga gränser, släta kanter och skarpa hörn. För att göra det använder DSAC Active Contour Models (ACM), en familj av begränsnings- och tidigare baserade polygonala modeller. Vi lär oss ACM-parameteriseringar per instans med hjälp av ett CNN, och visar hur man införlivar alla komponenter i en strukturerad utgångsmodell, vilket gör DSAC trainingable endto-end. Vi utvärderar DSAC på tre utmanande bygge instans segmentering dataset, där det jämför gynnsamt mot state-of-the-art. Koden kommer att göras tillgänglig på https://github.com/dmarcosg/DSAC. | I REF föreslog författarna en djupt strukturerad aktiv konturmetod som lär sig parametrarna för en aktiv konturmodell med hjälp av ett CNN. | 3,939,983 | Learning Deep Structured Active Contours End-to-End | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 5,380 |
: Översikt över vår pipeline: från indata skannar vi upptäcka planar fläckar som sannolikt hör till väggar (a); från dessa bygger vi en 2D cell komplex av golvplanen, som sedan segmenteras i enskilda rum (b); slutligen, 3D-modellen av varje rum rekonstrueras (c). Behovet av metoder för att utvinna semantiskt rika 3D-modeller av byggnadsinteriör växer sig starkare inom arkitektur och ingenjörskonst. Särskilt intressant är problemet med att rekonstruera den arkitektoniska strukturen i miljöer, med fokus på permanenta strukturer som väggar, tak och golv. Nya framsteg inom teknik för 3D-förvärv (t.ex. laserskanning) möjliggör snabb och noggrann produktion av råa mätningar, men rekonstruktionen av modeller på högre nivå försvåras av ett antal faktorer. För det första, inomhusmiljöer innehåller höga nivåer av skräp, vilket resulterar i tunga ocklusioner av väggar och andra strukturer av intresse under förvärvet. För det andra innehåller skannade modeller vanligtvis storskaliga artefakter som kommer från mycket reflekterande ytor (t.ex. fönster) ofta närvarande i sådana scener. Slutligen, att skapa strukturerade 3D-modeller av typiska interiöra miljöer, såsom lägenheter och kontorsbyggnader, innebär utmaningen att erkänna deras struktur i form av en uppsättning av enskilda rum och korridorer. För att ta itu med dessa punkter införde vi en rörledning [Mura et al. 2014] för att rekonstruera den arkitektoniska modellen av en inomhusmiljö från en uppsättning 3D indata skannar. Metoden är robust för att skräpa och kan extrahera formen av de enskilda rummen i miljön, som representerar var och en av dem som en polyhedron. De antaganden som gjorts är att skannerns positioner är kända och att miljön är bunden av vertikala väggar och av horisontella tak av samma höjd. Vår rörledning (visuellt sammanfattad i bild 1 ) består av tre huvudsakliga bearbetningssteg, som kan sammanfattas enligt följande. (a) Occlusion-medveten val av kandidat vägg fläckar. Från uppsättningen av inmatningspunkt moln vi extrahera planar patchar genom att tillämpa en enkel region växande förfarande. Vi uppskattar höjden på golvet och taket genom att hitta plana fläckar som har, respektive minimala och maximala vertikala koordinater. Bra kandidater för väggkonstruktioner beräknas genom att välja de fläckar som är vertikala och spänner en vertikal omfattning nästan lika med höjdskillnaden mellan tak och golv. För att uppnå robusthet att betrakta ocklusioner, när du beräknar den vertikala omfattningen av en patch tar vi också hänsyn till skuggorna som kastas på den av eventuella ockluders, det vill säga andra patcher placeras mellan patchen beaktas och den scan position från vilken den förvärvades. Denna al-lows för att återställa den fria vertikala utsträckningen av de vertikala fläckarna. b) Automatisk extraktion av enskilda rum. De (3D) kandidat vägg fläckar som valts i a) projiceras på det horisontella planet, erhålla en uppsättning 2D-linjesegment. Vi slår samman segment som ligger nära varandra med hjälp av medelskiftande klusteralgoritm; den uppsättning representativa linjer som motsvarar de erhållna klusteren används för att bygga ett 2D-cellskomplex (dvs. ett arrangemang av linjer) som motsvarar miljöns planlösning. Uppsättningen av celler i komplexet klustras sedan av iterativt tillämpa en binär version av k-medoid algoritmen (med k = 2). Genom att dra nytta av de kända positionerna i scanpoints, denna process extraherar ett rum efter ett annat och stannar automatiskt när alla rum har hittats. Klustret drivs av spridningsavstånd mellan cellerna i komplexet, som beräknas genom att tillämpa en robust värmespridningsprocess på själva komplexet. c) Återuppbyggnad av de slutliga rumsmodellerna. De kluster av 2D celler som erhålls i (b) motsvarar rummen i miljön; i detta steg, varje kluster omvandlas till en 3D polyhedron. För att göra detta, kanterna på gränsen till varje rum kluster extraheras; sedan 3D väggplan som motsvarar sådana gränskanter beräknas, genom att kraftfullt montera ett plan till 3D-punkterna i kandidatväggen fläckar som härrörde från varje segment. För varje rum erhålls den slutliga polyhedronen genom skärning av 3D-gränsens väggplan och tak- och golvplan (extraherade i a). Vår pipeline har framgångsrikt validerats genom att testa den på ett antal verkliga och syntetiska dataset. Vi ser vårt arbete som ett första steg mot att gå bortom den enkla geometriska rekonstruktionen för att ta fram information på högre nivå om inomhusmiljöer. | Dessutom, majoriteten av metoder endast anser en sida av väggen som minskar problemet med väggdetektering till ett plan segmentering paradigm REF. | 8,829,852 | Automatic Room Detection and Reconstruction in Cluttered Indoor Environments with Complex Room Layouts | {'venue': 'Comput. Graph.', 'journal': 'Comput. Graph.', 'mag_field_of_study': ['Computer Science']} | 5,381 |
Befintliga metoder för visuellt resonemang försöker direkt kartlägga indata till utgångar med hjälp av svart-box arkitekturer utan att uttryckligen modellera de underliggande resonemangsprocesserna. Som ett resultat, dessa svart-box modeller lär sig ofta att utnyttja fördomar i data snarare än att lära sig att utföra visuella resonemang. Inspirerad av modulnätverk föreslår detta dokument en modell för visuellt resonemang som består av en programgenerator som konstruerar en uttrycklig representation av den resonemangsprocess som ska utföras, och en exekveringsmotor som utför det resulterande programmet för att producera ett svar. Både programgeneratorn och exekveringsmotorn implementeras av neurala nätverk, och tränas med hjälp av en kombination av backpropagation och REINFORCE. Med hjälp av CLEVR-riktmärket för visuellt resonemang visar vi att vår modell avsevärt överträffar starka baslinjer och generaliserar bättre i en mängd olika inställningar. | RL-tekniker har också nyligen tillämpats på QA-uppgifter, främst genom REF att träna en programgenerator som konstruerar en uttrycklig representation av resonemangsprocessen som ska utföras och en exekveringsmotor som utför programmet för att förutsäga svaret. | 31,319,559 | Inferring and Executing Programs for Visual Reasoning | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 5,382 |
Abstract-The two-user multiple-input multiple-output (MIMO) interferent kanal (IC) med godtyckligt antal antenner vid varje terminal beaktas och graden av frihet (DoF) region kännetecknas i närvaro av ljudlös kanalutgång återkoppling från varje mottagare till sin respektive sändare och tillgång till fördröjd kanaltillstånd information vid sändare (CSIT). Det visas att med feedback från produktionen och försenad CSIT kan strikt förstora DoF-regionen i MIMO IC jämfört med det fall där endast fördröjd CSIT är närvarande. De föreslagna kodsystem som uppnår motsvarande DoF-region med återkoppling och fördröjd CSIT utnyttjar både resurser, dvs. återkoppling och fördröjd CSIT på ett icke-trivialt sätt. Det visas också att DoF-regionen med lokal feedback och försenad CSIT är lika med DoF-regionen med global feedback och fördröjd CSIT, dvs. lokal feedback och försenad CSIT är likvärdig med global feedback och fördröjd CSIT ur frihetsregionens perspektiv. Motsatsen är bevisad för en starkare miljö där kanalerna till de två mottagarna inte behöver vara statistiskt likvärdiga. Index Terms-Interference Channel, MIMO, Utgång Feedback, Fördröjd CSIT. | Resultaten från REF visar att DoF region för FF-IC med utgående feedback och fördröjd CSIT finns i DoF regionen för fallet med omedelbar CSIT och ingen feedback. | 3,892,965 | Degrees of Freedom Region of the MIMO Interference Channel with Output Feedback and Delayed CSIT | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 5,383 |
Abstract-I detta dokument behandlar vi problemet med rörelseplanering i närvaro av statlig osäkerhet, även känd som planering i tro utrymme. Arbetet motiveras av planeringsdomäner med icke-trivial dynamik, rumsligt varierande mätegenskaper och hinderbegränsningar. För att göra problemet hanterbart, begränsar vi rörelseplanen till en nominell bana stabiliserad med en linjär estimator och styrenhet. Detta gör att vi kan förutsäga distributioner över framtida stater ges en kandidat nominell bana. Med hjälp av dessa distributioner för att säkerställa en begränsad sannolikhet för kollision, algoritmen gradvis konstruerar en graf av banor genom tillståndsutrymme, samtidigt som effektivt söka över kandidatvägar genom grafen vid varje iteration. Denna process resulterar i ett sökträd i tro utrymme som tydligt konvergerar till den optimala vägen. Vi analyserar algoritmen teoretiskt och ger även simuleringsresultat som visar dess nytta för att balansera informationsinsamling för att minska osäkerhet och hitta billiga vägar. | I REF konstrueras en graf i trosutrymme och beskärs successivt, vilket i slutändan resulterar i ett träd i trosutrymme. | 12,256,292 | Rapidly-exploring Random Belief Trees for motion planning under uncertainty | {'venue': '2011 IEEE International Conference on Robotics and Automation', 'journal': '2011 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 5,384 |
Sammanfattning av denna webbsida: Den här artikeln behandlar simulering och utvärdering av ett system för att upptäcka trafikstockningar som kombinerar inter-vehikulära kommunikationer, fast väginfrastruktur och infrastruktur-till-infrastruktur-anslutning och big data. Det system som diskuteras i den här artikeln gör det möjligt för förare att identifiera trafikstockningar och ändra sina rutter i enlighet därmed, vilket minskar de totala utsläppen av CO 2 och minskar restiden. Detta system övervakar, bearbetar och lagrar stora mängder data, som kan upptäcka trafikstockningar på ett exakt sätt med hjälp av en serie algoritmer som minskar lokala fordonsutsläpp genom omdirigering av fordon. För att simulera och utvärdera det föreslagna systemet utvecklades ett stordatakluster baserat på Cassandra, som användes tillsammans med OMNeT++ diskret händelsenätverkssimulator, tillsammans med SUMO (Simulation of Urban Mobility) trafiksimulator och Veins vehicular network framework. Resultaten validerar trafikdetekteringssystemets effektivitet och dess positiva inverkan på detektion, rapportering och omdirigering av trafik när trafikhändelser inträffar. | I Ref presenterades ett system för att upptäcka trafikstockningar som kombinerar fordon till fordon (V2V), fordon till infrastruktur och infrastruktur (I2I) konnektivitet och big data. | 1,295,856 | Traffic Congestion Detection System through Connected Vehicles and Big Data | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 5,385 |
Figur 1: Vi modifierar en skådespelares läpprörelse i en målvideo (a) så att den anpassar sig till ett nytt ljudspår. Vår uppsättning består av en enda videokamera som filmar en dubber i en inspelningsstudio (b + c). Vårt system överför röstskådespelarens (d) munrörelse till målskådespelaren och skapar en ny trovärdig video av målskådespelaren som talar det dubbade språket (e). Sammanfattning I många länder kallas utländska filmer och TV-produktioner, d.v.s. en skådespelares ursprungliga röst ersätts med en översättning som talas av en dubbande skådespelare i landet. | Visuell video dubbning metoder försöka matcha munnen rörelse till en dubbad ljudspår REF. | 18,087,669 | VDub: Modifying Face Video of Actors for Plausible Visual Alignment to a Dubbed Audio Track | {'venue': 'Comput. Graph. Forum', 'journal': 'Comput. Graph. Forum', 'mag_field_of_study': ['Computer Science']} | 5,386 |
Sammanfattning av denna webbsida: PDP-protokollet (Proviable Data Possession) gör det möjligt för molnanvändare att kontrollera om molnservrarna har sina ursprungliga data utan att ladda ner alla data. De flesta av de befintliga PDP-systemen är dock baserade på antingen offentlig nyckelinfrastruktur (PKI) eller identitetsbaserad kryptografi, som kommer att drabbas av frågor om dyr certifikathantering eller viktig spärr. I detta dokument föreslår vi en ny konstruktion av protokollet om delad datainnehav (CL-PGSDP) utan certifikat genom att använda sig av cryptography utan certifikat, vilket eliminerar ovanstående problem. Samtidigt, genom att dra nytta av noll-kunskap protokoll och randomisering metod, det föreslagna CL-PGSDP protokollet läcker ingen information om de lagrade data och grupp användarens identitet till kontrollörerna under verifieringsprocessen, som är av egendomen omfattande integritet bevarande. Dessutom stöder vårt protokoll också effektiva användarindragningar från gruppen. Säkerhetsanalys och experimentell utvärdering visar att vårt CL-PGSDP-protokoll ger en stark säkerhet med önskvärd effektivitet. | I kraft av noll-kunskap bevis och randomisering metod, Yang et al. REF konstruerade ett protokoll om delad datainnehav för att bevara integriteten. | 52,008,902 | Certificateless Provable Group Shared Data Possession with Comprehensive Privacy Preservation for Cloud Storage | {'venue': 'Future Internet', 'journal': 'Future Internet', 'mag_field_of_study': ['Computer Science']} | 5,387 |
Abstrakt. Att skaffa modeller som fångar bildmarkörer relevanta för sjukdomsprogression och behandling övervakning är utmanande. Modeller är vanligtvis baserade på stora mängder data med kommenterade exempel på kända markörer som syftar till att automatisera detektion. Stor anteckning ansträngning och begränsningen till en vokabulär av kända markörer begränsa kraften i sådana metoder. Här utför vi oövervakad inlärning för att identifiera avvikelser i avbildningsdata som kandidater för markörer. Vi föreslår AnoGAN, en djup konvolutionell generativ kontrarial nätverk för att lära sig en mångfald av normal anatomisk variabilitet, som åtföljer en ny anomali scoring schema baserat på kartläggning från bildutrymme till en latent utrymme. Tillämpas på nya data, modellen etiketter anomalier, och poäng bild patchar som visar deras passform i den lärda distributionen. Resultat på optisk sammanhållning tomografi bilder av näthinnan visar att metoden korrekt identifierar anomala bilder, såsom bilder som innehåller näthinnevätska eller hyperreflexiv foci. | Efter en något annorlunda strategi föreslår REF att man lär sig en kartläggning mellan en slumpmässig fördelning och bildgrenröret för den givna klassen. | 17,427,022 | Unsupervised Anomaly Detection with Generative Adversarial Networks to Guide Marker Discovery | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 5,388 |
I detta dokument tillämpar vi en allmän ram för djupinlärning (DL) för svarsvalsuppgiften, som inte är beroende av manuellt definierade funktioner eller språkliga verktyg. Den grundläggande ramen är att bygga inbäddningar av frågor och svar baserat på dubbelriktade långsiktiga korttidsminne (biLSTM) modeller, och mäta deras närhet genom cosinus likhet. Vi utvidgar denna grundmodell ytterligare i två riktningar. En riktning är att definiera en mer sammansatt representation för frågor och svar genom att kombinera konvolutionella neurala nätverk med den grundläggande ramen. Den andra riktningen är att använda en enkel men effektiv uppmärksamhetsmekanism för att generera svar representation enligt frågan sammanhang. Det finns flera varianter av modeller. Modellerna granskas av två datauppsättningar, inklusive TREC-QA och InsuranceQA. Experimentella resultat visar att de föreslagna modellerna avsevärt överträffar flera starka baslinjer. | Tan och Al. REF använder olika neurala nätverk för att producera mer sammansatta distribuerade representationer för frågor och svar. | 2,278,470 | LSTM-based Deep Learning Models for Non-factoid Answer Selection | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,389 |
Genetiska algoritmer har använts i stor utsträckning i många praktiska optimeringsproblem. Inspirerad av naturligt urval, operatörer, inklusive mutation, crossover och urval, ger effektiv heuristik för sökning och Black-box optimering. Men de har inte visat sig användbara för djup förstärkning inlärning, möjligen på grund av den katastrofala följden av parameter crossovers av neurala nätverk. Här presenterar vi Genetisk Policy Optimization (GPO), en ny genetisk algoritm för proveffektiv djuppolicyoptimering. GPO använder imitation lärande för policy crossover i det statliga utrymmet och tillämpar policy gradient metoder för mutation. Våra experiment på Mujoco uppgifter visar att GPO som en genetisk algoritm kan ge överlägsen prestanda över de state-of-the-art policy gradient metoder och uppnå jämförbara eller högre proveffektivitet. | Gangwani och Peng utformade en genetisk algoritm med hjälp av imitation inlärning och politik gradienter som crossover och mutationsoperatör, respektive REF. | 19,326,248 | Genetic Policy Optimization | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 5,390 |
Även om säkerhet spelar en viktig roll i utvecklingen av multiagentsystem, visar en noggrann analys av programvaruutvecklingsprocesser att definitionen av säkerhetskrav vanligtvis beaktas efter utformningen av systemet. En av anledningarna är att agentorienterade programvarutekniska metoder inte har integrerat säkerhetsproblem under hela sin utvecklingsfas. Integrationen av säkerhetsproblem under hela utvecklingsfasen kan bidra till utvecklingen av säkrare multiagentsystem. I detta dokument introducerar vi utvidgningar av Tropos-metoden för att göra det möjligt för den att modellera säkerhetsproblem under hela utvecklingsprocessen. En beskrivning av de nya koncepten och modelleringsverksamheten ges tillsammans med en diskussion om hur dessa koncept och modelleringsverksamheter integreras i Tropos nuvarande skeden. En fallstudie i verkliga livet från hälso- och sjukvårdssektorn används för att illustrera detta synsätt. | Säkra Tropos REF-modeller säkerhetsproblem under hela utvecklingsprocessen. | 6,648,528 | SECURE TROPOS: A SECURITY-ORIENTED EXTENSION OF THE TROPOS METHODOLOGY | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,391 |
Abstract-Ett iterativt förfarande för syntes av glesa matriser som utstrålar fokuserad eller formad strålpattern presenteras. Algoritmen består i att lösa en sekvens av viktade konvexa optimeringsproblem. Metoden kan därför enkelt implementeras och effektivt lösas. I optimeringsförfarandet är målet att minimera antalet strålningselement och begränsningarna motsvarar mönsterkraven. Metoden kan användas för att syntetisera antingen fokuserad eller formad strålpattern och det finns ingen begränsning när det gäller matrisgeometri och individuella elementmönster. Numeriska jämförelser med standardriktmärkesproblem bedömer effektiviteten i den föreslagna metoden, vars beräkningstid är flera storleksordningar under så kallade globala optimeringsalgoritmer. | Jämfört med den stokastiska optimeringsalgoritmen kunde den optimala lösningen för målfunktion hittas genom konvex optimeringsalgoritm och den optimala lösningen är den globala optimala lösningen REF. | 16,745,858 | Synthesis of Sparse Arrays With Focused or Shaped Beampattern via Sequential Convex Optimizations | {'venue': 'IEEE Transactions on Antennas and Propagation', 'journal': 'IEEE Transactions on Antennas and Propagation', 'mag_field_of_study': ['Mathematics']} | 5,392 |
Kinesiska är ett språk som inte har morfologiska spända markörer som ger explicit grammaticalization av den timliga platsen av situationer (händelser eller stater). I många NLP-tillämpningar som maskinöversättning, informationsutdrag och frågesvar är det dock önskvärt att göra situationens tidsmässiga placering explicit. Vi beskriver ett ramverk för maskininlärning där olika informationskällor kan kombineras för att förutsäga situationens tidsmässiga läge i kinesisk text. Våra experiment visar att detta tillvägagångssätt avsevärt överträffar det mest frekventa spända utgångsläget. Ännu viktigare är att den höga träningsnoggrannheten visar att detta utmanande problem kan lösas upp till en nivå där det kan användas i praktiska NLP-tillämpningar med mer träningsdata, bättre modelleringsteknik och mer informativa och generella funktioner. | Med hjälp av en corpus med spänd annoterad direkt i kinesisk text, REF utförde omfattande funktionsteknik i ett maskininlärning ramverk för att ta itu med detta problem. | 11,628,402 | Automatic Inference of the Temporal Location of Situations in Chinese Text | {'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,393 |
I detta dokument 1 utvecklar vi en epistemisk logik för att specificera och resonera om informationsflödet på de underliggande kommunikationskanalerna. Genom att kombinera idéer från Dynamic Epistemic Logic (DEL) och tolkade system (IS) erbjuder våra semantik ett naturligt och snyggt sätt att modellera multiagentiska kommunikationsscenarier med olika antaganden om agenternas observationskraft. Vi relaterar vår logik till standard-DEL och IS-strategier och visar dess användning genom att studera ett telefonsamtalsscenario. | Dessutom föreslogs i REF en epistemisk logik för att resonera om informationsflödet med avseende på de underliggande kommunikationskanalerna. | 2,017,490 | Logic of Information Flow on Communication Channels | {'venue': 'DALT', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,394 |
Abstract-I de flesta säkerhetskritiska områden föreskrivs behovet av spårbarhet av attesterande organ. Spår länkar skapas i allmänhet bland krav, design, källkod, test fall och andra artefakter, men att skapa sådana länkar manuellt är tidskrävande och fel benägna. Automatiserade lösningar använder teknik för informationshämtning och maskininlärning för att generera spårlänkar, men nuvarande tekniker misslyckas med att förstå semantik av programvaruartefakterna eller att integrera domänkunskap i spårningsprocessen och tenderar därför att leverera oprecisa och felaktiga resultat. I detta dokument presenterar vi en lösning som använder djupinlärning för att införliva krav artefaktsemantik och domänkunskap i spårningslösningen. Vi föreslår en spårningsnätverk arkitektur som använder Word Embedding och Recurrent Neural Network (RNN) modeller för att generera spårlänkar. Ord inbäddning lär sig ord vektorer som representerar kunskap om domän corpus och RNN använder dessa ord vektorer för att lära mening semantik krav artefakter. Vi utbildade 360 olika konfigurationer av spårningsnätet med hjälp av befintliga spårlänkar i den positiva tågkontrolldomänen och identifierade den dubbelriktade Gated Recurrent Unit (BI-GRU) som den bästa modellen för spårningsuppgiften. BI-GRU betydligt out-performed state-of-the-art spårningsmetoder inklusive Vector Space Model och Latent Semantic Indexing. | Guo m.fl. utvecklar en DL metod med hjälp av RNNs och ord inbäddningar för att lära mening semantik krav artefakter, vilket bidrar till att skapa spårbarhet länkar i mjukvaruprojekt REF. | 4,708,148 | Semantically Enhanced Software Traceability Using Deep Learning Techniques | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,395 |
Återkommande neurala nätverk (RNNs), såsom långa kortsiktiga minnesnätverk (LSTMs), fungerar som en grundläggande byggsten för många sekvens lärande uppgifter, inklusive maskinöversättning, språkmodellering, och frågesvar. I detta dokument tar vi hänsyn till det specifika problemet med språkmodellering på ordnivå och undersöker strategier för att legalisera och optimera LSTM-baserade modeller. Vi föreslår vikt-släppt LSTM som använder DropConnect på gömda vikter som en form av återkommande legalisering. Vidare introducerar vi NT-ASGD, en variant av den genomsnittliga stokastiska lutningsmetoden, där medelutlösaren bestäms med hjälp av ett icke-monotoniskt tillstånd i stället för att ställas in av användaren. Med hjälp av dessa och andra legaliseringsstrategier, uppnår vi toppmoderna ordnivå perplexiteter på två datauppsättningar: 57,3 på Penn Treebank och 65,8 på WikiText-2. Genom att undersöka effektiviteten av en neural cache i samband med vår föreslagna modell, uppnår vi en ännu lägre state-of-the-art perplexity på 52,8 på Penn Treebank och 52,0 på WikiText-2. | I synnerhet ger modellen AWD-LSTM en toppmodern prestanda på de fyra datauppsättningar som behandlas i detta dokument REF b ). | 212,756 | Regularizing and Optimizing LSTM Language Models | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 5,396 |
Vi föreslår en innehållsbaserad soft annotation (CBSA) förfarande för att ge bilder med semantiska etiketter. Anteckningsförfarandet börjar med att märka en liten uppsättning träningsbilder, var och en med en enda semantisk etikett (t.ex. skog, djur, eller himmel). En ensemble av binära klassificerare tränas sedan för att förutsäga etikettmedlemskap för bilder. Den tränade ensemblen appliceras på varje enskild bild för att ge bilden flera mjuka etiketter, och varje etikett är associerad med en etikett medlemsfaktor. För att välja en bas binär-klassificerare för CBSA, experimenterar vi med två inlärningsmetoder, Support Vector Machines (SVMs) och Bayes Point Machines (BPMs, och jämföra deras klass-prediction noggrannhet. Vår empiriska studie av en 116-kategori 25K-bilduppsättning visar att den BPM-baserade ensemblen ger bättre kommenterande kvalitet än SVM-baserad ensemble för att stödja multimodala bildsökningar. | Systemet för innehållsbaserad Soft Annotation (CBSA) REF är också baserat på binära klassificerare (Bayes Point Machines och SVMs) som är utbildade för varje ord (116 ord beaktas) och indexerar en ny bild med utdata från varje klassificerare. | 12,014,229 | CBSA: content-based soft annotation for multimodal image retrieval using Bayes point machines | {'venue': 'IEEE Trans. Circuits Syst. Video Techn.', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,397 |
Abstract-This paper reports on WaterGAN, a generative adversarial network (GAN) for att generera realistiska undervattensbilder från i luften bild och djup parningar i en oövervakad pipeline som används för färgkorrigering av monocular undervattensbilder. Kameror ombord autonoma och fjärrstyrda fordon kan fånga högupplösta bilder för att kartlägga havsbottnen; dock är undervattens bildbildning föremål för den komplexa processen för ljusutbredning genom vattenpelaren. De råa bilder som hämtas är karakteristiskt annorlunda än bilder som tas i luft på grund av effekter som absorption och spridning, som orsakar dämpning av ljus i olika hastigheter för olika våglängder. Även om denna fysiska process är väl beskriven teoretiskt, beror modellen på många parametrar inneboende vattenpelaren samt strukturen på scenen. Dessa faktorer gör det svårt att återvinna dessa parametrar utan att förenkla antaganden eller fältkalibrering; därför är restaurering av undervattensbilder ett icke-trivialt problem. Djupt lärande har visat sig vara en stor framgång när det gäller att modellera komplexa ickelinjära system men kräver en stor mängd träningsdata, vilket är svårt att sammanställa i djuphavsmiljöer. Med WaterGAN genererar vi ett stort träningsdataset med motsvarande djup, färgbilder i luften och realistiska undervattensbilder. Dessa data fungerar som inmatning till ett tvåstegsnätverk för färgkorrigering av monokulära undervattensbilder. Vår föreslagna pipeline valideras med tester på verkliga data som samlats in från både en ren vattentesttank och från undervattensundersökningar som samlats in på fältet. Källkod, urvalsdata och förträngda modeller görs allmänt tillgängliga. | WaterGAN REF kräver en utbildning som består av bilder i luften och en motsvarande djupkarta för att generera undervattensbilder. | 14,246,341 | WaterGAN: Unsupervised Generative Network to Enable Real-time Color Correction of Monocular Underwater Images | {'venue': 'IEEE Robotics and Automation Letters IEEE Robotics and Automation Letters IEEE Robotics and Automation Letters 387 - 394 (2018)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 5,398 |
Modellbaserade tester har blivit allt populärare under de senaste åren. Viktiga skäl är 1) behovet av kvalitetssäkring för alltmer komplexa system, 2) det framväxande modellcentrerade utvecklingsparadigmet (t.ex. UML och MDA) med dess till synes direkta koppling till testning och 3) införandet av testcentrerade utvecklingsmetoder. Modellbaserad testning bygger på utförande spår av beteendemodeller. De används som testfall för ett genomförande: input och förväntad output. Detta kompletterar idéerna om modelldriven testning. Den senare använder statiska modeller för att härleda testdrivrutiner för att automatisera testutförandet. Detta förutsätter förekomsten av testfall, och är, liksom de särskilda invecklade av 00 tester, inte i fokus för denna handledning. Vi täcker stora metodologiska och tekniska frågor: affärsfallet med modellbaserad testning inom modellbaserad utveckling, behovet av abstraktion och omvänd konkretisering, testurval och testfallsgenerering. Vi (1) diskuterar olika scenarier för modellbaserad testning, (2) presenterar gemensamma abstraktioner när man bygger modeller, och deras konsekvenser för testning, (3) förklarar hur man använder funktionella, strukturella och stokastiska testurvalskriterier, och (4) beskriver dagens testgenereringsteknik. Vi ger både praktisk vägledning och en diskussion om den senaste tekniken. Potentialer för modellbaserade tester i praktiska tillämpningar och framtida forskning lyfts fram. | Samma år granskade Pretschner REF de modellbaserade testmetoderna i ICSE 2005. | 17,649,158 | Model-based testing | {'venue': 'Proceedings. 27th International Conference on Software Engineering, 2005. ICSE 2005.', 'journal': 'Proceedings. 27th International Conference on Software Engineering, 2005. ICSE 2005.', 'mag_field_of_study': ['Computer Science']} | 5,399 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.