src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Vi föreslår en ny djup nätverksstruktur som kallas "Network In Network" (NIN) för att förbättra modellens diskriminabilitet för lokala patchar inom det mottagliga fältet. Det konventionella konvolutionslagret använder linjära filter följt av en icke-linjär aktiveringsfunktion för att skanna indatan. Istället bygger vi mikroneurala nätverk med mer komplexa strukturer för att abstraktera data inom det mottagliga fältet. Vi omedelbart mikroneurala nätverket med en multilager perceptron, som är en potent funktion approximator. Funktionskartor erhålls genom att flytta mikronätverken över inmatningen på ett liknande sätt som CNN; de matas sedan in i nästa lager. Djup NIN kan genomföras genom stapling mutiple av ovan beskrivna struktur. Med förbättrad lokal modellering via mikronätet kan vi utnyttja global genomsnittlig poolning över funktionskartor i klassificeringsskiktet, vilket är lättare att tolka och mindre benägna att översitta än traditionella fullt anslutna lager. Vi demonstrerade toppmoderna klassificeringsprestanda med NIN på CIFAR-10 och CIFAR-100 och rimliga prestanda på SVHN- och MNIST-datauppsättningar.
Nätverket i nätverk REF struktur inkluderar mikro flerskikts perceptroner i filter av konvolutionella lager för att extrahera mer komplicerade funktioner.
16,636,683
Network In Network
{'venue': 'ICLR 2014', 'journal': 'arXiv: Neural and Evolutionary Computing', 'mag_field_of_study': ['Computer Science']}
3,573
med en översikt (1A) och detaljer (1B) matris. Snippet vyn (2) presenterar regioner av matrisen som interaktiva små multiplar. I detta exempel arrangeras snippets med t-SNE (2C) och en hög med snippets med ett väluttalat genomsnittsmönster markeras (2A). Visa menyer för drift finns längst ner (1C och 2B). Abstract-This paper presenterar ett interaktivt visualiseringsgränssnitt-HiPiler-för utforskning och visualisering av regioner-av-intresse i stora genominteraktionsmatriser. Genominteraktionsmatriser ungefärligt det fysiska avståndet av par av regioner på genomet till varandra och kan innehålla upp till 3 miljoner rader och kolumner med många glesa regioner. Regioner av intresse (ROI) kan definieras, t.ex. genom uppsättningar av angränsande rader och kolumner, eller genom specifika visuella mönster i matrisen. Men traditionella matrisaggregation eller pan-and-zoom gränssnitt misslyckas med att stödja sökning, inspektion och jämförelse av ROI i sådana stora matriser. I HiPiler, ROI är förstklassiga objekt, representeras som miniatyr-liknande "snippets". Snippets kan utforskas interaktivt och grupperas eller läggas ut automatiskt i scatterplots, eller genom dimensionsreduktionsmetoder. Snippets är kopplade till hela den navigabla genominteraktionsmatrisen genom borstning och länkning. Designen av HiPiler bygger på en serie halvstrukturerade intervjuer med 10 domänexperter involverade i analys och tolkning av genominteraktionsmatriser. Vi beskriver sex prospekteringsuppgifter som är avgörande för analys av interaktionsmatriser och visar hur HiPiler stöder dessa uppgifter. Vi rapporterar om en användarstudie med en serie dataprospekteringssessioner med domänexperter för att bedöma användbarheten av HiPiler samt för att demonstrera respektive resultat i data.
HiPiler REF stöder utforskning och jämförelser av många mönster genom interaktiva små multiplar av många små mönster i en separat vy.
1,655,894
HiPiler: Visual Exploration of Large Genome Interaction Matrices with Interactive Small Multiples
{'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
3,574
Generativa Adversarial Networks (Gans) har visat anmärkningsvärd framgång som en ram för utbildningsmodeller för att producera realistiska data. I detta arbete föreslår vi en Recurrent GAN (RGAN) och Recurrent Conditional GAN (RCGAN) för att producera realistiska realvärderade flerdimensionella tidsserier, med tonvikt på deras tillämpning på medicinska data. RGNs använder sig av återkommande neurala nätverk i generatorn och discriminatorn. När det gäller RCGAN är båda dessa RNN beroende av hjälpinformation. Vi demonstrerar våra modeller i en uppsättning leksaksdata, där vi visuellt och kvantitativt (med hjälp av stickprovsannolikhet och maximal genomsnittlig diskrepans) visar att de framgångsrikt kan generera realistiska tidsserier. Vi beskriver också nya utvärderingsmetoder för GANs, där vi genererar ett syntetiskt märkt utbildningsdataset, och utvärderar på en riktig testuppsättning prestandan hos en modell som är utbildad på syntetiska data, och vice versa. Vi illustrerar med dessa mått att RCGANS kan generera tidsseriedata användbara för övervakad utbildning, med endast mindre försämring i prestanda på verkliga testdata. Detta visas på sifferklassificering från "serialiserad" MNIST och genom utbildning av ett system för tidig varning på en medicinsk datauppsättning på 17 000 patienter från en intensivvårdsenhet. Vi diskuterar och analyserar ytterligare de integritetsfrågor som kan uppstå vid användning av RCGANS för att generera realistiska syntetiska medicinska tidsseriedata.
Med hjälp av en återkommande GAN demonstrerades generering av verkligt värderade medicinska tidsserier av REF, där två rimliga åtgärder visades.
29,681,354
Real-valued (Medical) Time Series Generation with Recurrent Conditional GANs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,575
Sammanfattning Ett löfte om Semantic Web applikationer är att sömlöst hantera heterogen data. Den omfattande Markup Language (XML) har blivit allmänt antagen som ett nästan allestädes närvarande utbytesformat för data, tillsammans med omvandlingsspråk som XSLT och XQuery att översätta data från en XML-format till en annan. Den senaste Resource Description Framework (RDF) har dock blivit en annan populär standard för datarepresentation och utbyte, med stöd av sitt eget frågespråk SPAR-QL, som möjliggör extraktion och omvandling av RDF-data. Att kunna arbeta med XML och RDF med hjälp av ett gemensamt ramverk eliminerar flera onödiga steg som för närvarande krävs vid hantering av båda formaten sida vid sida. I detta dokument presenterar vi XSPARQL-språket som genom att kombinera XQuery och SPARQL gör det möjligt att fråga XML- och RDF-data med samma ramverk och omvandla data från ett format till ett annat. Vi fokuserar på semantiken i detta kombinerade språk och presenterar ett genomförande, inklusive diskussioner om frågeoptimering tillsammans med benchmarkingutvärdering.
XSPARQL REF-sökspråket kombinerar XQuery och SPARQL för dubbelriktade omvandlingar mellan XML och RDF.
1,790,424
Mapping between RDF and XML with XSPARQL
{'venue': 'Journal on Data Semantics', 'journal': 'Journal on Data Semantics', 'mag_field_of_study': ['Computer Science']}
3,576
ABSTRACT I detta dokument föreslås ett fordonskommunikationssystem som kan uppnå multi-Gbps dataöverföring för tåg- och bilapplikationer. Genom att använda ett millimetervågsband runt 25 GHz ger det föreslagna systemet mobil backhaul-anslutning för fordonens användarutrustning (UES). För att stödja en mycket hög datahastighet med en så hög bärfrekvens samtidigt som vi garanterar tillräcklig robusthet mot hög rörlighet-relaterade beteenden som snabb kanalvariation och instabil överlämning, använder vi en relänätverk arkitektur som består av en backhaul länk till ett fordon UE och en tillgångslänk i fordon. Baserat på detta tillhandahåller vi en uppsättning grundläggande designelement inklusive numerologi, ramstruktur, referenssignal, multi-antenna schema, och överlämnande. Därefter validerar vi det föreslagna fordonskommunikationssystemet genom att implementera en experimentell testbädd bestående av basbandmodem, RF-front, en arrayantennenhet och genom att utföra fältförsök i en verklig tunneltunnel och stadsvägmiljöer. De experimentella valideringsresultaten visar att det är möjligt och värdefullt att tillhandahålla multi-Gbps backhaul överföring för både tåg- och bilscenarier. INDEX TERMS 5G, hög rörlighet, mmWave, testbädd, fordonskommunikation.
För att stödja mobil backhaul-anslutning för fordonsmonterade celler föreslogs ett multi-Gbps vehicular kommunikationssystem i REF.
67,866,077
Realizing Multi-Gbps Vehicular Communication: Design, Implementation, and Validation
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
3,577
Vi introducerar Interactive Question Answering (IQA), uppgiften att svara på frågor som kräver en autonom agent för att interagera med en dynamisk visuell miljö. IQA presenterar agenten med en scen och en fråga: "Finns det några äpplen i kylen?" Agenten måste navigera runt scenen, förvärva visuell förståelse av scenelement, interagera med objekt (t.ex. öppna kylskåp) och planera för en rad åtgärder som är beroende av frågan. Populär förstärkning lärande metoder med en enda controller presterar dåligt på IQA på grund av stora och olika tillstånd utrymme. Vi föreslår Hierarchical Interactive Memory Network (HIMN), bestående av en faktoriserad uppsättning regulatorer, som gör det möjligt för systemet att fungera på flera nivåer av temporal abstraktion. För att utvärdera HIMN introducerar vi IQUAD V1, en ny datauppsättning byggd på AI2-THOR [35], en simulerad fotorealistisk miljö av konfigurerbara inomhusscener med interaktiva objekt. IQUAD V1 har 75 000 frågor, var och en tillsammans med en unik scenkonfiguration. Våra experiment visar att vår föreslagna modell överträffar populära single controller baserade metoder på IQUAD V1. För exempel på frågor och resultat, vänligen se vår video: https://youtu.be/pXd3C-1jr98.
REF införde uppgiften Interactive Question Answering som innebär att interagera med objekt i miljön med icke-navigationsåtgärder för att svara på frågor.
4,670,339
IQA: Visual Question Answering in Interactive Environments
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
3,578
Distribuerad referensräkning ger snabb och feltolerant "sopsamling i stora distribuerade system, men det misslyckas med att samla cykliska sopor fördelade över noder. Ett gemensamt förslag är att flytta alla föremål på en sopcykel till en enda nod, där de kan samlas in av den lokala samlaren. Befintliga system har dock praktiska problem på grund av umecessär migrering av föremål. Vi presenterar lösningar på dessa problem: vårt system undviker migrering av levande föremål, partier objekt för att undvika en kaskad av migrationsmeddelanden, och genvägar migreringsvägen för att undvika flera migreringar. Vi använder enkla uppskattningar för att upptäcka objekt som är mycket sannolikt att vara cykliskt skräp och att välja en nod som sådana objekt migreras till. Systemet har låga omkostnader, och det bevarar den decentraliserade och feltoleranta karaktären av distribuerad referensräkning och migration.
Maheshwari och Llskov föreslog att man skulle identifiera föremål som sannolikt kommer att vara cykliska sopor och migrera dem REF.
46,146,322
Collecting cyclic distributed garbage by controlled migration
{'venue': "PODC '95", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,579
Abstract-This paper föreslår en algoritm för att mäta bredden på näthinnekärl i fondus fotografier med hjälp av grafbaserad algoritm för att segmentera båda kärlkanterna samtidigt. För det första är det samtidiga problemet med två gränsöverskridande segmentering modellerat som ett två-slice, 3-D ytsegmentering problem, som ytterligare omvandlas till problemet med att beräkna en minimal sluten uppsättning i en nodvägd graf. En första segmentering genereras från en fartygssannolikhet bild. Vi använder REVIEW databasen för att utvärdera diameter mätprestanda. Algoritmen är robust och uppskattar fartygets bredd med subpixelnoggrannhet. Metoden används för att undersöka förhållandet mellan den genomsnittliga kärlbredden och avståndet från optikskivan hos 600 försökspersoner. Index Termer-Graph-baserad segmentering, retinal fotografering, fartygsbredd mätning.
REF införde en metod för att segmentera de två blodkärlens kanter i fondusbild med hjälp av den grafbaserade algoritmen för att underlätta mätningen av diametern på retinala blodkärl.
3,257,354
Vessel Boundary Delineation on Fundus Images Using Graph-Based Approach
{'venue': 'IEEE Transactions on Medical Imaging', 'journal': 'IEEE Transactions on Medical Imaging', 'mag_field_of_study': ['Computer Science', 'Medicine']}
3,580
Abstract-I detta dokument presenterar vi utformningen, genomförandet och tillämpningen av flera familjer av snabba multiplikatorlösa approximationer av den diskreta cosinustransform (DCT) med lyftsystem som kallas binDCT. Dessa binDCT familjer härrör från Chens och Loeffler plan rotation-baserade faktoriseringar av DCT-matrisen, respektive, och designen metoden kan också tillämpas på en DCT av godtycklig storlek. Två konstruktionsmetoder presenteras. I den första metoden definieras ett optimeringsprogram och den multiplikatorlösa omvandlingen erhålls genom att tillnärma sin lösning med dyadiska värden. I den andra metoden erhålls en allmän lyftbaserad skalad DCT-struktur och analysvärdena för alla lyftparametrar härleds, vilket möjliggör dyadiska approximationer med olika noggrannheter. Därför kan binDCT ställas in för att täcka gapet mellan Walsh-Hadamard transform och DCT. Motsvarande tvådimensionell (2-D) binDCT möjliggör en 16-bitars implementation, möjliggör förlustfri kompression och bibehåller tillfredsställande kompatibilitet med flyttal DCT. Prestandan för binDCT i JPEG, H.263+ och förlustfri kompression visas också.
För att lösa detta problem föreslog Liang Ref snabba multiplikatorlösa approximationer av DCT med lyftsystem.
9,995,265
Fast Multiplierless Approximations of the DCT With the Lifting Scheme
{'venue': 'ICPR (3)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,581
Tweets är den mest aktuella och inkluderande ström av information och kommentarer om aktuella händelser, men de är också fragmenterade och bullriga, motivera behovet av system som kan extrahera, aggregera och kategorisera viktiga händelser. Tidigare arbete med att extrahera strukturerade representationer av händelser har främst fokuserat på newswire text; Twitter unika egenskaper presenterar nya utmaningar och möjligheter för open-domain händelse extraktion. Detta dokument beskriver TwiCalthe första öppna-domän händelse-extrahering och kategorisering system för Twitter. Vi visar att det verkligen är möjligt att exakt ta fram en öppen kalender med viktiga händelser från Twitter. Dessutom presenterar vi ett nytt tillvägagångssätt för att upptäcka viktiga händelsekategorier och klassificera extraherade händelser baserat på latenta variabla modeller. Genom att utnyttja stora volymer av omärkta data uppnår vår strategi en 14-procentig ökning av maximal F1 jämfört med en övervakad baslinje. En kontinuerligt uppdaterad demonstration av vårt system kan ses på http://statuscalendar.com.Våra NLP-verktyg finns tillgängliga på http://github.com/aritter/ twitter_nlp.
Ett utmanande problem är att extrahera användbara, strukturerade representationer av händelser från de oorganiserade corpus av bullriga inlägg REF.
207,196,336
Open domain event extraction from twitter
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,582
I detta arbete tar vi upp uppgiften att semantisk bildsegmentering med Deep Learning och gör tre huvudsakliga bidrag som experimentellt visas ha betydande praktiska meriter. För det första lyfter vi fram convolution med uppsamlade filter, eller "atreous convolution", som ett kraftfullt verktyg i täta förutsägelser uppgifter. Atrous convolution tillåter oss att uttryckligen kontrollera den upplösning vid vilken funktionssvar beräknas inom Deep Convolutional Neural Networks. Det gör det också möjligt för oss att effektivt utvidga synfältet för filter för att införliva större sammanhang utan att öka antalet parametrar eller mängden beräkning. För det andra föreslår vi upphetsande rumslig pyramidpooling (ASPP) för att på ett robust sätt segmentera objekt på flera skalor. ASPP sonderar ett inkommande konvolutionellt funktionsskikt med filter med flera provtagningshastigheter och effektiva synfält, vilket fångar föremål såväl som bildkontext i flera skalor. För det tredje förbättrar vi lokaliseringen av objektgränser genom att kombinera metoder från DCNN och probabilistiska grafiska modeller. Den ofta använda kombinationen av max-pooling och downsampling i DCNNs uppnår Invariance men har en vägtull på localization noggrannhet. Vi övervinner detta genom att kombinera svaren på det slutliga DCNN-skiktet med ett helt uppkopplat villkorligt Random Field (CRF), som visas både kvalitativt och kvantitativt för att förbättra lokaliseringsprestandan. Vårt föreslagna "DeepLab" system sätter den nya state-of-art vid PASCAL VOC-2012 semantiska bildsegmentering uppgift, nå 79,7 procent mIOU i testuppsättningen, och avancerar resultaten på tre andra datauppsättningar: PASCAL-Context, PASCAL-Person-Part, och Cityscapes. Alla våra koder görs allmänt tillgängliga på nätet.
Istället använder DeepLab REF upphetsande rumslig pyramidpooling, som består av parallella dilaterade konvolutioner med olika hastigheter.
3,429,309
DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
3,583
Abstract-I detta papper, vi anser ett avkoda-och-framåt (DF) relänätverk baserat på trådlös energi skörd. Den energibegränsade relänoden skördar först energi genom radiofrekvenssignaler från källans nod. Därefter använder relänoden den skördade energin för att vidarebefordra den avkodade källinformationen till destinationsnoden. Källnoden överför energi och information till relänoden genom två mekanismer, i) tidsbytesbaserad relä (TSR) och ii) effektdelningsbaserad relä (PSR). Med tanke på den trådlösa energiskörden vid relänoden, härleder vi de exakta analytiska uttrycken för den uppnåeliga genomströmningen och ergodiska kapaciteten hos ett DF-relänät för både TSR- och PSR-system. Genom numerisk analys studerar vi genomströmningsprestandan för det övergripande systemet för olika systemparametrar, såsom energiupptagningstid, effektdelningsförhållande och signal-tonoise-ratio (SNR). Särskilt genomströmningsprestandan för PSR-systemet överträffar TSR-systemets genomströmningsprestanda för ett brett spektrum av SNR-system.
På grund av de olika egenskaperna hos de två reläprotokollen, är genomströmningsanalys av avkoda-och-framåt (DF) och AF relänätverk olika under energiavverkning begränsningar REF.
1,246,899
Throughput and ergodic capacity of wireless energy harvesting based DF relaying network
{'venue': '2014 IEEE International Conference on Communications (ICC)', 'journal': '2014 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science']}
3,584
Den ökande populariteten och införandet av differentiell integritet i akademiska och industriella miljöer har resulterat i utvecklingen av alltmer sofistikerade algoritmer för att släppa information samtidigt som integriteten bevaras. Till detta fenomen hör den naturliga ökningen av utvecklingen och offentliggörandet av felaktiga algoritmer, vilket visar på behovet av formella kontrollverktyg. Befintliga formella metoder för differential integritet står dock inför ett dilemma: metoder baserade på anpassade logiker kan verifiera sofistikerade algoritmer men kommer med en brant inlärningskurva och betydande notation börda på programmerarna, medan befintliga programmeringsplattformar saknar expressiv kraft för vissa sofistikerade algoritmer. I det här dokumentet presenterar vi LightDP, ett enkelt imperativt språk som skapar en bättre balans mellan uttryckskraft och användbarhet. Kärnan i LightDP är ett nytt relationssystem som skiljer relationstänkande från beräkningar av sekretessbudgeten. Med beroende typer är typsystemet tillräckligt kraftfullt för att verifiera sofistikerade algoritmer där kompositionen teorem faller kort. Dessutom drar inference-motorn i LightDP de flesta bevisdetaljerna, och söker till och med efter bevis med minimala sekretesskostnader när flera bevis finns. Vi visar att LightDP verifierar sofistikerade algoritmer med lite manuell ansträngning.
Till exempel LightDP REF är ett enkelt tvingande språk där olika privata program kan skrivas.
7,411,578
LightDP: towards automating differential privacy proofs
{'venue': 'POPL 2017', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,585
Komplext predikat är ett substantiv, ett verb, ett adjektiv eller ett adverb följt av ett lätt verb som beter sig som en enda enhet av verb. Komplexa predikat (CP) används rikligt i hindi och andra språk i indo ariska familjen. Att upptäcka och tolka CPs är en viktig och något svår uppgift. De språkliga och statistiska metoderna har gett begränsad framgång i utvinningen av dessa data. I detta dokument presenterar vi en enkel metod för att upptäcka CPs av alla slag med hjälp av en hindi-engelska parallell corpus. En CP är hypothesized genom att upptäcka frånvaron av den konventionella betydelsen av ljus verbet i den anpassade engelska meningen. Denna enkla strategi utnyttjar det faktum att CP är ett mångordigt uttryck med en betydelse som skiljer sig från betydelsen av ljus verbet. Även om det finns flera brister i metoden, ger denna empiriska metod överraskande gruvbrytning av CPs med en genomsnittlig precision på 89% och en återkallelse av 90%.
REF detekterar Hindi komplexa predikat (dvs. en kombination av ett lätt verb och ett substantiv, ett verb eller ett adjektiv) i en hindi-engelsk parallellkorpus genom att identifiera en missmatchning av hindi-ljus verbets betydelse i den instämda engelska meningen.
388,144
Mining Complex Predicates In Hindi Using A Parallel Hindi-English Corpus
{'venue': 'Proceedings of the Workshop on Multiword Expressions: Identification, Interpretation, Disambiguation and Applications (MWE 2009)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,586
Abstrakt. Image spam är en ny trend i familjen av e-post spam. De nya bild spam använder en mängd olika bildbehandlingstekniker för att skapa slumpmässiga ljud. I det här dokumentet föreslår vi ett semi-övervakat tillvägagångssätt, legaliserad diskriminerande EM-algoritm (RDEM), för att upptäcka skräppost till bilder, som utnyttjar små mängder märkta data och stora mängder omärkta data för att identifiera skräppost och utbilda en klassifikationsmodell samtidigt. Jämfört med fullt övervakade inlärningsalgoritmer lämpar sig den halvövervakade inlärningsalgoritmen mer för motståndarens klassificeringsproblem, eftersom spammarna aktivt skyddar sitt arbete genom att ständigt göra ändringar för att kringgå skräppostdetekteringen. Det gör kostnaden alltför hög för fullt övervakad inlärning för att ofta samla in tillräckligt med märkta data för utbildning. Experimentella resultat visar att vår strategi uppnår 91,66 % hög upptäcktsfrekvens med mindre än 2,96 % falskt positiv, samtidigt som den avsevärt minskar märkningskostnaden.
Yan Gao et al REF föreslog en semi-övervakad systemprototyp baserad på en legaliserad diskriminant Förväntning Maximering algoritm för att upptäcka spam bilder bifogade i e-post.
14,426,957
Semi Supervised Image Spam Hunter: A Regularized Discriminant EM Approach
{'venue': 'ADMA', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,587
Abstract-Den strategi för portföljkonstruktion som föreslås i detta dokument bygger på de senaste resultaten om stokastisk nåbarhet. Det antas att investerarnas preferenser uttrycks i form av måluppsatser som ska uppnås vid varje tidsperiod över en viss ändlig horisont. En portfölj definieras optimalt om den maximerar sannolikheten för att dess värde ska tillhöra måluppsättningarna. En fallstudie från den amerikanska marknaden visar att metoden är intressant och tillämplig. Den optimala lösningen vi får uppvisar en kontrarisk attityd, där riskexponeringar förstärks vid negativa prestationer och minskar i händelse av positiva prestationer. En jämförelse med den konstanta metoden för portföljförsäkring visar på fördelar och nackdelar med den föreslagna metoden.
Det tillämpas senare på portföljoptimering REF.
17,345,609
A Stochastic Reachability Approach to Portfolio Construction in Finance Industry
{'venue': 'IEEE Transactions on Control Systems Technology', 'journal': 'IEEE Transactions on Control Systems Technology', 'mag_field_of_study': ['Computer Science', 'Economics', 'Mathematics']}
3,588
"Lifelogging"-tekniken gör det möjligt att samla in digitala data om alla aspekter av vår vardag. I stället för att fokusera på sådana tekniska möjligheter undersöker vi här hur människor komponerar långsiktiga mnemoniska representationer av sina liv. Vi bad tio familjer att skapa en tidskapsel, en samling föremål som används för att utlösa minnet i en avlägsen framtid. Våra resultat visar att människor, tvärtemot livslogging-vyn, är mindre intresserade av att på ett uttömmande digitalt sätt spela in sitt förflutna än av att rekonstruera det från noggrant utvalda signaler som ofta är fysiska objekt. Tid kapslar var mycket uttrycksfull och personlig, många objekt gjordes uttryckligen för inkludering, dock med lite objekt annotation. Vi använder dessa resultat för att föreslå principer för att utforma teknik som stöder en aktiv återuppbyggnad av vårt framtida förflutna.
Petrelli och Al. REF bad barnfamiljer att skapa tidskapslar av både material och digitala objekt som skulle öppnas i en avlägsen framtid.
12,349,328
Making history: intentional capture of future memories
{'venue': 'CHI', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,589
Abstract-This paper är ahout hög kapacitet switchar och routrar som ger garanterad genomströmning, hastighet och fördröjning garantier. Många routrar byggs med hjälp av inmatningsköer eller kombinerade inmatnings- och utmatningsköer (CIOQ), med hjälp av crossbar switching tyger. Men sådana routrar kräver opraktiskt komplicerade schemaläggningsalgoritmer för att ge de önskade garantierna. Vi undersöker hur en buffrad crossbar - en crossbar switch med en paketbuffert vid varje korspunkt - kan ge garanterad prestanda (genomströmning, hastighet och fördröjning), med mindre komplexa, praktiska schemaläggningsalgoritmer. Vi beskriver schemaläggningsalgoritmer som fungerar parallellt på varje ingångs- och utgångsport och därmed är skalbara. Med dessa algoritmer, buffrade crossbars med en hastighetshöjning på två kan ge 100% genomströmning, hastighet, och fördröjningsgarantier. A. me BufJered Crossbar- Figur 1 visar en 3 x 3 buffrad crossbar, med line-rate R. För att förhindra head-of-line blockering, ingångarna upprätthålla virtuella utmatningsköer (VOQs). Fasta längdpaket väntar i VOQ för att överföras över strömbrytaren. Varje crosspaint innehåller en buffert som kan hålla en cell. Buffern mellan indata z och utdata 2 betecknas som &; när bufferten innehåller en cell, B, = 1, annars B, = 0. Eftersom paketen är alla lika långa, är tiden slitsad, med en tid slits lika med den tid det tar för en cell att komma fram på den yttre linjen. Internt går omkopplaren snabbare än den yttre linjen, och förhållandet mellan de två är upphastigheten. Om omkopplaren kan ta bort S-celler från varje ingång och överföra 5' celler till varje utgång i ett tidsintervall, då har det en hastighetshöjning av S. Under de flesta av detta papper kommer vi att anta att 5' = 2, och så omkopplaren har utgångsköer. Vi ska se till att schemaläggaren för en buffert4 crossbar är mycket obeväpnad crossbar. Tillverkning utgående från material enligt vilket HS-nummer som helst, utom material enligt vilket HS-nummer som helst, utom material enligt samma HS-nummer som produkten.
REF studerade praktiska schemaläggningsalgoritmer för buffrade crossbar switchar.
6,120,870
Practical algorithms for performance guarantees in buffered crossbars
{'venue': 'Proceedings IEEE 24th Annual Joint Conference of the IEEE Computer and Communications Societies.', 'journal': 'Proceedings IEEE 24th Annual Joint Conference of the IEEE Computer and Communications Societies.', 'mag_field_of_study': ['Computer Science']}
3,590
Att ge säker och effektiv tillgång till storskaliga outsourcade data är en viktig del av molntjänster. I detta dokument föreslår vi en mekanism för att lösa detta problem i program som läses av ägare och användare. Vi föreslår att kryptera varje datablock med en annan nyckel så att flexibel kryptografisk-baserad åtkomstkontroll kan uppnås. Genom att använda viktiga härledningsmetoder behöver ägaren bara upprätthålla några få hemligheter. Analysen visar att den viktigaste härledningsprocessen med hashfunktioner kommer att införa mycket begränsade beräkningar overhead. Vi föreslår att använda överkryptering och/eller lata återkallande för att förhindra återkallade användare från att få tillgång till uppdaterade datablock. Vi utformar mekanismer för att hantera både uppdateringar av outsourcade data och ändringar i användarrättigheter. Vi undersöker de allmänna omkostnaderna och säkerheten i det föreslagna tillvägagångssättet, och studerar mekanismer för att förbättra dataåtkomsteffektiviteten.
Wang Ref föreslog ett system för att få tillgång till utkontrakterade data på ett säkert och effektivt sätt.
7,180,791
Secure and efficient access to outsourced data
{'venue': "CCSW '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,591
Abstract-Mobile-edge cloud computing är ett nytt paradigm för att tillhandahålla molndatafunktioner i utkanten av genomträngande radionät i nära anslutning till mobila användare. I det här dokumentet studerar vi först problemet med att avlasta flera användare för molndata i en trådlös störningsmiljö med flera kanaler. Vi visar att det är NP-hårdt att beräkna en centraliserad optimal lösning, och därmed anta en spelteoretisk metod för att uppnå effektiv beräkning offloading på ett distribuerat sätt. Vi formulerar den distribuerade beräkningen offloading beslutsfattande problem bland mobila användare som en multi-användare beräkning offloading spel. Vi analyserar den strukturella egenskapen i spelet och visar att spelet medger en Nash jämvikt och har den ändliga förbättring egenskapen. Vi utformar sedan en distribuerad beräkning offloading algoritm som kan uppnå en Nash jämvikt, härleda den övre gränsen för konvergenstiden, och kvantifiera dess effektivitet förhållande över de centraliserade optimala lösningarna i termer av två viktiga prestandamått. Vi utökar ytterligare vår studie till scenariot med fleranvändarberäkningsavlastning i den trådlösa innehållsmiljön med flera kanaler. Numeriska resultat bekräftar att den föreslagna algoritmen kan uppnå överlägsen beräkning offloading prestanda och skala samt användarens storlek ökar.
Chen och Al. föreslog en spelteoretisk metod för beräkning offloading beslut bland flera användare REF. Och det partiella avlastningssystemet delar upp en uppgift i en uppsättning deluppgifter och avlastar dem delvis till kanten.
1,663,452
Efficient Multi-User Computation Offloading for Mobile-Edge Cloud Computing
{'venue': 'TNET', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,592
Abstract-A multilayer perceptron kan bete sig som en generativ klassificering genom att tillämpa dubbelriktat lärande (BL). Den består av att träna ett oriktat neuralt nätverk för att kartlägga ingång till utgång och vice versa; därför kan den producera en klassificering i en riktning, och en generator i motsatt riktning för samma data. BL:s inlärningsprocess försöker reproducera den neuroplasticitet som anges i hebbianteorin med hjälp av endast bakåtutbredning av fel. I detta dokument introduceras två nya inlärningstekniker som använder BL för att förbättra robustheten till vitt brus statiskt och kontradiktoriskt exempel. Den första metoden är dubbelriktad förökning av fel, som felförökning sker i bakåt och framåt riktningar. Motiverade av det faktum att dess generativa modell får som ingång en konstant vektor per klass, introducerar vi som en andra metod hybrid kontraversarial nätverk (HAN). Dess generativa modell får en slumpmässig vektor som ingång och dess utbildning är baserad på generativa kontrariska nätverk (GAN). För att bedöma BL:s prestanda utför vi experiment med flera arkitekturer med fullständiga och konvolutionella skikt, med och utan fördomar. Experimentella resultat visar att båda metoderna förbättrar robustheten till vitt brus statiska och kontradiktoriska exempel, och även öka noggrannheten, men har olika beteende beroende på arkitektur och uppgift, är mer fördelaktigt att använda den ena eller den andra. Ändå ger HAN med hjälp av en konvolutionell arkitektur med batch normalisering enastående robusthet, nå state-of-the-art noggrannhet på kontradiktoriska exempel på handskrivna siffror.
REF föreslog dubbelriktat lärande, där nätverket utbildas som en klassificerings- och generator, med ett tillhörande kontradiktoriskt nätverk, i två olika riktningar och fann att det gör den utbildade klassificeringsgivaren mer robust mot kontradiktoriska attacker.
29,160,618
Bidirectional Learning for Robust Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,593
Vi anser att problemet med samordnad multicellsnedlänkstråleformning i massiva flera ingångssystem (MIMO) bestående av N-celler, N t-antenner per basstation (BS) och K-användarterminaler (UT) per cell. I synnerhet formulerar vi en multicellig strålformande algoritm för massiva MIMO-system som kräver begränsad mängd informationsutbyte mellan BS. Konstruktionsmålet är att minimera den aggregerade sändningseffekten över alla BS som är föremål för att uppfylla begränsningarna för användarens signal-till-interferens-brusförhållande (SINR). Algoritmen kräver BS för att utbyta parametrar som kan beräknas enbart baserat på kanalstatistiken snarare än den momentana kanaltillståndsinformationen (CSI). Vi använder verktyg från slumpmässig matristeori för att formulera den decentraliserade algoritmen. Vi karakteriserar också en lägre gräns på den uppsättning SINR-värden för vilka den decentraliserade flercelliga strålformningsalgoritmen är möjlig. Vi visar vidare att prestandan hos vår algoritm asymptotiskt matchar prestandan hos den centraliserade algoritmen med fullständig CSI-delning. Medan det ursprungliga resultatet fokuserar på att minimera den aggregerade sändningskraften över alla BS, vi formulerar en heuristisk förlängning av denna algoritm för att införliva en praktisk begränsning i multicellssystem, nämligen den individuella BS överföring effekt begränsningar. Slutligen undersöker vi effekterna av ofullständig CSI och pilotkontamination effekt på prestanda den decentraliserade algoritmen, och föreslår en heuristisk utvidgning av algoritmen för att tillgodose dessa frågor. Simuleringsresultat visar att vår algoritm tillfredsställer SINR-målets begränsningar och uppnår minimal effekt i systemet för massiva MIMO-system. Dessutom ger det också betydande effektbesparingar jämfört med noll-förstärkande strålformning när antalet antenner per BS är av samma storleksordning som antalet UT per cell. Index Terms-Massive MIMO, samordnad strålformning, decentraliserad design, slumpmässig matristeori.
I REF presenteras en strålformande algoritm för överföringseffektminimering över alla BS i multicellsnätet.
15,623,419
Coordinated Multicell Beamforming for Massive MIMO: A Random Matrix Approach
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,594
Kvantinformationsbehandling är i korsningen mellan fysik, matematik och datavetenskap. Det handlar om att vi kan och inte kan göra med kvantinformation som går utöver de klassiska informationsbehandlingsanordningarnas förmåga. Kommunikationskomplexitet är ett område inom klassisk datavetenskap som syftar till att kvantifiera den mängd kommunikation som krävs för att lösa distribuerade datorproblem. Kvantkommunikation komplexitet använder kvantmekanik för att minska mängden kommunikation som skulle vara klassiskt krävs. Pseudo-telepati är en överraskande tillämpning av kvantinformationsbehandling på kommunikation komplexitet. Tack vare insnärjning, kanske den mest icke-klassiska manifestationen av kvantmekanik, kan två eller flera kvantspelare utföra en distribuerad uppgift utan behov av kommunikation som helst, vilket skulle vara en omöjlig bedrift för klassiska spelare. Efter en detaljerad översikt över principen och syftet med pseudo-telepati, presenterar vi en undersökning av senaste och ingen-så-recent arbete i ämnet. I synnerhet beskriver och analyserar vi alla pseudo-telepati spel som för närvarande är kända för författarna. denna kategori är Mermin-GHZ spelet och den magiska fyrkantiga spelet, beskrivs i avsnitten 3 och 5, respektive. ♦ Om genomförandet lyckas, någon av dessa spel skulle ge extremt övertygande bevis för att klassisk fysik inte härskar världen för någon som redan är övertygad om att snabbare än ljus signalering är omöjligt (och därför att det inte är för att Alice och Bob kan kommunicera, men förtäckt, att de vinner spelet systematiskt). ♦ Den teoretiska och experimentella studien av pseudo-telepati har potential att ge den första kryphålsfria demonstrationen att den fysiska världen inte kan vara lokal realistisk. ♦ Vid införandet av det bredare området kvantkommunikationskomplex 1993 frågade Andrew Yao om kvantmekanik kunde användas för att minska mängden kommunikation som krävs för att lösa vissa distribuerade beräkningsuppgifter, men han kunde inte svara på frågan [13]. Förvånansvärt nog hade en pseudo-telepatisk version av denna fråga redan lösts tio år tidigare [14] av Peter Heywood och Michael Redhead 2 -se avsnitt 2. Vänligen konsultera [15] för en undersökning av kvantkommunikationens komplexitet och dess samspel med pseudo-telepati. Vi är nu redo att ge en formell definition av pseudo-telepati. För enkelhetens skull definierar vi det i samband med två spelare, Alice och Bob. Generaliseringen till flerpartsinställningar är uppenbar.
Dessa kallas "pseudo-telepati spel" (se REF och hänvisningarna där).
7,395,322
Quantum Pseudo-Telepathy
{'venue': 'Proceedings of the 8th International Workshop on Algorithms and Data Structures, Volume 2748 of Lecture Notes in Computer Science', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Physics']}
3,595
Abstrakt. Välstrukturerade övergångssystem (WSTS) är en bred och välstuderad klass av infinita-state-system, för vilka problemet med att kontrollera möjligheten att uppnå en uppåtstängd uppsättning av feltillstånd kan fastställas (med förbehåll för vissa teknikaliteter). Nyligen föreslog Bingham en ny algoritm för detta problem, men endast tillämplig på specialfall av sändningsprotokoll och petrinät. Algoritmen utnyttjar ändstatssymbolisk modellkontroll och visades överträffa den klassiska WSTS-verifieringsalgoritmen på en påhittad exempelfamilj av petrinät. I detta arbete generaliserar vi de tidigare resultaten för att hantera en större klass av WSTS, som vi dubbar snyggt skärbar, som inkluderar sändning protokoll, petri nät, sammanhangsfri grammatik, och förlust kanalsystem. Vi lägger också till en optimering till algoritmen som accelererar konvergensen. Dessutom inför vi en ny minskning som ljudligen omvandlar verifieringen av parameteriserade system med obundna konjunktiva vakter till ett verifieringsproblem på snyggt skärbara WSTS. Minskningen är fullständig om ett visst decibelt sidotillstånd håller. Detta gör det möjligt för oss att komma åt industriellt relevanta utmaningsproblem från parameteriserad minnessystemverifiering. Våra empiriska resultat visar att även om vår nya metod fungerar sämre än den klassiska metoden på små petri netto exempel, det presterar betydligt bättre på de större exempel baserade på verkliga, parameteriserade protokoll (t.ex., tyska cache koherens protokoll, med datavägar).
Nyligen föreslog Bingham och Hu REF en ny ändlig-state symbolisk modell kontroll algoritm för verifiering av säkerhetsfastigheter på en bred klass av oändliga övergångssystem.
14,304,466
Empirically efficient verification for a class of infinitestate systems
{'venue': 'In TACAS’05, volume 3440 of LNCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,596
Kontrollslingor i självanpassade system är vanligtvis utformade som en sekvens av fyra beräkningar: Monitor-Analyze-Plan-Execute (MAPE). Under utvecklingen av ett trafikövervakningssystem med stöd för självläkning har vi märkt att enkla MAPE-slingor inte räcker för att hantera de mer komplexa felscenarierna. För att hantera anpassningarna i dessa scenarier utökar vi MAPE-looparna med stöd för två typer av samordning. För det första inför vi stöd för intraloop-samordning som gör det möjligt för MAPE-beräkningar inom en slinga att samordna med varandra. Intra-loop-samordning gör det möjligt att utföra flera delloopar inom en och samma kontrollloop. För det andra inför vi stöd för inter-loop-samordning som gör det möjligt för MAPE-beräkningar över flera slingor att samordna med varandra. Inter-loop samordning gör det möjligt MAPE beräkningar av olika loopar för att samordna de olika faserna av anpassningar. Vi visar hur vi använde förlängningarna för att stödja självläkning i trafikövervakningssystemet. Vi diskuterar en genomföranderam som stöder samordning av MAPE-loopar, och från våra erfarenheter ger rekommendationer för framtida forskning på detta område.
REF utökar kontrollslingorna med stöd för två typer av samordning: samordning inom och mellan nät mycket nära våra, men genomföranderamen är inriktad på ett fall med självläkande användning.
2,863,882
On interacting control loops in self-adaptive systems
{'venue': "SEAMS '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,597
Abstract-För nätverk med paket vidarebefordring, distribuerad kontroll för att genomdriva samarbete för noder' paket vidarebefordring sannolikheter är avgörande för att upprätthålla anslutning av nätverk. I detta dokument föreslår vi en ny självlärande upprepad spelram för att optimera paket vidarebefodra sannolikheter för distribuerade användare. Ramen har två stora steg: För det första säkerställer ett adaptivt system för upprepade spel samarbete mellan användare för det nuvarande kooperativa paketet som vidarebefordrar sannolikheter. För det andra försöker ett system för självlärande att hitta bättre möjligheter till samarbete. Vissa specialfall analyseras för att utvärdera den föreslagna ramen. Utifrån simuleringsresultaten visar det föreslagna ramverket de nära optimala lösningarna i både symmetri- och asymmetrinätverk.
Ett adaptivt återkommande spelteoretiskt system utformades i REF för trådlösa nätverk för att säkerställa samarbetet mellan noder, och sedan användes en självlärande algoritm för att hitta den optimala samarbetssannolikheten.
12,173,615
A self-learning repeated game framework for optimizing packet forwarding networks
{'venue': 'IEEE Wireless Communications and Networking Conference, 2005', 'journal': 'IEEE Wireless Communications and Networking Conference, 2005', 'mag_field_of_study': ['Computer Science']}
3,598
Vi föreslår ett effektivt tillvägagångssätt för att utnyttja rörelseinformation från på varandra följande bilder av en videosekvens för att återställa 3D-pose av människor. Tidigare metoder brukar beräkna kandidat utgör i enskilda ramar och sedan länka dem i ett efterbehandlingssteg för att lösa tvetydigheter. Däremot går vi direkt tillbaka från en spatio-temporal volym av avgränsande lådor till en 3D pose i den centrala ramen. Vi visar vidare att för att detta tillvägagångssätt ska kunna uppnå sin fulla potential är det nödvändigt att kompensera för rörelsen i på varandra följande ramar så att ämnet förblir centrerat. Detta gör det möjligt för oss att effektivt övervinna tvetydigheter och förbättra den senaste tekniken med en stor marginal på Human3.6m, HumanEva, och KTH Multiview Football 3D human pos estimering riktmärken.
Tekin m.fl. I Ref föreslogs att man skulle utnyttja rörelseinformation från på varandra följande ramar och tillämpa ett nätverk för djupinlärning för att komma tillbaka till 3D-ställningen.
4,623,342
Direct Prediction of 3D Body Poses from Motion Compensated Sequences
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
3,599
Abstract-Energiförbrukning är en viktig konstruktionsparameter för inbyggda och bärbara system. Programvarustyrd (eller dynamisk) effekthantering (DPM) har framgått som ett attraktivt alternativ till oflexibla hårdvarulösningar. DPM via I/O-enhetsplanering för realtidssystem har dock inte beaktats tidigare. Vi presenterar en online I/O-enhet schemaläggare, som vi kallar lågenergienhet schemaläggare (LEDES), för hårda realtidssystem som minskar energiförbrukningen av I/O-enheter. LEDES tar som ingångar en förutbestämd uppgift schema och en enhet-användning lista för varje uppgift och det genererar en sekvens av sömn / arbetstillstånd för varje enhet så att energiförbrukningen hos enheten minimeras. Det garanterar också att realtidsbegränsningar inte överträds. Vi presenterar sedan en mer allmän I/O-enhet schemaläggare, som vi kallar multistate begränsad lågenergi schemaläggare (MUSCLES), för att hantera I/O-enheter med flera strömtillstånd. MUSCLES genererar en sekvens av strömtillstånd för varje I/O-enhet samtidigt som man garanterar att realtidsbegränsningar inte kränks. Vi presenterar flera realistiska fallstudier för att visa att LEDES och MUSCLES minskar energiförbrukningen avsevärt för hårda realtidssystem.
Senare, flerstatsbegränsad lågenergi schemaläggare (MUSCLES), en förlängning av LEDES för flera stat enheter föreslogs av Swaminathan och Chakrabarty REF.
5,690,540
Energy-conscious, deterministic I/O device scheduling in hard real-time systems
{'venue': 'IEEE Trans. on CAD of Integrated Circuits and Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,600
Hand form och pose återvinning är viktigt för många datorseende applikationer såsom animering av en personlig hand mesh i en virtuell miljö. Även om det finns många hand pose uppskattningsmetoder, endast ett fåtal djupt lärande baserade algoritmer mål 3D hand form och posera från en enda RGB eller djup bild. Gemensamt uppskatta hand form och pose är mycket utmanande eftersom ingen av de befintliga verkliga riktmärken ger marken sanning hand form. Av denna anledning föreslår vi en ny svagt övervakad strategi för 3D hand form och pose återställning (namn WHSP-Net) från en enda djup bild genom att lära sig former från omärkta verkliga data och märkta syntetiska data. Därför föreslår vi en ny ram som består av tre nya komponenter. Den första är Convolutional Neural Network (CNN) baserade djupa nätverk som producerar 3D leder positioner från lärda 3D benvektorer med hjälp av ett nytt lager. Den andra är en ny form avkodare som återvinner tät 3D-handmask från glesa leder. Den tredje är en ny djupsyntes som rekonstruerar 2D djup bild från 3D hand mesh. Hela rörledningen finjusteras från början till slut. Vi visar att vårt tillvägagångssätt återvinner rimliga handformer från verkliga datauppsättningar samt från levande ström av djupkamera i realtid. Vår algoritm överträffar state-of-the-art metoder som ger mer än de gemensamma positioner och visar konkurrenskraftiga prestanda på 3D utgör uppskattning uppgift.
Nyligen, Malik et al. I REF föreslogs ett strukturerat, svagt övervakat, djupt lärandebaserat tillvägagångssätt med hjälp av en enda djupbild.
201,830,577
WHSP-Net: A Weakly-Supervised Approach for 3D Hand Shape and Pose Recovery from a Single Depth Image
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Engineering', 'Medicine']}
3,601
Miljöljudmärkning är en nyligen föreslagen uppgift att förutsäga förekomsten eller frånvaron av en specifik ljudhändelse i en bit. Djup neurala nätverk (DNN) baserade metoder har framgångsrikt antagits för att förutsäga ljudtaggar i den inhemska ljudscenen. I detta dokument föreslår vi att använda ett konvolutionellt neuralt nätverk (CNN) för att extrahera robusta funktioner från mel-filter banker (MFBs), spektrogram eller till och med råa vågformer för ljud taggning. Gated recidiverande enhet (GRU) baserad recidiverande neurala nätverk (RNN) är sedan kaskad för att modellera den långsiktiga tidsstrukturen av ljudsignalen. För att komplettera inmatningsinformationen är en extra CNN utformad för att lära sig om de rumsliga egenskaperna hos stereoinspelningar. Vi utvärderar våra föreslagna metoder för Task 4 (audio taggning) av detektion och klassificering av akustiska scener och händelser 2016 (DCASE 2016) utmaning. Jämfört med vår senaste DNN-baserade metod kan den föreslagna strukturen minska den lika stora felfrekvensen (EER) från 0,13 till 0,11 på utvecklingssetet. De rumsliga funktionerna kan ytterligare minska EER till 0.10. Prestandan av end-to-end lärande på råa vågformer är också jämförbar. Slutligen, när det gäller utvärderingsuppsättningen, får vi den toppmoderna prestandan med 0,12 EER medan prestandan för det bästa befintliga systemet är 0,15 EER.
Kombinationer av CNN och Recurrent Neural Networks (RNN) Ref har också visat lovande resultat.
11,099,196
Convolutional gated recurrent neural network incorporating spatial features for audio tagging
{'venue': '2017 International Joint Conference on Neural Networks (IJCNN)', 'journal': '2017 International Joint Conference on Neural Networks (IJCNN)', 'mag_field_of_study': ['Computer Science']}
3,602
Sequence to sequency learning har nyligen dykt upp som ett nytt paradigm i övervakat lärande. Hittills har de flesta av dess tillämpningar fokuserat på bara en uppgift och inte mycket arbete utforskat denna ram för flera uppgifter. Detta dokument undersöker tre multi-task inlärning (MTL) inställningar för sekvens till sekvens modeller: a) en till-many inställning -där kodaren delas mellan flera uppgifter som maskinöversättning och syntaktisk tolkning, b) många-till-en inställning -användbar när endast dekoder kan delas, som i fallet med översättning och bildtextgenerering, och c) många-till-många inställning -där flera kodare och avkodare delas, vilket är fallet med oöverträffade mål och översättning. Våra resultat visar att utbildning på en liten mängd tolknings- och bildtextdata kan förbättra översättningskvaliteten mellan engelska och tyska med upp till 1,5 BLEU-poäng över starka basvärden för en enda uppgift på WMT-riktmärkena. Dessutom har vi etablerat ett nytt toppmodernt resultat i tolkningen med 93,0 F 1. Slutligen avslöjar vi intressanta egenskaper hos de två oövervakade inlärningsmålen, autoencoder och skip-thought, i MTL-sammanhanget: autoencoder hjälper mindre i termer av perplexitet men mer på BLEU poäng jämfört med skip-thought.
Multi-task lärande med kodare-dekoder kommer i en av de tre smaker: en-till-många, många-till-en och många-till-många metoder REF.
6,954,272
Multi-task Sequence to Sequence Learning
{'venue': 'ICLR 2016', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,603
Vi formulerar och studerar ett decentraliserat multi-armad bandit (MAB) problem. Det finns M distribuerade spelare som tävlar om N oberoende armar. Varje arm, när den spelas, erbjuder i.i.d. belöning enligt en fördelning med en okänd parameter. Varje gång väljer varje spelare en arm att spela utan att utbyta observationer eller information med andra spelare. Spelare som väljer samma arm kolliderar, och beroende på kollisionsmodellen, antingen får ingen belöning eller de kolliderande spelarna dela belöningen på ett godtyckligt sätt. Vi visar att det minsta systemet som beklagar den decentraliserade MAB växer med tiden i samma logaritmiska ordning som i den centraliserade motsvarigheten där spelarna agerar kollektivt som en enda enhet genom att utbyta observationer och fatta beslut gemensamt. En decentraliserad politik utformas för att uppnå denna optimala ordning samtidigt som man garanterar rättvisa mellan aktörerna och utan att anta några förhandsöverenskommelser eller informationsutbyte mellan aktörerna. Baserat på en Time Division Fair Sharing (TDFS) av M bästa vapen, är den föreslagna politiken konstruerad och dess ordning optimalitet bevisas under en allmän belöning modell. Dessutom kan den grundläggande strukturen för TDFS-politiken användas i all ordningsoptimal politik för en enda aktör för att uppnå ordningsoptimalitet i den decentraliserade miljön. Vi fastställer också en lägre gräns för systemet och beklagar tillväxten för en allmän klass av decentraliserade poliser, som den föreslagna politiken tillhör. Detta problem finner potentiella tillämpningar i kognitiva radionät, flerkanaliga kommunikationssystem, multiagentsystem, webbsökning och reklam samt sociala nätverk. Decentraliserad multi-armad bandit, system ångra, distribuerat lärande, kognitiv radio, webbsökning och reklam, multi-agent system.
För det första, i REF, ger författarna en decentraliserad politik med logaritmisk ångerordning, som bygger på en tidsdelning rättvis fördelning av de bästa vapnen.
16,067,339
Distributed Learning in Multi-Armed Bandit with Multiple Players
{'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,604
Vi anser att problemet med frågefokuserad sammanfattning av flera dokument, där en sammanfattning som innehåller den information som är mest relevant för en användares informationsbehov produceras från en uppsättning ämnesrelaterade dokument. Vi föreslår en ny metod baserad på probabilistisk latent semantisk analys, som gör att vi kan representera meningar och frågor som sannolikhetsfördelningar över latenta ämnen. Vårt tillvägagångssätt kombinerar frågefokuserade och tematiska funktioner som beräknas i det latenta ämnesutrymmet för att uppskatta den sammanfattande betydelsen av meningar. Dessutom utvärderar vi flera olika likhetsåtgärder för beräkning av funktionspoäng på straffnivå. Experimentella resultat visar att vårt tillvägagångssätt överträffar de bästa rapporterade resultaten för DUC 2006 data, och också jämför väl på DUC 2007 data.
REF beräknar likheten mellan meningar och en användardefinierad fråga baserad på PLSA.
9,302,891
Topic-based Multi-Document Summarization with Probabilistic Latent Semantic Analysis
{'venue': 'RANLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,605
Vi presenterar en ny helt oövervakad metod för automatisk sammanfattning av källkodstext. På stora projekt spenderar utvecklare mycket av sin tid med att läsa och bläddra i kod, vilket ökar nya möjligheter för summeringsmetoder. Ja, moderna kodeditorer innehåller en funktion som kallas kodvikning, vilket gör att man selektivt kan dölja kodblock. Men denna funktion är besvärlig eftersom för närvarande vik beslut måste göras manuellt. Vi introducerar automatisk folding problem, vilket är att automatiskt skapa en kodsammanfattning genom att vika icke-väsentliga kodblock. Vi presenterar en ny lösning på problemet med automatisk folding genom att formulera det som ett subtree optimering problem och använda sig av en omfattande källkod innehållsmodell. På en uppsättning populära open source-projekt från GitHub visar vi att vår formulering avsevärt överträffar enklare baslinjer för att möta mänskliga bedömningar, vilket ger en 84% noggrannhet och en 43% felreduktion. Mer allmänt hoppas vi att detta arbete kommer att hjälpa programförståelse genom att förvandla kodvikning till ett användbart och värdefullt verktyg.
Automatisk vikning REF ] är ett annat verktyg för att underlätta programförståelse.
527,633
Autofolding for Source Code Summarization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,606
Litteratur är en form av uttryck vars tidsmässiga struktur, både i innehåll och stil, ger en historisk redogörelse för kulturens utveckling. I detta arbete tar vi oss an en kvantitativ analys av litterär stil och genomför den första storskaliga temporal stilometriska studien av litteratur med hjälp av de stora innehaven i Project Gutenberg Digital Library corpus. Vi finner temporal stilistisk lokalisering bland författare genom analys av likhetsstrukturen i funktionsvektorer som härrör från innehållsfri ordanvändning, icke-homogen sönderfallsfrekvens av stilistiskt inflytande, och en accelererande sönderfallshastighet av inflytande bland moderna författare. Inom en given tidsperiod finner vi också bevis för stilistisk samstämmighet med ett givet litterärt ämne, så att författare inom olika områden antar olika litterära stilar. Denna studie ger kvantitativt stöd till föreställningen om en litterär "tidsstil" med en stark trend mot allt mer samtida stilistiskt inflytande. kulturella evolutionen på stylometry på kultur på komplexitet på big data W ritten verk, eller litteratur, ge en av de stora kropparna av kulturella artefakter. Analysen av litteraturen innebär vanligtvis aggregering av information på flera nivåer, allt från ord till meningar och ännu mer omfattande egenskaper hos timliga berättelser som struktur, plan och användning av ironi och metafor (1-3). Kvantitativa metoder har länge tillämpats på litteraturen, särskilt i analysen av stilen, som kan spåras tillbaka till en kommentar av matematikern Augustus de Morgan om tillskrivningen av de Paulinska breven (4) och det sena 1800-talets verk av filosofins historiker Wincenty Lutasłowski, som förde grundläggande statistiska idéer om ordanvändning till problemet med att datera Platons dialoger (5). Det var Lutasłowski som myntade ordet "stylometry" för att beskriva ett sådant tillvägagångssätt för att undersöka frågor om litterär stil. Sedan dess har ett brett spektrum av statistiska metoder utvecklats för detta ändamål (6), i allmänhet med målet att lösa frågor om tillskrivning av författare (se t.ex. ref. 6-11), senast ändrad genom Europaparlamentets och rådets förordning (EU, Euratom) nr 966/2012 av den 25 oktober 2012 om finansiella regler för unionens allmänna budget och om upphävande av rådets förordning (EG, Euratom) nr 1605/2002 (EUT L 298, 26.10.2012, s. 1). Stylometriska studier har också bedrivits i studiet av visuell konst (12, 13) och musik [både i komposition (14-16) och performance (17)] och är en del av ett växande arbete i den kvantitativa analysen av kulturella artefakter (18). I den här artikeln rapporterar vi våra resultat från den första storskaliga stylometriska litteraturanalysen. Målet med detta verk är inte författarens tillskrivning-för författarskapet av alla verk är väl känt-utan är istället att artikulera, på ett kvantitativt sätt, storskaliga temporaltrender i litterär (dvs. skrivande) stil. Denna typ av studier har hittills varit omöjliga att genomföra, men tillkomsten av massdigialisering har skapat dramatiska nya möjligheter för vetenskapliga studier i litteratur såväl som inom andra discipliner (19). Vårt litteraturprov kommer från projektet Gutenberg Digital Library (http://www.gutenberg.org/wiki/ Gutenberg:Om). Projekt Gutenberg består av mer än 30 000 public domain texter, musik, ljudböcker, etc., är fritt tillgänglig på nätet, och är bland de digitala arkiv som under de senaste 60 åren har blivit avgörande komponenter för bevarandet av kulturella artefakter (18). Till sin omfattning är vårt arbete relaterat till, men helt annorlunda än, färska studier i datering av litterära verk (20), analysen av den grovkorniga strukturen i litterär historia (och utvecklingen av genre) (21), och framför allt, en nyligen genomförd analys av Google Books (22), där de temporala trenderna i innehållsordsanvändning artikulerades. Innehållsord utgör också grunden för de olika ämnesmodellanalyser som har tillämpats på stora kretsar av vetenskapliga texter (se t.ex. ref. Detta anslag är avsett att täcka utgifter för studier, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter och experter samt andra administrativa utgifter. Däremot fokuserar det arbete som presenteras här på användningen av innehållsfria ord som grundval för den första storskaliga studien av den litterära stilens likhetsstruktur. Innehållsfria ord är det "syntaktiska limmet" i ett språk: De är ord som har liten betydelse på egen hand men bildar en bro mellan ord som förmedlar mening. Deras gemensamma frekvens av användning är känd för att ge en användbar stilistisk fingeravtryck för författare (8, 11), och därmed föreslår en metod för att jämföra författare stilar. När vi betraktar innehållsfria ordfrekvenser från ett stort antal författare och verk under en lång tidsperiod, kan vi ställa frågor relaterade till temporaltrender i likhet. De primära resultaten av vår analys är att tiden ger de mest sammanhängande sätten att samla arbete och en trend av minskande stilistiskt inflytande när vi går framåt i tiden. Ett sådant fynd stämmer överens med en enkel evolutionistisk modell för stilistiskt inflytande, som förutsätter att imitationen i första hand ägnar sig åt samtida författare. Dessutom avslöjar vi kvantitativt stöd för den tidigare rent anekdotiska uppfattningen om en litterär "tidstyp". Sammantaget tyder dessa två fynd på nyttan och kanske skapandet av ett nytt fält av stylyometrisk analys i kulturomik. I våra experiment studerade vi en delmängd av författarna i databasen Project Gutenberg som bestod av de som skrev efter år 1550, hade minst fem verk på engelska i samlingen Project Gutenberg och för vilka vi hade information om födelse- och dödsdatum. Detta lämnade oss med 537 författare. För varje författare skapade vi en representativ funktionsvektor genom att samla de innehållsfria ordfrekvenserna för varje enskilt verk av den författaren. Totalt analyserade vi 7 733 verk. I våra experiment använde vi en lista med 307 innehållsfria ord som innehöll prepositioner, artiklar, associationer, verb "att vara" och några vanliga substantiv och pronomen (se tabell S1 för en fullständig lista). Vi försökte inte semantiskt disambiguera mellan förekomster av homografer in situ (t.ex. när vi använder "till" som en preposition eller som en indikator på ett infinitivt verb). Att göra det skulle kräva en sofistikerad grammatisk modell, och det var inte vårt mål att modellera just denna aspekt av ordanvändning. Vi tror inte att ignorera dessa skillnader kommer sannolikt att påverka våra resultat, eftersom ord som förklarar de största skillnaderna i användningsfrekvens bland Författarens bidrag:
Hughes et.al REF undersöker skrivstil i litteratur genom att undersöka 537 författare från Project Gutenberg.
26,132,130
Quantitative patterns of stylistic influence in the evolution of literature
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Medicine', 'Art']}
3,607
Abstrakt. Djupuppskattning från en enda bild är ett grundläggande problem i datorseendet. I detta dokument föreslår vi en enkel men effektiv konvolutionell rumslig utbredningsnätverk (CSPN) för att lära affinitetsmatrisen för djupförutsägelse. Specifikt, vi antar en effektiv linjär förökning modell, där förökning utförs med ett sätt att återkommande konvolutionell operation, och affiniteten mellan angränsande pixlar lärs genom en djup convolutional neurala nätverk (CNN). Vi använder den designade CSPN till två djupuppskattning uppgifter ges en enda bild: (1) Förfina djuputgången från befintliga state-of-the-art (SOTA) metoder; (2) Konvertera glesa djup prover till en tät djup karta genom att inbädda djupprover inom förökningsproceduren. Den andra uppgiften är inspirerad av tillgängligheten av LiDAR som ger glesa men exakta djupmätningar. Vi experimenterade den föreslagna CSPN över de populära NYU v2 [1] och KITTI [2] dataset, där vi visar att vårt föreslagna tillvägagångssätt förbättrar inte bara kvalitet (t.ex. 30% mer minskning av djupfel), men också hastighet (t.ex. 2 till 5× snabbare) av djupkartor än tidigare SOTA-metoder.
Chen och Al. REF använde en affinitetsmatris för att styra djupet med ett återkommande neuralt nätverk.
51,894,020
Depth Estimation via Affinity Learned with Convolutional Spatial Propagation Network
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,608
Vi betraktar problemet med att referera bildsegmentering. Med tanke på en inmatningsbild och ett naturligt språkuttryck är målet att segmentera det objekt som språkuttrycket i bilden hänvisar till. Befintliga verk på detta område behandlar språkuttrycket och indatabilden separat i sina representationer. De fångar inte tillräckligt många långsiktiga samband mellan dessa två metoder. I detta dokument föreslår vi en modul för cross-modal självuppmärksamhet (CMSA) som effektivt fångar upp de långsiktiga beroendena mellan språkliga och visuella egenskaper. Vår modell kan på ett anpassningsbart sätt fokusera på informativa ord i det refererande uttrycket och viktiga regioner i indatabilden. Dessutom föreslår vi en grindad fusionsmodul på flera nivåer för att selektivt integrera självuppmärksamma korsmodala funktioner som motsvarar olika nivåer i bilden. Denna modul styr informationsflödet av funktioner på olika nivåer. Vi validerar det föreslagna tillvägagångssättet för fyra utvärderingsdataset. Vårt föreslagna tillvägagångssätt överträffar konsekvent befintliga toppmoderna metoder.
I REF föreslås det tvärmodala nätverket för självuppmärksamhet för att fånga upp de långsiktiga beroendena mellan språkliga och visuella sammanhang och en grindad fusion på flera nivåer används sedan för att extrahera en exakt segmenteringsmask.
104,292,134
Cross-Modal Self-Attention Network for Referring Image Segmentation
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
3,609
Traditionella inlärningsmetoder med flera synfält lider i närvaro av meningsskiljaktighet, dvs. när prover i varje synfält inte tillhör samma klass på grund av att de ser på korruption, ocklusion eller andra bullerprocesser. I detta dokument presenterar vi en multi-view inlärningsstrategi som använder ett villkorat entropikriterium för att upptäcka åsikter oenighet. När det har upptäckts filtreras prover med siktskiljaktighet och vanliga inlärningsmetoder med flera synfält kan framgångsrikt tillämpas på de återstående proverna. Experimentell utvärdering av syntetiska och audiovisuella databaser visar att upptäckten och filtreringen av meningsskiljaktighet avsevärt ökar resultaten av traditionella inlärningsmetoder med flera synfält.
För det andra måste metoder för flerfaldig inlärning ta itu med meningsskiljaktighet REF.
11,745,132
Multi-View Learning in the Presence of View Disagreement
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,610
Abstract-Nearest grannsökning är en kärnprocess i många databrytningsalgoritmer. Att hitta pålitliga närmaste matchningar av en fråga i ett utrymme med höga dimensioner är fortfarande en utmanande uppgift. Detta beror på att effektiviteten hos många olika mått, som är baserade på en geometrisk modell, såsom p-norm, minskar i takt med att antalet dimensioner ökar. I detta dokument undersöker vi hur datadistributionen kan utnyttjas för att mäta skillnader mellan två fall och föreslår en ny databeroende olikhetsåtgärd som kallas "mp-disimiversity". I stället för att förlita sig på geometriskt avstånd mäter den skillnaden mellan två fall i varje dimension som en sannolikhetsmassa i en region som omsluter de två fallen. Den anser att två fall i en gles region är mer lika än två fall i en tät region, även om dessa två par fall kan ha samma geometriska avstånd. Våra empiriska resultat visar att den föreslagna olikheten verkligen ger en pålitlig närmaste grannsökning i högdimensionella utrymmen, särskilt i glesa data. mpdisimilaritet gav bättre uppgiftsspecifik prestanda än p-norm och cosinusavstånd i klassificerings- och informationssökningsuppgifter.
För att ta itu med den diskuterade begränsningen av, En databeroende olikhet åtgärd har föreslagits REF.
1,454,653
Mp-Dissimilarity: A Data Dependent Dissimilarity Measure
{'venue': '2014 IEEE International Conference on Data Mining', 'journal': '2014 IEEE International Conference on Data Mining', 'mag_field_of_study': ['Computer Science']}
3,611
Vi bevisar att det maximala kant biclique problemet i bipartite grafer är NP-fullständig. En biclique i en bipartite graf är en vertex inducerad subgraph som är komplett. Problemet med att hitta en biclique med ett maximalt antal hörn är känt för att vara solvable i polynom tid, men komplexiteten i att hitta en biclique med ett maximalt antal kanter var fortfarande oavgjort.
Som tidigare nämnts är det maximala problemet biclique NP-hårda REF.
3,102,766
The maximum edge biclique problem is NP-complete
{'venue': 'Discrete Applied Mathematics', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,612
Ett antal nya verk har föreslagit uppmärksamhetsmodeller för visuellt frågesvar (VQA) som genererar rumsliga kartor som belyser bildregioner som är relevanta för att besvara frågan. I detta dokument hävdar vi att det förutom att modellera "där man kan titta" eller visuell uppmärksamhet är lika viktigt att modellera "vilka ord man ska lyssna på" eller ifrågasätta uppmärksamheten. Vi presenterar en ny co-attention modell för VQA som tillsammans resonerar om bild och ifrågasätter uppmärksamhet. Dessutom, vår modell skäl till frågan (och därmed bilden via co-attention mekanism) på ett hierarkiskt sätt via en ny 1-dimensionell konvolution neurala nätverk (CNN) modell. Vår slutliga modell överträffar alla rapporterade metoder och förbättrar den senaste tekniken på VQA-datauppsättningen från 60,4 % till 62,1 %, och från 61,6 % till 65,4 % på COCO-QA-datauppsättningen 1. 1 Källkoden kan laddas ner från https://github.com/jiasenlu/HieCoAttenVQA
Utöver visuell uppmärksamhet föreslås i det senaste arbetet i Ref även en mekanism för medbestämmande med frågeställning.
868,693
Hierarchical Question-Image Co-Attention for Visual Question Answering
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,613
Semantisk rollmärkning (SRL) är ett av de grundläggande problemen för behandling av naturligt språk (NLP). Hittills har de flesta av de framgångsrika SRL-systemen byggts ovanpå någon form av tolkningsresultat (Koomen et al., 2005; Palmer et al., 2010; Pradhan et al., 2013), där fördefinierade funktionsmallar över den syntaktiska strukturen används. Försöken att bygga en end-to-end SRL lärande system utan att använda tolkning var mindre framgångsrika (Collobert et al., 2011). I detta arbete föreslår vi att använda djup tvåvägs återkommande nätverk som ett end-to-end-system för SRL. Vi tar endast originaltextinformation som indatafunktion, utan att använda någon syntaktisk kunskap. Den föreslagna algoritmen för semantisk rollmärkning utvärderades huvudsakligen på CoNLL-2005 delad uppgift och uppnådde F 1 poäng på 81,07. Detta resulterar i att det tidigare toppmoderna systemet överträffas av kombinationen av olika parserande träd eller modeller. Vi fick också samma slutsats med F 1 = 81,27 på CoNLL-2012 delad uppgift. Som ett resultat av enkelhet, vår modell är också beräkningseffektiv att tolkningshastigheten är 6,7k tokens per sekund. Vår analys visar att vår modell är bättre på att hantera längre meningar än traditionella modeller. Och de latenta variablerna i vår modell fångar implicit den syntaktiska strukturen av en mening.
I semantisk rollmärkning föreslår REF en end-to-end strategi med hjälp av återkommande NN, där en originaltext är indata, och semantisk rollmärkning utförs utan någon mellanliggande syntaktisk kunskap.
12,688,069
End-to-end learning of semantic role labeling using recurrent neural networks
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,614
1 Klassiska system som använder hierarkisk modulering (t.ex. DVB-SH) omfattar en "högprioriterad" (HP) och en "lågprioriterad" (LP) bitström som är separat och självständigt kodad innan den kartläggs på icke-uniformly mellanslagna konstellationspunkter, vilket leder till olika nivåer av felskydd. En inneboende nackdel med detta system är dock den allvarliga försämringen av prestandan för den mindre skyddade LP-strömmen. I detta dokument föreslår vi ett inkapslat kodningssystem som blandar de två strömmarna för att göra kodning av LP-strömmen beroende av den väl skyddade HP-strömmen. På mottagarsidan är därför den tillförlitliga information om HP-bitar som HP-dekodern tillhandahåller naturligt involverad i avkodningen av LP-strömmen och fungerar som "mjuka piloter". Vi har utnyttjat denna funktion i en mjuk avkodningsmekanism för att förbättra LP-avkodningsprestandan samtidigt som HP-avkodningsprestandan förblir oförändrad. Numeriska resultat som presenteras i fallet med DVB-SH-standarden visar att det föreslagna systemet överträffar det klassiska tillvägagångssättet när det gäller LP-bitars felfrekvens utan någon betydande ökning av mottagarens komplexitet.
I REF är LP-symbolernas låga felprestanda riktad och ett kodningssystem föreslås för att förbättra prestandan.
16,680,615
On the Interaction Between Channel Coding and Hierarchical Modulation
{'venue': '2009 IEEE International Conference on Communications', 'journal': '2009 IEEE International Conference on Communications', 'mag_field_of_study': ['Computer Science']}
3,615
t är allmänt erkänt att trafiken kommer att domineras mer och mer av Internetbaserade tjänster, med avseende på traditionell rösttrafik [1], tack vare ökad användning av teknik för höghastighetsaccess och migration av fler och fler tjänster mot Internetprotokollet (IP). Rösttrafiken ökar fortfarande, men i långsammare takt. Som ett resultat av detta är två huvudfaktorer av avgörande betydelse för utvecklingen av nya generationsnät: den stora mängden trafik ökar snabbt och typen av trafik förändras. Som ett resultat av detta utvecklas telekomvärlden starkt mot utmanande scenarier: konvergensen mellan telekom- och datacomvärldarna in i infocom-eran håller på att bli verklighet. Nya infrastrukturer måste vara förenliga med ett sådant infocom-nätscenario. I praktiken innebär detta att nätinfrastrukturen måste vara multiservice, det vill säga kunna stödja flera typer av trafik med olika krav när det gäller tjänsternas kvalitet (QoS) [2]. Eftersom IP-trafik kommer att vara den dominerande delen måste nätinfrastrukturerna ta hänsyn till dess egenskaper. Två huvudsakliga egenskaper typifierar Internettrafiken: • Dess självliknande karaktär • Asymmetrin i dataflödena I sin helhet är Internettrafiken inte lätt förutsägbar och stabil som den traditionella rösttrafiken. Följaktligen uppstår ett grundläggande krav på ny generations infrastruktur: flexibilitet och förmåga att reagera på trafikefterfrågan ändras med tiden. En annan viktig fråga gäller det faktum att Internettrafiken, även om den blir dominerande, inte genererar intäkter som värdefulla taltjänster. Detta innebär praktiskt taget att om nätet uppgraderades genom att utöka bandbredden och infrastrukturen i proportion till mängden datatrafik ökar, skulle intäkterna bli mindre än kostnaden. För att vara lönsamma måste leverantörer av Internettjänster och nätoperatörer både minska kostnaderna genom en effektiv användning av nätresurserna och öka intäkterna genom att erbjuda multiservice- och QoS-kapacitet. Dessutom kräver migreringen av alla tjänster över IP, inklusive dem i realtid, att QoS garanteras för en del av tjänsterna som bör vara jämförbar med dem som tillhandahålls av telekombaserade nät i dag. Som ett resultat, flera krav kommer ut för NGNs: ge snabb avsättning, hantera trafikfluktuationer och tillväxt, hantera QoS för att uppfylla servicenivåavtal (SLA) för olika typer av trafik i form av bandbredd, fördröjning, paket förlust, eller andra kvalitetskrav, och erbjuda multiservice kapacitet. Den utmanande uppgiften för etablerade nätoperatörer är att flytta sitt röstnät till den nya generationens infrastruktur, samtidigt som kostnaderna för övergången minimeras och fördelarna med nästa generations nät utnyttjas i ett tidigt skede. Multiprotokoll märkning switching (MPLS) behandlar dessa frågor med hjälp av trafikteknik (TE) mekanismer som tillåter fördelarna med flexibilitet och prestanda i konjugerande skikt 3 respektive 2. [3]. Utmaningen för NGNs består i att utöka sådan flexibilitet och effektivitet till andra skikt av nätverket, såsom synkron digital hierarki/synkron optiskt nätverk (SDH/SONET) och våglängdsdivision multiplexing (WDM) för att överväga även icke-packet-baserade vidarebefordringsplan. Tack vare MPLS förlängning med hjälp av generaliserade MPLS (GMPLS), de viktigaste ingredienserna för att utföra effektiv TE för olika tekniker finns [4]. En genomförbar lösning som kan använda sådana ingredienser är dock ännu inte konsoliderad. TE-företagen bör faktiskt ge nätverket möjlighet att dynamiskt kontrollera trafikdataflödena, optimera tillgången till resurser, välja rutter för trafikflöden samtidigt som hänsyn tas till trafikbelastningar och nättillstånd, och att flytta trafikflödena mot mindre överbelastade vägar. Alla dessa funktioner bör utföras med hantering av olika nätverkslager och tekniker. Denna artikel beskriver en pragmatisk nätverkslösning som Denna artikel diskuterar ett nytt tillvägagångssätt för att förverkliga trafikteknik inom ramen för nya generations flerskiktsnät baserat på GMPLS paradigm. Framför allt kan det föreslagna trafiktekniska systemet reagera dynamiskt på trafikförändringar och samtidigt uppfylla QoS-kraven för olika tjänsteklasser. Den föreslagna lösningen består av en hybrid routing metod, baserad på både offline- och online-metoder, och en ny bandbredd ledningssystem som hanterar prioritet, preemption mekanismer, och trafik omdirigering för att samtidigt tillgodose den största mängden trafik och uppfylla QoS krav. Nätets bandbreddsresurser utnyttjas effektivt genom "elastiskt" utnyttjande av bandbredden. De viktigaste byggstenarna och driften av systemet rapporteras, och de största fördelarna diskuteras.
I REF presenteras ett trafiktekniksystem med beaktande av flerskiktsmetoden och med beaktande av både metoder för routing, offline och on-line.
18,613,158
A traffic engineering system for multilayer networks based on the GMPLS paradigm
{'venue': 'Network, IEEE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,616
Sammanfattning av denna webbsida: Under de senaste åren har antalet fordon på vägarna ökat avsevärt. Detta ökar betydelsen av fordonssäkerhet och minimering av bränsleförbrukningen, vilket leder till att tillverkarna utrustar bilar, med mer avancerade funktioner som adaptive cruise control (ACC) eller kollisionsundvikande och kollisionsvarningssystem (CWS). Detta dokument undersöker två styrapplikationer design, nämligen vinst schemaläggning proportionalintegral (GSPI) kontroll och få schemaläggning Linear Quadratic (GSLQ) kontroll för ACC, som täcker en hög räckvidd hastighet. Kontrollsystemet består av två slingor i kaskad, där den inre slingan styr fordonets hastighet och den yttre slingan som växlar mellan farthållaren (CC) och ACC-läget och beräknar referenshastigheten. En icke-linjär dynamisk modell av fordonet konstrueras och sedan bestäms en uppsättning driftpunkter och sedan extraheras en av linjära modeller i driftpunkten. För varje driftpunkt erhålls PI- och LQ-styrenheter offline. En integrerad Simulink-modell med den ickelinjära dynamiska fordonsmodellen och ACC-styrenheten (antingen PI eller LQ) användes för att testa styrenheterna i olika trafikscenarier. Jämförelseresultat mellan de två styrenhetstillämpningarna tillhandahålls för att visa konstruktionens giltighet.
I REF är fordonsmodellen linjäriserad för att få schemaläggning av en linjär kvadreringsregulator för både gas- och bromsmanövrering.
14,723,568
Adaptive Cruise Control System: Comparing Gain-Scheduling PI and LQ Controllers
{'venue': None, 'journal': 'IFAC Proceedings Volumes', 'mag_field_of_study': ['Engineering']}
3,617
Evolutionära beräkningstekniker har främst använts för att lösa olika optimerings- och inlärningsproblem. Detta dokument beskriver en ny tillämpning av evolutionära beräkningstekniker på ekvationslösning. Flera kombinationer av evolutionära beräkningsmetoder och klassiska numeriska metoder föreslås för att lösa linjära och partiella differentialekvationer. Hybridalgoritmerna har jämförts med de välkända klassiska numeriska metoderna. De experimentella resultaten visar att de föreslagna hybridalgoritmerna överträffar de klassiska numeriska metoderna betydligt vad gäller effektivitet och effektivitet. Linjära ekvationer, Partiella differentialekvationer, Anpassning, Hybridalgoritmer. Det har skett en enorm ökning av antalet papper och framgångsrika tillämpningar av evolutionära beräkningstekniker inom ett brett spektrum av områden under de senaste åren. Nästan alla dessa tillämpningar kan klassificeras som evolutionär optimering (antingen numerisk eller kombinatorisk) eller evolutionär inlärning (övervakad, förstärkning eller oövervakad). I detta dokument presenteras en mycket annorlunda och ny tillämpning av evolutionära beräkningstekniker i ekvationslösning, dvs. att lösa linjära och partiella differentialekvationer genom simulerad evolution. En av de mest kända numeriska metoderna för att lösa linjära ekvationer är den successiva metoden över relaxation (SOR) [1]. Det är dock ofta mycket svårt att uppskatta den optimala avslappningsfaktorn, som är en nyckelparameter i SOR-metoden. I detta dokument föreslås en hybridalgoritm som kombinerar SOR-metoden med evolutionära beräkningsmetoder. Hybridalgoritmen kräver inte en användare att gissa eller uppskatta den optimala avkopplingsfaktorn. Algoritmen "utvecklar" den. Till skillnad från de flesta andra hybridalgoritmer där en evolutionär algoritm används ett omslag runt en annan algoritm (ofta en klassisk algoritm), den hybridalgoritm som föreslås i detta dokument integrerar SOR-metoden med evolutionära beräkningstekniker, såsom crossover och mutation. Den utnyttjar en befolkning bättre genom att använda olika ekvationslösningsstrategier för olika individer i befolkningen. Då kan dessa individer utbyta information genom crossover. Experimentella resultat visar att hybridalgoritmen kan lösa ekvationer inom en liten del av den tid som krävs av den klassiska SOR-metoden för ett antal problem som vi har testat. Baserat på arbetet med att lösa linjära ekvationer, föreslår detta papper också två hybridalgoritmer för att lösa partiella differentialekvationer, dvs Dirichlet problem [2]. Båda hybridalgoritmerna använder skillnadsmetoden [2] för att diskretisera partiella differentialekvationer till ett linjärt system först och sedan löst det. Fogel och Atmar [3] använde linjär ekvationslösning som testproblem för att jämföra crossover- och inversionsoperatörer och Gaussian-mutation i en evolutionär algoritm. Ett linjärt system för formen
Han och Al. REF beskriver tre hybridgenetiska algoritmer för att lösa linjära och partiella differentialekvationer.
7,211,217
Solving equations by hybrid evolutionary computation techniques
{'venue': 'IEEE Transactions on Evolutionary Computation', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,618
Sammanfattning Ökad industriell utveckling ökade miljöproblemen i många städer i världen. Modellering och index för luftkvalitet används för att införa information om lokala luftkvalitetsindikatorer i förorenade regioner. Uppskattning och övervakning av luftkvaliteten i stadskärnorna är viktiga på grund av människors hälsa och komfort. Tillnärmning av luftkvaliteten är ett komplicerat ämne att artificiella intelligenta tekniker framgångsrikt används för att modellera de komplicerade och ickelinjära tillnärmningsproblemen. I nuvarande studie, artificiella neurala nätverk och en adaptiv neuro-fuzzy logik metod utvecklats för att approximera inverkan av vissa miljöförhållanden på luftkvalitet och svaveldioxid föroreningsnivån och används med denna studie i Konya centrum. Uppgifter om svaveldioxidhalter samlades in från 15 utvalda punkter i staden Konya för att förutsäga luftkvaliteten. Med hjälp av luftkvalitetsnormer diskuterades luftkvaliteten genom att man betraktade svaveldioxidkoncentrationen som oberoende variabler med meteorologiska parametrar. Olika meteorologiska parametrar användes för att undersöka föroreningsförhållandet. Ett av de viktiga modelleringsverktygen, adaptiv nätverksbaserad fuzzy inference-modell, användes för att bedöma prestanda genom ett antal kontrolldata som samlats in från olika provtagningsstationer i Konya. Resultaten av adaptiv nätverksbaserad fuzzy inference system modell utvärderades av fuzzy kvalitet diagram och jämfört med resultaten från Turkiet och Environmental Protection Agency luftkvalitetsnormer. Från de nuvarande resultaten är fuzzy regelbaserad adaptiv nätverksbaserad fuzzy inference system modell ett värdefullt verktyg förutsägelse och bedömning av luftkvaliteten och tenderar att sprida korrekta resultat.
Resultaten av modellen utvärderades med suddiga kvalitetsscheman och jämfördes med resultaten från Turkiska Environmental Protection Association luftkvalitetsstandarder REF.
107,035,552
Modelling sulphur dioxide levels of Konya city using artificial intelligent related to ozone, nitrogen dioxide and meteorological factors
{'venue': 'International Journal of Environmental Science and Technology', 'journal': 'International Journal of Environmental Science and Technology', 'mag_field_of_study': ['Engineering']}
3,619
Med gemenskapen avses den grupp av enheter som har ett liknande beteende eller en liknande egenskap bland dem. Vanligen representerar samhället en grundläggande funktionell enhet i det sociala nätverket. Genom att förstå beteendet hos element i en gemenskap, kan man förutsäga det övergripande inslaget i storskaliga sociala nätverk. Sociala nätverk är i allmänhet representerade i form av grafstruktur, där noderna i dem representerar de sociala enheterna och kanterna motsvarar förhållandet mellan dem. Att upptäcka olika samhällen i storskaliga nätverk är en utmanande uppgift på grund av stor datastorlek i samband med sådana nätverk. Detektion av gemenskapen är ett av de framväxande forskningsområdena inom analys av sociala nätverk. I detta dokument har en spännande trädbaserad algoritm föreslagits för community detektion som ger bättre prestanda med avseende på både tid och noggrannhet. Modularitet är den välkända metriska metoden som används för att mäta kvaliteten på gemenskapens partition i de flesta av gemenskapens detektionsalgoritmer. I detta dokument har en omfattande version av modularitet använts för kvalitetsbedömning.
En ny modularitet som kallas MIN-MAX modularity har utformats av R. Behera och M. Jena för att optimera de community partitioner i papperet REF.
63,234,263
Spanning Tree Based Community Detection Using Min-Max Modularity
{'venue': None, 'journal': 'Procedia Computer Science', 'mag_field_of_study': ['Computer Science']}
3,620
Object detektering i videor har dragit till sig ökad uppmärksamhet nyligen med införandet av den storskaliga ImageNet VID dataset. Olika från objektdetektering i statiska bilder ger temporal information i videor viktig information för objektdetektering. För att fullt ut utnyttja tidsinformationen är de modernaste metoderna [14, 13] därför baserade på spatiotemporala tubelets, som i huvudsak är sekvenser av associerade avgränsande rutor över tiden. De befintliga metoderna har dock stora begränsningar när det gäller att generera tubletar när det gäller kvalitet och effektivitet. Rörelsebaserade [13] metoder kan erhålla täta rör, men längderna är i allmänhet bara flera ramar, vilket inte är optimalt för att införliva långsiktig tidsinformation. Utseende-baserade [14] metoder, vanligtvis med allmän objektspårning, kan generera långa tubeletter, men är vanligtvis beräkning dyrt. I detta arbete föreslår vi en ram för objektdetektering i videor, som består av ett nytt tubelet förslag nätverk för att effektivt generera spatiotemporella förslag, och ett Long Short-term Memory (LSTM) nätverk som innehåller timlig information från tubelet förslag för att uppnå hög objektdetektering noggrannhet i videor. Experimenten på det storskaliga ImageNet VID-datasetet visar effektiviteten i det föreslagna ramverket för objektdetektering i videor.
I REF, Kang et al. föreslå ett nätverk för förslag till rörledningar för att ta fram förslag till rörledningar med bättre kvalitet och effektivitet.
16,436
Object Detection in Videos with Tubelet Proposal Networks
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
3,621
Abstrakt. Vi anser att man kan dra slutsatsen om människors framtida handlingar från en stillbild eller ett kort videoklipp. Att förutsäga framtida åtgärder innan de faktiskt genomförs är en viktig ingrediens för att vi ska kunna interagera effektivt med andra människor dagligen. Utmaningar är dock tvåfaldiga: För det första måste vi fånga in de subtila detaljer i mänskliga rörelser som kan innebära en framtida handling; för det andra bör förutsägelser vanligtvis utföras så snabbt som möjligt i den sociala världen, när begränsade tidigare observationer finns tillgängliga. I detta dokument föreslår vi hierarkiska flyttames -en ny representation för att beskriva mänskliga rörelser på flera nivåer av granularities, allt från atomiska rörelser (t.ex. en öppen arm) till grövre rörelser som täcker en större temporal omfattning. Vi utvecklar en max-marginal lärande ram för framtida åtgärdsförutsägelse, integrera en samling flyttame detektorer på ett hierarkiskt sätt. Vi validerar vår metod på två allmänt tillgängliga dataset och visar att den uppnår mycket lovande resultat.
För att förutse framtida åtgärder, Lan et al. REF föreslog hierarkiska representationer av korta klipp eller stillbilder.
478,651
A Hierarchical Representation for Future Action Prediction
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,622
Detta dokument beskriver en automatisk metod för att förvärva hyponymy relationer från HTML-dokument på WWW. Hyponymy relationer kan spela en avgörande roll i olika naturliga språk bearbetningssystem. De flesta befintliga förvärvsmetoder för hyponymy relationer bygger på särskilda språkliga mönster, såsom "NP såsom NP". Vår metod använder dock inte sådana språkliga mönster, och vi förväntar oss att vårt förfarande kan tillämpas på ett brett spektrum av uttryck för vilka befintliga metoder inte kan användas. Vår förvärvsalgoritm använder ledtrådar såsom specificering eller notering i HTML-dokument och statistiska mått såsom dokumentfrekvenser och verb-noun co-occurences.
Shinzato och Torisawa REF gav en metod för att förvärva hyponymy relationer från HTML-dokument; de använde specificering och notering element i dokument.
5,510,520
Acquiring Hyponymy Relations From Web Documents
{'venue': 'Human Language Technology Conference And Meeting Of The North American Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,623
Låt f : 2 X → R + vara en monoton submodulär uppsättning funktion, och låt (X, I) vara en matroid. Vi anser att problemet är max S.I. f (S). Det är känt att den giriga algoritmen ger en 1/2-uppskattning [14] för detta problem. För vissa specialfall, t.ex. den giriga algoritmen ger en (1 - 1/ e)- approximation. Det är känt att detta är optimal både i värdet oracle modell (där den enda tillgången till f är genom en svart låda återvändande f (S) för en given uppsättning S) [28], och även för explicit poserade fall antar P = N P [10]. I detta papper ger vi en randomiserad (1 - 1/ e)- approximation för alla monotona submodulära funktioner och en godtycklig matroid. Algoritmen fungerar i värde- orakelmodellen. Våra viktigaste verktyg är en variant av Ageevs och Sviridenkos piagerundningsteknik [1], och en kontinuerlig girig process som kan vara av oberoende intresse. Som ett specialfall innebär vår algoritm en optimal approximation för submodulära välfärdsproblem i värde orakelmodellen [32]. Som en andra ansökan, visar vi att den Generalized Inmission Problem (GAP) är också ett specialfall; även om minskningen kräver för att vara exponentiellt i den ursprungliga problemstorleken, kan vi uppnå en (1 − 1/e − o(1)) - approximation för GAP, förenkla tidigare kända algoritmer. Dessutom gör reduktionen att vi kan få approximationsalgoritmer för varianter av GAP med mer allmänna begränsningar.
För tio år sedan löstes denna fråga slutligen av ett berömt resultat av C-linescu et al. REF som beskrev en (1 −1/e) - approximationsalgoritm för maximering av en monoton submodulär funktion som är föremål för en allmän matrisrestriktion.
2,394,898
Maximizing a Monotone Submodular Function subject to a Matroid Constraint
{'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,624
Sammanfattning av denna webbsida: Hyperspektral images (HSI) ger rik information som kanske inte fångas upp av andra avkänningstekniker och därför gradvis hittar ett brett spektrum av tillämpningar. De genererar dock också en stor mängd irrelevanta eller överflödiga uppgifter för en viss uppgift. Detta orsakar ett antal frågor, bland annat avsevärt ökad beräkningstid, komplexitet och skala av förutsägelser modeller som kartlägger data till semantik (t.ex., klassificering) och behovet av en stor mängd märkta data för utbildning. Särskilt är det i allmänhet svårt och dyrt för experter att få tillräckligt med utbildningsprover i många tillämpningar. Detta dokument tar upp dessa frågor genom att utforska ett antal klassiska dimensionsreduktionsalgoritmer i maskininlärningsgrupper för HSI-klassificering. För att minska storleken på träningsdata, funktionsval (t.ex. ömsesidig information, minimal redundans maximal relevans) och funktionsextraktion (t.ex., Principal Component Analysis (PCA), Kernel PCA) antas för att öka en baslinje klassificeringsmetod, Support Vector Machine (SVM). De föreslagna algoritmerna utvärderas med hjälp av en riktig HSI-datauppsättning. Det visas att PCA ger den mest lovande prestandan när det gäller att minska antalet funktioner eller spektralband. Det noteras att den föreslagna metoden, samtidigt som den avsevärt minskar beräkningskomplexiteten, kan ge bättre klassificeringsresultat jämfört med den klassiska SVM på ett litet träningsdataset, vilket gör den lämplig för realtidstillämpningar eller när endast begränsade träningsdata finns tillgängliga. Dessutom kan det också uppnå prestanda som liknar den klassiska SVM på stora datauppsättningar men med mycket mindre datortid.
Su m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. Ref-arbetet undersöker dimensionsminskningen av en hyperspektral bild (HSI) datauppsättning genom funktionsval och funktionsextraktion tekniker.
3,616,879
Dimension Reduction Aided Hyperspectral Image Classification with a Small-sized Training Dataset: Experimental Comparisons
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
3,625
Datoriserad pulsanalys baserad på traditionell kinesisk medicin (TCM) är relativt ny inom området automatisk fysiologisk signalanalys och diagnos. Betydande undersökningar har gjorts om den automatiska klassificeringen av pulsmönster efter deras egenskaper i position och form, men eftersom arrytmier är svåra att identifiera, har hittills ingen gjorts för att automatiskt identifiera pulser genom deras rytmer. I detta dokument föreslås en ny metod för att upptäcka arrytmiska pulser med hjälp av Lempel-Zivs komplexitetsanalys. Fyra parametrar, en lemma, och två regler, som är resultatet av heuristiskt tillvägagångssätt, presenteras. Detta tillvägagångssätt tillämpas på 140 klinikpulser för att upptäcka sju pulsmönster, inte bara uppnå en igenkänningsnoggrannhet på 97,1% som bedömts av experter i TCM, men också korrekt extrahera den periodiska enheten av intermittent puls.
Till exempel föreslog REF en Lempel-Ziv-analysbaserad metod för att klassificera sju pulsmönster som uppvisar olika rytmer.
43,713,319
Arrhythmic Pulses Detection Using Lempel-Ziv Complexity Analysis
{'venue': None, 'journal': 'EURASIP Journal on Advances in Signal Processing', 'mag_field_of_study': ['Computer Science']}
3,626
I detta arbete studerar vi dynamiken i det geografiska valet, det vill säga hur användare väljer ett från en uppsättning objekt i en geografisk region. Vi postulerar en modell där ett objekt väljs från en skiffer av kandidater med sannolikhet som beror på hur långt det är (avstånd) och hur många närmare alternativ finns (rank). Under ett diskret val formulering, hävdar vi att det finns en faktoriserad form i vilken okända funktioner av rang och avstånd kan kombineras för att producera en korrekt uppskattning av sannolikheten för att en användare kommer att välja varje alternativ. Vi lär oss sedan dessa dolda funktioner och visar att var och en kan approximeras av ett lämpligt parameteriserat lognormalt, även om respektive marginaler ser helt olika ut. Vi ger en teoretisk motivering för att stödja närvaron av lognormala fördelningar. Vi tillämpar sedan detta ramverk för att studera restaurangval i kartsökningsloggar. Vi visar att en fyra-parameter modell baserad på kombinationer av lognormals har utmärkt prestanda vid förutsägelse restaurang val, även jämfört med baslinje modeller med tillgång till den fullständiga (densely parameterized) marginalfördelning för rank och avstånd. Slutligen visar vi hur detta ramverk kan utvidgas till att samtidigt lära sig en per-restaurang kvalitet poäng som representerar den kvarstående sannolikheten för val efter avstånd och rang har redovisats. Vi visar att, jämfört med en per plats poäng som förutspår sannolikheten utan att faktorisera ut rank och avstånd, vår poäng är en betydligt bättre prediktor av användarnas kvalitet bedömningar.
Slutligen, genom analysen av kartsökning loggar, har val modeller utvecklats för att karakterisera hur användare väljer restauranger REF.
15,835,868
Driven by Food: Modeling Geographic Choice
{'venue': "WSDM '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,627
Vi föreslår en algoritm för meta-lärande som är modellagnostisk, i den meningen att den är kompatibel med alla modeller som är utbildade med lutningsnedstigning och kan tillämpas på en mängd olika inlärningsproblem, inklusive klassificering, regression och förstärkningslärande. Målet med meta-lärande är att utbilda en modell på en mängd olika inlärningsuppgifter, så att den kan lösa nya inlärningsuppgifter med bara ett litet antal träningsprover. I vårt tillvägagångssätt tränas modellens parametrar explicit så att ett litet antal gradientsteg med en liten mängd träningsdata från en ny uppgift ger bra generaliseringsprestanda på den uppgiften. I själva verket tränar vår metod modellen för att vara lätt att finjustera. Vi visar att detta tillvägagångssätt leder till state-of-the-art prestanda på två få bilder klassificering riktmärken, ger goda resultat på få-shot regression, och påskyndar finjustering för policy gradient förstärkning lärande med neurala nätverk politik.
I synnerhet MAML REF meta-lär en modell initiering från vilken att anpassa parametrarna med policy gradient metoder.
6,719,686
Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,628
På grund av den låga lagringskostnaden och den snabba frågehastigheten har crossmodal hashing (CMH) använts i stor utsträckning för likhetssökning i multimediasökningstillämpningar. De flesta befintliga CMH-metoder bygger dock på handgjorda funktioner som kanske inte är optimalt kompatibla med hash-code inlärningsproceduren. Som ett resultat av detta kan det hända att befintliga CMH-metoder med handgjorda funktioner inte uppnår tillfredsställande prestanda. I detta dokument föreslår vi en ny CMH-metod, kallad djup cross-modal hashing (DCMH), genom att integrera funktionsinlärning och hash-code-inlärning i samma ram. DCMH är en end-to-end lärande ram med djupa neurala nätverk, en för varje modalitet, att utföra funktionsinlärning från grunden. Experiment på tre verkliga datauppsättningar med bildtextmetoder visar att DCMH kan överträffa andra baslinjer för att uppnå den senaste prestandan i cross-modal hämtning.
Djupt korsmodal hashing (DCMH) REF utför en end-to-end inlärningsram, med hjälp av en negativ log-likelihood förlust för att bevara korsmodal likheter.
206,595,579
Deep Cross-Modal Hashing
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
3,629
Variance minskning har uppstått under de senaste åren som en stark konkurrent till stokastisk lutning nedstigning i icke-konvexa problem, vilket ger de första algoritmerna för att förbättra vid konvergerande hastighet av stokastisk lutning nedstigning för att hitta första ordningen kritiska punkter. Varierande reduktionsmetoder kräver dock vanligtvis noggrant avstämda inlärningsfrekvenser och villighet att använda överdrivet stora "mega-batcher" för att uppnå sina förbättrade resultat. Vi presenterar en ny variansreduktionsalgoritm, Storm, som inte kräver några satser och använder sig av adaptiva inlärningshastigheter, vilket möjliggör enklare genomförande och mindre inställning av hyperparametrar. Vår teknik för att ta bort satser använder en variant av momentum för att uppnå variansreduktion i icke-konvex optimering. På släta förluster F, Storm finner en punkt ) i T iterationer med σ 2 varians i gradienterna, matchar den optimala hastigheten men utan att kräva kunskap om σ.
I den icke-konvexa inställningen använder STORM REF ) en variant av momentum för variansreduktion.
165,163,984
Momentum-Based Variance Reduction in Non-Convex SGD
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,630
Abstract-Skalbarheten av moderna datacenter har blivit en praktisk oro och har tilldragit sig betydande uppmärksamhet under de senaste åren. I motsats till befintliga lösningar som kräver ändringar i nätverksarkitekturen och routing protokollen, detta dokument föreslår att använda trafik-aware virtuell maskin (VM) placering för att förbättra nätverket skalbarhet. Genom att optimera placeringen av virtuella maskiner på värdmaskiner kan trafikmönster bland virtuella maskiner anpassas bättre till kommunikationsavståndet mellan dem, t.ex. VM med stor användning av ömsesidig bandbredd tilldelas värdmaskiner i närheten. Vi formulerar VM-placeringen som ett optimeringsproblem och bevisar dess hårdhet. Vi designar en tvådelad ungefärlig algoritm som effektivt löser problemet med VM-placering för mycket stora problemstorlekar. Med tanke på den betydande skillnaden i trafikmönstren i nuvarande datacenter och de strukturella skillnaderna i de nyligen föreslagna datacenterarkitekturerna, genomför vi ytterligare en jämförande analys av trafikmönstrens och nätverksarkitekturernas inverkan på den potentiella prestandavinsten av trafikmedveten VM-placering. Vi använder trafikspår som samlats in från produktionsdatacenter för att utvärdera vår föreslagna algoritm för placering av virtuella maskiner, och vi visar en betydande prestandaförbättring jämfört med befintliga generiska metoder som inte drar nytta av trafikmönster och datacenternätverksegenskaper. Moderna virtualiseringsbaserade datacenter håller på att bli värdplattformen för ett brett spektrum av kompositapplikationer. Med en ökande trend mot mer kommunikationsintensiva applikationer i datacenter, ökar bandbredden mellan virtuella maskiner (VM) snabbt. Detta väcker ett antal farhågor när det gäller skalbarheten hos den underliggande nätverksarkitekturen, en fråga som har väckt stor uppmärksamhet nyligen. Tekniker i dessa förslag inkluderar rik anslutning i utkanten av nätverket och dynamiska routing protokoll för att balansera trafikbelastning. I detta dokument tar vi itu med skalbarhetsfrågan ur ett annat perspektiv, genom att optimera placeringen av virtuella maskiner på värdmaskiner. Normalt är VM placering bestäms av olika kapacitetsplaneringsverktyg såsom VMware Capacity Planner [8], IBM WebSphere CloudBurst [9], Novell PlateSpin Recon [10] och Lanamark Suite [11]. Dessa verktyg försöker konsolidera virtuella maskiner för CPU, fysiskt minne och energiförbrukning besparingar, men utan att överväga förbrukning av nätverksresurser. Som ett resultat kan detta leda till situationer där VM parar sig med tung trafik bland dem placeras på värdmaskiner med stora nätverkskostnader mellan dem. För att förstå hur ofta detta händer i praktiken har vi genomfört en mätningsstudie i operationella datacenter och observerat tre uppenbara trender:
Meng m.fl. REF anser skalbarheten av molndata center att föreslå en trafik-medveten virtuell maskin (VM) placering metod.
5,969,778
Improving the Scalability of Data Center Networks with Traffic-aware Virtual Machine Placement
{'venue': '2010 Proceedings IEEE INFOCOM', 'journal': '2010 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
3,631
Patientmonitorer på moderna sjukhus har blivit allmänt förekommande, men de genererar ett alltför stort antal falska larm som orsakar alarmtrötthet. Vårt tidigare arbete visade att kombinationer av ofta förekommande monitorlarm, så kallade SuperAlarm-mönster, var kapabla att förutsäga in-hospital kod blå händelser vid en lägre larmfrekvens. I den aktuella studien utvidgar vi den konceptuella domänen för en SuperAlarm till att omfatta laboratorietestresultat tillsammans med monitorlarm för att bygga en integrerad datauppsättning för att bryta SuperAlarm-mönster. Vi föreslår två tillvägagångssätt för att integrera monitorlarm med laboratorietestresultat och använda en maximal frekventa objektets gruvalgoritm för att hitta SuperAlarm-mönster. Under en godtagbar falsk positiv hastighet FPR max, optimala parametrar inklusive den minsta stödtröskel och längden på tidsfönstret för algoritmen för att hitta kombinationer av övervaka larm och laboratorietestresultat bestäms baserat på en 10-faldig korsvalidering uppsättning. SuperAlarm kandidater genereras under dessa optimala parametrar. De slutliga SuperAlarm mönster erhålls genom att ytterligare ta bort kandidaterna med falsk positiv hastighet > FPR max. Prestanda hos SuperAlarm-mönster bedöms med hjälp av en oberoende testdatauppsättning. För det första beräknar vi känsligheten med avseende på prediktionsfönstret och känsligheten med avseende på ledtid. För det andra beräknar vi förhållandet false SuperAlarm (förhållandet mellan timantalet SuperAlarm triggers för kontrollpatienter till det för monitorlarmen, eller för regelbundna monitorlarm plus laboratorietestresultat om SuperAlarm-mönstren innehåller laboratorietestresultat) och work-up to detection ratio, WDR (förhållandet mellan antalet patienter som utlöser SuperAlarm-mönster och antalet kodblå patienter som utlöser SuperAlarm-mönster). Experimentresultaten visar att när FPR varierar mellan 0,02 och 0,15, utlöses SuperAlarm-mönstren som består av monitorlarm tillsammans med de två senaste laboratorietestresultaten minst en gång för [56,7-93,3%] kodblå patienter inom ett 1-h-prediktionsfönster före kodblå händelser och för [43,3-90,0%] kodblå patienter minst 1 timme före kodblå händelser. Antalet per timme av dessa SuperAlarm-mönster som förekommer hos kontrollpatienter är dock endast [2,0–14,8%] av antalet vanliga monitor-larm med WDR som varierar mellan 2,1 och 6,5 i ett 12-timmarsfönster. För en given FPR max-tröskel har SuperAlarm-setet som genereras från den integrerade datasetet högre känslighet och lägre WDR än SuperAlarm-setet som genereras från den vanliga monitor-alarmdatasetet. Dessutom visar McNemars test också att prestandan hos SuperAlarm-uppsättningen från den integrerade datauppsättningen skiljer sig avsevärt från prestandan hos SuperAlarm-uppsättningen från den vanliga larmuppsättningen. Vi drar därför slutsatsen att de SuperAlarm mönster som genereras från den integrerade datamängden är bättre på att förutsäga kod blå händelser.
REF kombinerade labbtester med monitorlarm för att bygga "SuperAlarm" mönster, som gav rättvis noggrannhet vid upptäckt av kod blå händelser samtidigt som låga nivåer av falsklarm.
7,645,229
Integrating monitor alarms with laboratory test results to enhance patient deterioration prediction
{'venue': 'Journal of biomedical informatics', 'journal': 'Journal of biomedical informatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
3,632
Projekt inom e-vetenskap står inför en svår utmaning när det gäller att ge tillgång till värdefulla beräkningsresurser, data och programvara till stora grupper av distribuerade användare. Å ena sidan är projektens existensberättigande att uppmuntra medlemmar i deras forskarsamfund att använda de resurser som tillhandahålls. Å andra sidan kräver hoten mot dessa resurser från onlineattacker en robust och effektiv säkerhet för att minska riskerna. Detta ger upphov till två frågor: att se till att 1) de säkerhetsmekanismer som införts kan användas av de olika användarna av systemet och 2) att det övergripande systemets säkerhet tillgodoser alla dess olika intressenters säkerhetsbehov. Ett misslyckande med att ta itu med någon av dessa frågor kan allvarligt äventyra e-forskningsprojektens framgång. Syftet med detta dokument är först och främst att ge en detaljerad förståelse för hur dessa utmaningar kan presenteras i praktiken i utvecklingen av e-vetenskapstillämpningar. För det andra undersöks i detta dokument de åtgärder som projekten kan vidta för att säkerställa att säkerhetskraven identifieras korrekt, och säkerhetsåtgärder kan användas av det avsedda forskarsamhället. Den forskning som presenteras i denna rapport bygger på fyra fallstudier av e-vetenskapsprojekt. Säkerhetsdesign använder traditionellt expertanalys av risker för tekniken och vidtar lämpliga motåtgärder för att hantera dem. Dessa fallstudier belyser dock vikten av att involvera alla berörda parter i processen för att identifiera säkerhetsbehov och utforma säkra och användbara system. För varje fallstudie analyserades utskrifter av säkerhetsanalysen och designsessionerna för att få insikt i de frågor och faktorer som omger utformningen av användbar säkerhet. Analysen avslutas med en modell som förklarar förhållandet mellan de viktigaste faktorer som identifierats. Detta inbegriper en detaljerad granskning av de berörda parternas roller när det gäller ansvar, motivation och kommunikation i den pågående processen för att utforma användbara, säkra socio-tekniska system som e-vetenskap.
Flechais och Sasse REF till exempel i sin studie av design av användbar säkerhet inom e-vetenskap inkluderade flera intressenter i sina fyra fallstudier.
16,505,124
Stakeholder involvement, motivation, responsibility, communication: How to design usable security in e-Science
{'venue': 'Int. J. Hum. Comput. Stud.', 'journal': 'Int. J. Hum. Comput. Stud.', 'mag_field_of_study': ['Computer Science']}
3,633
Abstract-Mobile robotar kan användas i många applikationer, såsom matta rengöring, sök och räddning, och prospektering. Många studier har ägnats åt att kontrollera, känna och kommunicera robotar. Utplaceringen av robotar har dock inte åtgärdats fullt ut. Utplaceringsproblemet är att bestämma antalet grupper som lossas av en bärare, antalet robotar i varje grupp, och de ursprungliga platserna för dessa robotar. Detta papper undersöker robot distribution för täckning uppgifter. Både timing och energibegränsningar beaktas; robotarna har begränsad energi och måste slutföra uppgifterna före deadlines. Vi bygger kraftmodeller för mobila robotar och beräknar robotarnas strömförbrukning i olika hastigheter. En hastighetsstyrningsmetod föreslås för att bestämma hastigheten för att maximera färdsträckan under både energi- och tidsbegränsningar. Vår metod använder rektangel scanlines som täckningsvägar, och löser distributionsproblem med hjälp av färre robotar. Slutligen tillhandahåller vi en strategi för att överväga områden med slumpmässiga hinder. Jämfört med två enkla heuristiker använder vår lösning 36% färre robotar för öppna ytor och 32% färre robotar för områden med hinder.
I REF användes kraftmodeller för att optimera användningen av robotar under energi- och tidsbegränsningar.
5,670,247
Deployment of mobile robots with energy and timing constraints
{'venue': 'IEEE Transactions on Robotics', 'journal': 'IEEE Transactions on Robotics', 'mag_field_of_study': ['Engineering', 'Computer Science']}
3,634
I denna uppsats strävar vi efter att svara på två frågor: Hur ser 3D-handens nuvarande tillstånd ut från djupbilder? Och vilka är de nästa utmaningar som vi måste ta itu med? Efter den framgångsrika Hands In the Million Challenge (HIM2017) undersöker vi topp 10 state-of-art metoder på tre uppgifter: enkel ram 3D pose estimation, 3D hand tracking, och hand pose estimation under objektinteraktion. Vi analyserar prestandan hos olika CNN-strukturer med avseende på handform, ledsynlighet, utsiktspunkt och artikulationsfördelning. Våra upptäckter inkluderar: 1) isolerad 3D hand pose uppskattning uppnår låga medelfel (10 mm) i perspektivet mellan [70, 120] grader, men det är långt ifrån löst för extrema siktpunkter; 2) 3D volymetriska representationer överträffar 2D CNNs, bättre fånga den rumsliga strukturen av djupdata; (3) Discriminativa metoder fortfarande generalisera dåligt till osynliga handformer; (4) Medan gemensamma ocklusioner utgör en utmaning för de flesta metoder, explicita modellering av struktur begränsningar kan avsevärt minska gapet mellan fel på synliga och ocklude leder.
Även om området 3D hand pose uppskattning har avancerat snabbt, isolerade 3D hand pose uppskattning endast uppnår låga genomsnittliga fel (10 mm) i perspektivet område [70, 120] grader REF.
4,437,466
Depth-Based 3D Hand Pose Estimation: From Current Achievements to Future Goals
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
3,635
Abstract-This paper föreslår en ny bi-hastighet diskret partikel svärm optimering (BVDPSO) metod och utvidgar dess tillämpning till icke-deterministiska polynom (NP) komplett multicast routing problem (MRP). Det viktigaste bidraget är utbyggnaden av partikelsvärmoptimering (PSO) från den kontinuerliga domänen till den binära eller diskreta domänen. För det första utvecklas en ny strategi för två hastigheter för att representera möjligheterna för varje dimension som är 1 och 0. Denna strategi är lämplig för att beskriva den binära egenskapen hos MRP, där 1 står för en nod som väljs för att konstruera multicast träd, medan 0 står för att vara annorlunda. För det andra uppdaterar BVDPSO hastigheten och positionen enligt inlärningsmekanismen i den ursprungliga PSO i den kontinuerliga domänen. Detta bibehåller den snabba konvergenshastigheten och den globala sökförmågan hos den ursprungliga PSO. Experiment genomförs omfattande på alla 58 instanser med små, medelstora och stora skalor i Operation Research Library (OR-bibliotek). Resultaten bekräftar att BVDPSO snabbt kan få optimala eller nästan optimala lösningar, eftersom det bara behöver generera ett fåtal flergjutna träd. BVDPSO överträffar inte bara flera toppmoderna och senaste heuristiska algoritmer för MRP-problemen, utan även algoritmer baserade på genetiska algoritmer, optimering av myrkolonier och PSO. Index Terms-Communication nätverk, multicast routing problem (MRP), partikel svärm optimering (PSO), Steiner träd problem (STP).
I REF föreslogs en ny Bi-Velocity Discrete Partikel Swarm Optimization (BVDPSO) algoritm för att optimera en-till-många multicast routing problem i kommunikationsnät.
18,479,784
Bi-Velocity Discrete Particle Swarm Optimization and Its Application to Multicast Routing Problem in Communication Networks
{'venue': 'IEEE Transactions on Industrial Electronics', 'journal': 'IEEE Transactions on Industrial Electronics', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,636
Abstract-A vehicular sensing network (VSN) är en typ av trådlöst sensornätverk som ger äldre resurskonstruerade WSNs genom att dra nytta av de rika nätverksresurser (t.ex. batteritid, lagringskapacitet och rörlighet) av fordon. I detta dokument anser vi att de kända uppgifterna i VSN i allmänhet är lokala till sin natur och föreslår ett enkelt men effektivt system, kallat To-and-Fro (TAF), för lokal spridning av data. Till skillnad från konventionella trådlösa nät och avkänningssystem fungerar TAF-systemet på ett opportunistiskt sätt och behöver ingen nätinfrastruktur. Närmare bestämt vidarebefordrar systemet alltid meddelanden till passerande fordon om de rör sig i motsatt riktning. Med hjälp av simuleringar av både syntetiska och realistiska nätverksscenarier, visar vi att professuren är enkel, praktisk och effektiv för lokaliserad dataspridning i fordonsanalysnätverk. Dessutom är systemet lätt att använda, så länge som varje fordon i nätet kan få tillgång till CPS-information. Ett fordonssensornätverk (YSN) är en typ av trådlöst sensornätverk (WSN) som ger äldre resursbelastade WSNs genom att utnyttja de rika resurserna (t.ex. batteritid, lagringskapacitet och rörlighet) hos fordon. Under de senaste åren har ett stort antal forskningsinsatser gjorts på detta område, och flera verkliga satsningar har genomförts för att visa genomförbarheten och potentialen hos YSN. De potentiella tillämpningarna av YSN är omfattande. Till exempel skulle det vara fördelaktigt att använda fordonsanalyssystem för att rapportera vägförhållanden [8], övervaka miljöföroreningar [10], och tillhandahålla stadsövervakning [13]. YSN skiljer sig från konventionella trådlösa nätverk och avkänningssystem på flera olika sätt. För det första kan full täckning inte garanteras för infrastrukturbaserade nätverk (t.ex. WiMAX, GPRS och 3G) i YSNs, eftersom de senare kan behöva leva i obebodda områden och utmanande miljöer (t.ex. i berg och desserter). För det andra kan MAN ET-baserade lösningar inte tillämpas direkt på YSN, eftersom nätverkskontakter (dvs. , kommunikationsmöjligheter) är intermittenta och oförutsägbara på grund av mångfalden av rörlighet, och MANET-baserade lösningar har svårt att upprätthålla end-to-end vägar i ett nätverk. För det tredje är lösningar baserade på DTN (delay tolerant tolerant network) inte heller lämpliga, eftersom de sensed data i YSN:er kan variera/kompliceras ofta, och DTN-baserade lösningar är korta på avkastningstid och tillförlitlig dataöverföring. Dessutom, i YSNs, den sensed data är mestadels lokal till sin natur, dvs. vehicular nätverk är främst intresserade av information från en händelsekälla som är i närheten. Vi kan till exempel vara intresserade av information om trafikstockningar på den väg vi tar till en destination, eller luftföroreningar avläsningar i det område där vi arbetar eller bor. I idealfallet bör lokal spridning av data 1) endast påverka fordon i det område där informationen är relevant, och 2) säkerställa att alla fordon som är anslutna till nätet i området är medvetna om informationen. Intuitivt, lokaliserad dataspridning i YSNs kan uppnås genom att genomföra geocasting-baserade metoder, som är utformade för att leverera meddelanden till alla intresserade kamrater inom en geografisk destinationsregion. För att komma till rätta med denna brist föreslår vi en ny lösning, To-and-Fro (TAF), för lokal spridning av data i fordonsanalysnätverk. TAF-systemet är ett opportunistiskt nätbaserat tillvägagångssätt som inte kräver ett fullständigt täckt infrastrukturbaserat nät, och det är inte nödvändigt att upprätthålla en end-to-end-väg mellan källan och destinationen. I synnerhet följer TAF-systemet en mycket enkel regel: det vidarebefordrar bara meddelanden till passerande fordon om de färdas i motsatt riktning. Med hjälp av en omfattande uppsättning simuleringar utvärderar vi TAF-systemet när det gäller den rumsliga fördelningen, meddelandepopulationen, spridningsförhållandet och lastfördelningen. Resultaten visar att systemet är enkelt, praktiskt och mycket effektivt när det gäller att bevara data som uppfattas i de regioner som ligger nära evenemangskällan och därmed uppfyller målet om lokal spridning av data. Dessutom är det lätt att använda den så länge som GPS-informationen (dvs. den geografiska positionen och rörelseriktningen) kan nås av varje fordon i nätet. Resten av tidningen är organiserad enligt följande. Avsnitt II innehåller en översyn av relaterade arbeten. I avsnitt III beskriver vi det föreslagna tillvägagångssättet, kallat TAF, för lokaliserad dataspridning i opportunistiska fordonsnätverk. I avsnitt IY presenteras en omfattande uppsättning simuleringsresultat; resultaten analyseras och förklaras också i detalj. Då ska vi göra det.
I REF introducerade författarna To-and-Fro (TaF), en lokal lösning för dataspridning med hjälp av opportunistisk VSN.
2,115,781
Localized data dissemination in vehicular sensing networks
{'venue': '2009 IEEE Vehicular Networking Conference (VNC)', 'journal': '2009 IEEE Vehicular Networking Conference (VNC)', 'mag_field_of_study': ['Computer Science']}
3,637
I detta dokument föreslår vi en återkommande ram för gemensamt oövervakat lärande av djupa representationer och bildkluster. I vårt ramverk, på varandra följande operationer i en kluster algoritm uttrycks som steg i en återkommande process, staplas ovanpå representationer ut av en Convolutional Neural Network (CNN). Under utbildningen uppdateras bildkluster och representationer gemensamt: bildkluster utförs i det framåtgående passet, medan representationsinlärning i det bakåtpasset. Vår centrala idé bakom denna ram är att goda representationer är till nytta för bildkluster och klusterresultat ger övervakningssignaler till representationsinlärning. Genom att integrera två processer i en enda modell med en enhetlig viktad triplet förlust funktion och optimera den endto-end, kan vi få inte bara mer kraftfulla representationer, men också mer exakta bildkluster. Omfattande experiment visar att vår metod överträffar den senaste tekniken på bildkluster över en mängd olika bilddatauppsättningar. Dessutom generaliserar de lärda framställningarna väl när de överförs till andra uppgifter. Källkoden kan laddas ner från https: // github.com/ jwyang/ joint- unövervakad- learning.
Yang m.fl. I Ref föreslås en strategi för att gemensamt lära sig djupa representationer och bildkluster genom att kombinera agglomerativa kluster med CNN och formulera dem som en återkommande process.
8,105,340
Joint Unsupervised Learning of Deep Representations and Image Clusters
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
3,638
Mekanismdesign söker algoritmer vars ingångar tillhandahålls av själviska agenter som skulle ljuga om det vore fördelaktigt. Incitamentskompatibla mekanismer tvingar agenterna att säga sanningen genom att göra det i sitt eget intresse att göra det. Ofta, som i kombinatoriska auktioner, sådana mekanismer innebär lösningen av NP-hårda problem. Tyvärr, approximation algoritmer normalt förstör incitament kompatibilitet. Randomiserad avrundning är en vanlig teknik för att utforma approximationsalgoritmer. Vi utformar en version av randomiserad avrundning som är incitamentskompatibel, vilket ger en sanningsenlig mekanism för kombinatoriska auktioner med enstaka parameteragenter (t.ex. "ensamsinnade budgivare") som ungefär maximerar auktionens sociala värde. Vi diskuterar två ortogonala föreställningar om sannfärdighet för en randomiserad mekanism, sannfärdighet med hög sannolikhet och i förväntan, och ger en mekanism som uppnår båda samtidigt. Vi anser kombinatoriska auktioner där flera kopior av många olika objekt är till salu, och varje budgivare jag önskar en delmängd S~. Med tanke på en uppsättning anbud, problemet med att hitta fördelningen av poster som maximerar den totala värderingen är det välkända SETPACKING problemet. Detta problem är NP-hård, men för objekt med många identiska kopior kan den optimala approximeras mycket väl. För att trimma denna approximationsalgoritm till en sanningsenlig auktionsmekanism övervinner vi två problem: vi visar hur man gör tilldelningsalgoritmen monoton, och ger en metod för att beräkna lämpliga betalningar på ett effektivt sätt.
Archer m.fl. Ref beaktade ett annat fall av ensinnade anbudsgivare där flera identiska kopior finns tillgängliga för olika typer av objekt.
5,975,757
An approximate truthful mechanism for combinatorial auctions with single parameter agents
{'venue': "SODA '03", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,639
För att möta de framväxande behoven hos tillämpningar som kräver tillgång till och hämtning av multimediaobjekt utvecklar vi Multimedia Analysis and Retrieval System (MARS) i vår grupp vid universitetet i Illinois 26]. I detta dokument koncentrerar vi oss på hämtningsdelsystemet MARS och dess stöd för innehållsbaserade frågor över bilddatabaser. Innehållsbaserad hämtningsteknik har studerats ingående för textdokument inom området automatisk hämtning av information 36, 3]. Detta dokument beskriver hur dessa tekniker kan anpassas för rangordnad hämtning över bilddatabaser. Speci callay, vi diskuterar de ranknings- och hämtningsalgoritmer som utvecklats i MARS baserat på Boolesk hämtningsmodell och beskriver resultaten av våra experiment som visar effektiviteten i den utvecklade modellen för hämtning av bilder.
Ortega m.fl. REF-stöd rankad hämtning över bilddatabaser som en del av deras MARS-system.
6,100,861
Supporting Ranked Boolean Similarity Queries in MARS
{'venue': 'IEEE Trans. Knowl. Data Eng.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,640
Abstract-Vi presenterar nya tekniker för att analysera problemet med låg-rank matris återhämtning. Metoderna är både betydligt enklare och mer generella än tidigare metoder. Det visas att en okänd n × n matris av rang r effektivt kan rekonstrueras från endast O (nrν ln 2 n) slumpmässigt provade expansionskoefficienter med avseende på varje given matrisbas. Antalet v kvantifierar "graden av inkonsekvens" mellan den okända matrisen och basen. Befintligt arbete koncentrerades främst på problemet med "matriskomplettering" där man strävar efter att återställa en låg-rankad matris från slumpmässigt utvalda matriselement. Vårt resultat omfattar denna situation som ett specialfall. Beviset består av en rad relativt elementära steg, som står i kontrast till de mycket involverade metoder som tidigare använts för att uppnå jämförbara resultat. I fall där gränser hade varit kända tidigare, våra uppskattningar är något snävare. Vi diskuterar operatörsbaser som är osammanhängande med alla lågrankade matriser samtidigt. För dessa baser, visar vi att O (nrν ln n) slumpmässigt provade expansionskoefficienter räcker för att återställa någon låg rank matris med hög sannolikhet. Den senare är bunden till multiplikativa konstanter.
Förutom matris komplettering, Gross analyserade problemet med att effektivt återvinna en låg-rank matris från en bråkdel av observationer i någon bas REF.
14,576,833
Recovering low-rank matrices from few coefficients in any basis
{'venue': 'IEEE Trans. on Information Theory, vol. 57, pages 1548 - 1566 (2011)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Physics']}
3,641
Abstract-I en opålitlig en-hop sändningsnätverk inställning, undersöker vi genomströmning och avkodning-delay prestanda slumpmässiga linjära nätverk kodning som en funktion av kodning fönsterstorlek och nätverksstorlek. Vår modell består av en källa som överför paket av ett enda flöde till en uppsättning användare över oberoende tidskorrelerade radering kanaler. Källan utför slumpmässig linjär nätkodning (RLNC) över (kodning fönsterstorlek) paket och sänder dem till användarna. Vi noterar att sändningsgenomströmningen av RLNC måste försvinna med ökande, För alla fasta. Till skillnad från andra verk i litteraturen undersöker vi därför hur kodningsfönstrets storlek måste skalas för att öka. Vår analys visar att kodfönstrets storlek representerar en fasövergångshastighet, under vilken genomströmningen konvergerar till noll, och över vilken den konvergerar till sändningskapaciteten. Vidare karakteriserar vi den asymmetriska fördelningen av avkodningsfördröjning och ger ungefärliga uttryck för medelvärdet och variansen av avkodningsfördröjning för skalningssystemet av. Dessa asymptotiska uttryck avslöjar påverkan av kanal korrelationer på genomströmning och fördröjning prestanda av RLNC. Vi visar också att hur vår analys kan utvidgas till andra hastighetslösa blockkodningssystem som LT-koderna. Slutligen kommenterar vi utvidgningen av våra resultat till att omfatta fall av beroende kanaler mellan användare och asymmetrisk kanalmodell. Index Terms-Broadcast, fördröjningsanalys, radering kanal, nätverkskodning.
På liknande sätt, Eryilmaz et al. Ref tog också hänsyn till modellen för ett enda humlenät, där källan sänder en fil som består av paket till n-användare, genom att utföra Random Linear Network Coding (RLNC), för en tidskorrelerad radering kanalmodell.
554,624
Throughput-Delay Analysis of Random Linear Network Coding for Wireless Broadcasting
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,642
Många vetenskapliga fält studerar data med en underliggande struktur som är ett icke-Euklidiskt utrymme. Några exempel är sociala nätverk inom beräkningssamhällsvetenskap, sensornätverk inom kommunikation, funktionella nätverk inom hjärnavbildning, regulatoriska nätverk inom genetik och nedsmutsade ytor inom datorgrafik. I många tillämpningar är sådana geometriska data stora och komplexa (i fråga om sociala nätverk, i storleksordningen miljarder) och är naturliga mål för maskininlärningsteknik. I synnerhet skulle vi vilja använda djupa neurala nätverk, som nyligen har visat sig vara kraftfulla verktyg för ett brett spektrum av problem från datorseende, bearbetning av naturligt språk och ljudanalys. Dessa verktyg har dock varit mest framgångsrika på data med en underliggande Euclidean eller rutnät-liknande struktur, och i de fall där invarianterna av dessa strukturer är inbyggda i nätverk som används för att modellera dem. Geometriskt djupinlärning är en paraplyterm för framväxande tekniker som försöker generalisera (strukturerade) djupa neurala modeller till icke-Euklidiska domäner såsom grafer och grenrör. Syftet med denna uppsats är att överblicka olika exempel på geometriska djupinlärningsproblem och presentera tillgängliga lösningar, viktiga svårigheter, tillämpningar och framtida forskningsinriktningar inom detta nya område.
Geometrisk djupinlärning Nya arbeten inom området geometrisk djupinlärning REF generaliserade konvolutioner till grafer och Riemannska grenrör.
15,195,762
Geometric deep learning: going beyond Euclidean data
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,643
Sammanfattning av denna webbsida: Trådlös teknik blir allt mer attraktiv för industriell kommunikation. När det gäller fabriksautomation gör de höga kommunikationskraven när det gäller förutsägbarhet, tillförlitlighet och realtid införandet av trådlös teknik utmanande, på grund av ineffektiviteten i de trådlösa fysiska skikten och deterministiska protokollen för mediumåtkomst (MAC). I detta dokument, en frekvensdomän röstning MAC protokoll (FDP-MAC) föreslås, som drar nytta av den ortogonala frekvensdelning multiplexing (OFDM) teknik för att uppnå samtidigt röstning. I FDP-MAC presenteras också en dynamisk tidsdelning med flera åtkomster (TDMA) och en nedlänksigenkänningsmetod för att ytterligare förbättra kommunikationens effektivitet. Vi validerar effektiviteten hos FDP-MAC genom simuleringar, och resultaten indikerar att FDP-MAC kan uppfylla typiska fabriksautomationsprograms kommunikationskrav.
Tidningen REF presenterar en frekvensdomän röstning MAC protokoll för WIA-PA.
26,436,561
Polling in the frequency domain: a new MAC protocol for industrial wireless network for factory automation
{'venue': 'Int. J. Ad Hoc Ubiquitous Comput.', 'journal': 'Int. J. Ad Hoc Ubiquitous Comput.', 'mag_field_of_study': ['Computer Science']}
3,644
Abstract-Multicore arkitekturer är utformade för att ge en acceptabel prestanda per enhet effekt för de flesta applikationer. Följaktligen måste vi ibland förvänta oss tillämpningar som skulle ha kunnat dra nytta av en starkare kärna när det gäller antingen lägre genomförandetid och/eller lägre energiförbrukning. Att samla några av resurserna i två (eller fler) kärnor för att konfigurera en mer kraftfull kärna för sådana fall är en naturlig strategi för att hantera de få applikationer som har mycket höga prestanda krav. En nyligen genomförd studie har dock visat att homogena kärnor sannolikt inte kommer att gynna tillämpningar. I detta dokument studerar vi de potentiella prestandafördelarna med kärnmorfering i en heterogen multicoreprocessor som kan konfigureras om vid körning. Vi anser som ett exempel en dubbel kärna processor med en av de två kärnor som är utformade för att rikta heltal intensiva applikationer medan den andra är bättre lämpad för flytta-punkt intensiva applikationer. Dessa två kärnor kan sammansmältas till en enda kraftfull kärna när en applikation som kan dra nytta av en sådan fusion körs. Vi diskuterar först designprinciperna för de två enskilda kärnorna så att majoriteten av de riktmärken som vi anser ska genomföras på ett tillfredsställande sätt. Vi visar sedan att en liten delmängd av de berörda ansökningarna i hög grad kan dra nytta av kärnmorfering även i det fall där två ansökningar som kunde ha utförts parallellt på de två kärnorna körs, under en viss procent av tiden, på den enda morferade kärnan. Våra resultat tyder på att en prestandavinst på upp till 100% kan uppnås vid en liten hårdvara på mindre än 1%.
Das m.fl. REF har föreslagit en asymmetrisk dubbelkärnig processor med en kärna med starkt heltal instruktion stöd medan den andra har stark flyttal stöd.
10,640,314
A study on performance benefits of core morphing in an asymmetric multicore processor
{'venue': '2010 IEEE International Conference on Computer Design', 'journal': '2010 IEEE International Conference on Computer Design', 'mag_field_of_study': ['Computer Science']}
3,645
"I gemensamma vetenskapliga insatser som sträcker sig över tjugo år, initialt i samarbete med J.C. Shaw vid RAND Corporation, och därefter med många fakultet och studentkollega { vid Carnegie-Mellon University, har tlney gjort grundläggande bidrag till artificiell intelligens, psykologi av mänsklig kognition, och lista bearbetning. "I artificiell intelligens, de bidrog till etableringen av området som ett område för vetenskaplig strävan, till utvecklingen av heuristisk programmering i allmänhet, och av heuristisk sökning, innebär avslutar analys, och metoder för induktion, i synnerhet; att tillhandahålla demonstrationer av kakel sufi~,ektivitet av dessa mekanismer för att lösa intressanta problem. "I psykologin, de var huvudanstiftare av idén att mänsklig kognition kan beskrivas i termer av ett symbolsystem, och de har utvecklat detaljerade teorier fbr mänskliga problemlösning, verbal inlärning och induktiva beteende i ett antal uppgiftsdomäner, med hjälp av datorprogram som förkroppsligar dessa teorier för att simulera kakel mänskligt beteende, "De var uppenbarligen uppfinnare av listbehandling, och har varit stora bidrag till både programvaruteknik och utvecklingen av begreppet tlne dator som ett system för att manipulera symboliska strukturer och inte bara som en processor av numeriska data. "Det är en ära tbr professorer Newell och Simon att få denna utmärkelse, men det är också en ära för ACM att kunna lägga till sina namn till vår lista över mottagare, eftersom de genom sin närvaro kommer att öka prestigen och betydelsen av ACM Turing Award." Allen Newel1 och Herbert A. Simon C o m p u u t e r vetenskap är studien av p h e n o m e n a s u r o u n d i n g c o m p u u t e r s. Grundarna av detta samhälle förstod detta mycket väl när de kallade sig för A s o c i a t i o n för C o m p u t i n g M a c h i n e r y. T h e maskin----inte j u s t h a r d w a r e, men p r o g r a m e d, lever m a c h i n e --i s o r a n i m vi studerar. Detta är den tionde T u r i n g Föreläsning. De nio personer som föregick oss på denna p l a t f o r m har framfört nio olika åsikter om c o m p u t e r vetenskap. F o r vår organism, maskinen, kan studeras på m a n y nivåer och från m a n y sidor. I dag är det dags att lägga fram ett förslag, det som har genomsyrat det vetenskapliga perspektivet som vi har arbetat för.
Newell och Simon REF stödde också ett symboliskt tillvägagångssätt.
5,581,562
Computer science as empirical inquiry: symbols and search
{'venue': 'CACM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,646
Abstrakt. Visual Notation for OWL Ontologies (VOWL) är ett väldefinierat visuellt språk för den användarorienterade representationen av ontologier. Den definierar grafiska avbildningar för de flesta delar av Web Ontology Language (OWL) som kombineras till en force-directed graf layout visualiserar ontology. I motsats till relaterat arbete strävar VOWL efter en intuitiv och heltäckande representation som också är förståelig för användare som är mindre förtrogna med ontologier. Artikeln presenterar VOWL i detalj och beskriver dess genomförande i två olika verktyg: ProtégéVOWL och WebVOWL. Den första är en plugin för ontologi redaktören Protégé, den andra en fristående webbapplikation. Båda verktygen visar tillämpligheten av VOWL med hjälp av olika ontologier. Dessutom sammanfattas resultaten av tre användarstudier som utvärderar VOWL:s begriplighet och användbarhet. De kompletteras med resultat från en intervju med erfarna ontologianvändare och från att testa VOWL:s visuella omfattning och fullständighet med ett riktmärke för ontologi. Utvärderingarna bidrog till att förbättra VOWL och bekräfta att det producerar jämförelsevis intuitiva och begripliga ontologivisualiseringar.
Steffen Lohmanna et al., i REF presentera VOWL i detalj och beskriva dess genomförande i två olika verktyg: Protégé VOWL och Web VOWL.
259,636
Visualizing ontologies with VOWL
{'venue': 'Semantic Web', 'journal': 'Semantic Web', 'mag_field_of_study': ['Philosophy', 'Computer Science']}
3,647
När du skriver papper, hur många gånger vill du göra några citat på en plats men du är inte säker på vilka papper att citera? Vill du ha ett rekommendationssystem som kan rekommendera ett litet antal bra kandidater för varje plats som du vill göra några citeringar? I detta dokument presenterar vi vårt initiativ att bygga upp ett sammanhangsmedvetet system för rekommendationer om citeringar. Högkvalitativ citering rekommendation är utmanande: inte bara bör de citeringar som rekommenderas vara relevanta för papperet under sammansättning, men också bör matcha de lokala sammanhangen av de platser citeringar görs. Dessutom är det långt ifrån trivialt att modellera hur ämnet för hela papperet och sammanhangen för citeringsplatserna bör påverka urvalet och rangordningen av citeringar. För att ta itu med problemet utvecklar vi en kontextmedveten strategi. Grundidén är att utforma en ny icke-parametrisk probabilistisk modell som kan mäta den kontextbaserade relevansen mellan ett citeringssammanhang och ett dokument. Vår strategi kan rekommendera citeringar för ett sammanhang på ett effektivt sätt. Dessutom kan den rekommendera en uppsättning citeringar för ett papper med hög kvalitet. Vi implementerar ett prototypsystem i CiteSeerX. En omfattande empirisk utvärdering i det digitala biblioteket CiteSeerX mot många baslinjer visar effektiviteten och skalbarheten i vårt tillvägagångssätt.
I detta dokument koncentrerar vi oss på sammanhangsmedveten hänvisningsrekommendation REF.
207,178,743
Context-aware citation recommendation
{'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,648
I detta dokument presenteras en metod för att kombinera fråge-relevans med informations-nyhet i samband med textsökning och sammanfattning. Kriteriet Maximal Marginal Relevance (MMR) strävar efter att minska redundansen samtidigt som frågerelevansen bibehålls vid omvärdering av hämtade dokument och vid val av apprw priate passager för textsammanfattning. Preliminära resultat tyder på vissa fördelar för MMR mångfald rankning i dokumenthämtning och i enkel dokumentsammanfattning. De senare bekräftas av de senaste resultaten från SUMMAC-konferensen i utvärderingen av sammanfattande system. Den tydligaste fördelen är dock att man konstruerar icke-redundanta sammanfattningar av flera dokument, där MMR-resultaten är klart bättre än icke-MMR-passageval.
Ett annat relaterat arbete kan hittas i REF, där Carbonell och Goldstein föreslog att omranka hämtade dokument, och använda Maximal Marginal Relevance (MMR) kriterium för att minska redundans.
6,334,682
The use of MMR, diversity-based reranking for reordering documents and producing summaries
{'venue': "SIGIR '98", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,649
Att hitta liknande användarpar är en grundläggande uppgift i sociala nätverk, med många applikationer i rankning och personalisering uppgifter såsom länk förutsägelse och binda styrka upptäckt. En gemensam manifestation av användarlikhet bygger på nätverksstruktur: varje användare representeras av en vektor som representerar användarens nätverksanslutningar, där parvis cosinuslikhet mellan dessa vektorer definierar användarlikhet. Den dominerande uppgiften för användare likhet program är att upptäcka alla liknande par som har en parvis cosinus likhet värde större än en given tröskel τ. I motsats till tidigare arbete där τ antas vara ganska nära 1 fokuserar vi på rekommendationer där τ är liten, men ändå meningsfull. De alla par cosinus likhet problem är beräkningsmässigt utmanande på nätverk med miljarder kanter, och särskilt så för inställningar med små τ. Såvitt vi vet finns det ingen praktisk lösning för att beräkna alla användare par med, säger τ = 0.2 på stora sociala nätverk, även med hjälp av kraften i distribuerade algoritmer. Vårt arbete tar direkt itu med denna utmaning genom att införa en ny algoritm -WHIMP - som löser detta problem effektivt i MapReduce-modellen. Den viktigaste insikten i WHIMP är att kombinera "wedge-sampling" tillvägagångssätt Cohen-Lewis för ungefärlig matris multiplikation med SimHash slumpmässiga projektion tekniker Charikar. Vi tillhandahåller en teoretisk analys av WHIMP, som visar att den har nära optimala kommunikationskostnader samtidigt som beräkningskostnaderna är jämförbara med den senaste tekniken. Vi visar också empiriskt WHIMP skalbarhet genom att beräkna alla mycket liknande par på fyra massiva datamängder, och visar att det exakt finner hög likhet par. Vi noterar särskilt att WHIMP framgångsrikt bearbetar hela Twitter-nätverket, som har tiotals miljarder kanter.
Ett annat relevant resultat är kilprovtagningsmetoden i REF.
7,534,831
When Hashes Met Wedges: A Distributed Algorithm for Finding High Similarity Vectors
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,650
I detta dokument föreslås en trädkärna med kontextkänslig strukturerad parsträdsinformation för relationsextraktion. Den löser två kritiska problem i tidigare trädkärnor för relationsextraktion på två sätt. För det första bestämmer det automatiskt ett dynamiskt sammanhangskänsligt träd spännvidd för relationsextraktion genom att utvidga det allmänt använda kortaste Path-avslutade trädet (SPT) till att inkludera nödvändig kontextinformation utanför SPT. För det andra föreslås en kontextkänslig konvolutionsträdkärna, som räknar upp både kontextfria och kontextkänsliga underträd genom att betrakta deras förfader nodvägar som sina sammanhang. Dessutom utvärderar detta dokument den kompletterande naturen mellan vår trädkärna och en toppmodern linjär kärna. Utvärdering på ACE RDC corpora visar att vår dynamiska kontextkänsliga träd spänner är mycket mer lämplig för relationsextraktion än SPT och vår trädkärna överträffar toppmodern Collins och Duffys konvolution trädkärna. Det visar också att vår trädkärna uppnår mycket bättre prestanda än de toppmoderna linjära kärnorna. Slutligen visar det att funktionsbaserade och trädkärnbaserade metoder mycket kompletterar varandra och att den sammansatta kärnan mycket väl kan integrera både platta och strukturerade funktioner.
Zhou m.fl. REF föreslog en komposit av trädkärnan och en linjär kärna som överträffade de enskilda kärnorna.
8,835,255
Tree Kernel-Based Relation Extraction with Context-Sensitive Structured Parse Tree Information
{'venue': '2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,651
Abstract-Vi anser att kluster spelare beteende och lära sig den optimala teamsammansättningen för multiplayer online-spel. Målet är att bestämma en uppsättning beskrivande spel stil grupperingar och lära en prediktor för vinst / förlust resultat. Förutsägaren tar in som indata spelstilarna för deltagarna i varje lag, dvs. de olika lagkompositionerna i ett spel. Vårt ramverk använder oövervakad inlärning för att hitta beteendekluster, som i sin tur används med klassificeringsalgoritmer för att lära sig utfallet prediktor. För våra numeriska experiment anser vi League of Legends, ett populärt lagbaserat rollspel utvecklat av Riot Games. Vi observerar de lärda kluster för att inte bara bekräfta väl med spelkunskap, men också ge insikter överraskande för experter spelare. Vi visar också att spelresultat kan förutsägas med ganska hög noggrannhet givet lagets sammansättning-baserade funktioner.
REF klustererade spelare beteende och lärde sig den optimala teamsammansättningen.
1,430,618
Player Behavior and Optimal Team Composition for Online Multiplayer Games
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,652
Abstract-I trådlösa sensornätverk behövs datafusion i nätverk för energieffektivt informationsflöde från en pluralitet av sensorer till en central server eller diskho. Eftersom data (antingen råa eller sammansmälta) sprids mot diskbänken är flera nivåer av datafusion sannolika. Datafusionen på olika nivåer bör synkroniseras för att säkra data på ett effektivt sätt. Det är viktigt att information från så många sensorer som möjligt sammansmälts för att öka trovärdigheten för den aggregerade rapporten. Det finns dock kompromisser mellan att samla ett stort antal sensorrapporter och den latens som uppstår i aggregationsprocessen. De vägar som tas av data mot diskbänken avgör var data kan sammansmältas, och därmed, har en effekt på effektiviteten i aggregeringsprocessen. I detta arbete föreslår vi en metod genom vilken de olika fusionsnivåerna synkroniseras för att säkerställa att den aggregerade rapporten har en önskvärd avvägning mellan trovärdighet och latens, oberoende av topologin för den struktur som skapas genom integreringen av de vägar på vilka data färdas mot diskbänken.
Synkronisering av flera nivåer av datafusion REF anser detta problem, men det är baserat på en centralt beräknad väntetid.
3,176,620
Synchronization of multiple levels of data fusion in wireless sensor networks
{'venue': "GLOBECOM '03. IEEE Global Telecommunications Conference (IEEE Cat. No.03CH37489)", 'journal': "GLOBECOM '03. IEEE Global Telecommunications Conference (IEEE Cat. No.03CH37489)", 'mag_field_of_study': ['Computer Science']}
3,653
Klimatanpassningsskal (CABS) får ökad uppmärksamhet eftersom de kan möjliggöra högpresterande byggnadsdesign som kombinerar låg energiförbrukning med god inomhusmiljökvalitet (IEQ). Olika studier har erkänt potentialen hos CABS med säsongsanpassning, men hittills finns det ingen metod för att kvantifiera deras prestandapotential. I detta dokument presenteras en ram för design- och prestandaanalys av CABS med optimala säsongsanpassningsstrategier. Ramverket bygger på en sekvens av multiobjektiva optimeringsscenarier och använder en genetisk algoritm i kombination med kombinerade byggenergi- och dagsljussimuleringar. Resultaten från en fallstudie med en kontorsbyggnad i Nederländerna visar hur effektiv ramen är när det gäller att kvantifiera potentialen hos säsongsbetonat CABS. Resultaten av fallstudien visar att månatlig anpassning av sex fasadkonstruktionsparametrar kan leda till förbättrade IEQ-förhållanden och 15-18 % energibesparingar jämfört med det bästa icke-adaptiva byggskalet. Genom postoptimeringsanalys av månatliga och årliga lösningar får man en bättre förståelse för de viktigaste inslagen i säsongsbetonad fasadanpassning.
C Kasinalis m.fl. REF beskriver ett ramverk för bedömning av prestanda hos säsongsanpassade fasader med hjälp av multiobjektiv optimering.
2,291,277
Framework for assessing the performance potential of seasonally adaptable facades using multi-objective optimization
{'venue': None, 'journal': 'Energy and Buildings', 'mag_field_of_study': ['Engineering']}
3,654
Deep Neural Networks (DNN) har nyligen visat sig vara sårbara mot kontradiktoriska exempel, som är noggrant utformade fall som kan vilseleda DNN att göra fel under förutsägelser. För att bättre förstå sådana attacker krävs en karakterisering av regionernas egenskaper (de så kallade adversariska subrymderna) där kontradiktoriska exempel ligger. I synnerhet krävs effektiva åtgärder för att diskriminera kontradiktoriska exempel från normala exempel i sådana regioner. Vi tar itu med denna utmaning genom att karakterisera de kontradiktoriska regionernas dimensionella egenskaper, genom att använda lokal intrinsisk dimensionalitet (LID). LID bedömer rymdfyllningskapaciteten i regionen som omger ett referensexempel, baserat på avståndsfördelningen av exemplet till sina grannar. Vi ger först förklaringar om hur kontradiktorisk perturbation kan påverka LID-karakteristiken i kontradiktoriska regioner, och sedan empiriskt visa att LID-karakteristika kan underlätta upptäckten av kontradiktoriska exempel som genereras med hjälp av de toppmoderna attackerna. Vi visar att när man ansöker om kontradiktorisk detektion kan en LID-baserad metod överträffa flera toppmoderna detektionsåtgärder med stora marginaler för fem attackstrategier i tre referensdatauppsättningar. Vår analys av LID-karakteristiken för kontradiktoriska regioner motiverar inte bara nya riktningar för ett effektivt kontradiktoriskt försvar, utan öppnar också upp fler utmaningar för att utveckla nya attacker för att bättre förstå sårbarheten hos DNN.
En potentiell tillämpning av lokal inneboende dimensionalitet studeras för att skilja mellan kontradiktoriska exempel REF.
1,248,661
Characterizing Adversarial Subspaces Using Local Intrinsic Dimensionality
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,655
Abstract-A generalized analys av IEEE 802.15.4 medium access control (MAC) protokoll i termer av tillförlitlighet, fördröjning och energiförbrukning presenteras. Den exponentiella backoff-processen IEEE 802.15.4 modelleras genom en Markov-kedja med hänsyn till försöksgränser, erkännanden och omättad trafik. Det föreslås enkla och effektiva approximationer av tillförlitlighet, förseningar och energiförbrukning inom ramen för systemet med låg trafik. Det visas att fördröjningsfördelningen av IEEE 802.15.4 huvudsakligen beror på MAC-parametrar och kollisionssannolikhet. Dessutom analyseras påverkan av MAC-parametrar på prestandamåtten. Analysen är mer allmän och ger mer exakta resultat än befintliga metoder i litteraturen. Monte Carlo simuleringar bekräftar att de föreslagna approximationer erbjuder en tillfredsställande noggrannhet.
På liknande sätt, Park et al. REF modellerade tillförlitligheten, fördröjningen och energiförbrukningen för IEEE 802.15.4 MAC-skiktet med hjälp av MC, och visade att prestandamåtten huvudsakligen beror på MAC-parametrar och kollisionssannolikheten.
9,084,033
A generalized Markov chain model for effective analysis of slotted IEEE 802.15.4
{'venue': '2009 IEEE 6th International Conference on Mobile Adhoc and Sensor Systems', 'journal': '2009 IEEE 6th International Conference on Mobile Adhoc and Sensor Systems', 'mag_field_of_study': ['Computer Science']}
3,656
I denna forskning skisserar vi ett användarmodelleringssystem som använder både oövervakat och övervakat maskininlärning för att minska utvecklingskostnaderna för att bygga användarmodeller och underlätta överförbarhet. Vi tillämpar ramverket för modellinlärning under interaktion med Adaptive Coach for Exploration (ACE) inlärningsmiljö (med både gränssnitt och eyetracking data). Förutom att visa rameffektivitet jämför vi också resultat från tidigare forskning om att tillämpa ramverket på en annan inlärningsmiljö och datatyp. Våra resultat bekräftar också tidigare forskning om värdet av att använda eyetracking data för att bedöma studentinlärning.
REF De tillämpar ett ramverk för modellinlärning under interaktion med inlärningsmiljön Adaptive Coach for Exploration (ACE) (med både gränssnitts- och eyetrackingdata).
1,154,863
Unsupervised and supervised machine learning in user modeling for intelligent learning environments
{'venue': "IUI '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,657
Konstruktionen och prestandan hos Berkeley Continuous Media Toolkit (CMT) beskrivs. CMT ger en programmeringsmiljö för snabb utveckling av kontinuerliga medietillämpningar. CMT overhead mäts i samband med en enkel videouppspelningsprogram och visar sig vara bara några millisekunder per spelad ram. Som en demonstration av CMT som forskningsinfrastruktur beskrivs ett experiment som jämför adaptiv ramfrekvenskontrollpolicy. Nyckelord: kontinuerlig media, verktygslåda, prototyper. Detta dokument beskriver utformningen av Berkeley Continuous Media Toolkit (CMT) och resultaten av försök som genomförts för att testa systemets prestanda. CMT ger en snabb utvecklingsmiljö för multimediaapplikationer som använder kontinuerliga medier (t.ex. video, ljud osv.). Systemet tillhandahåller objekt för att utföra mediaspecifika operationer (t.ex. ,fånga, butik, lek, etc.) och en enkel programmeringsmodell för byggapplikationer. Syftet med detta dokument är att visa livskraften hos ett allmänt användbart, portabelt verktyg för kontinuerliga medier genom att kvantifiera CMT:s omkostnader i samband med en simp'e-videouppspelning och genom att demonstrera användningen av CMT som ett forskningsverktyg. Mätningar av CMT prestanda indikerar att verktygslådan overhead är bara några millisekunder per mediaenhet (dvs. bildram) för grundläggande uppspelningsfunktionalitet. Flexibiliteten hos CMT visas i ett enkelt experiment som är utformat för att mäta prestandan hos en mängd olika adaptiva responsalgoritmer för hastighetskontroll för att leverera och spela MPEG- och MJPEG-data. Den aktuella kontinuerliga medieforskningen bedrivs på en mängd olika nivåer. På lägsta nivå, nya media komprimeringsstandarder (t.ex. MPEG6, h.2618, källkod kodningssystem, etc.) och kommunikationsprotokoll (t.ex. RTP20, RSVP26 osv.) utforskas. Ofta är dessa nya system särskilt utformade för särskilda tillämpningar (t.ex. videokonferenser, animationer osv.). och ägnar sig åt frågor som skalbarhet och döljande av fel. Utveckling och prestanda av specifika tillämpningar är en annan nivå av kontinuerlig medieforskning. Vic12 och kar är exempel på dessa forskningsinsatser. På högsta nivå omfattar kontinuerlig medieforskning stora system som video-on-demand (VOD) och interaktiv television. Ett livskraftigt system för kontinuerlig medieforskning skulle göra det möjligt för olika forskare att utföra experiment på någon av dessa nivåer och utnyttja systeminfrastruktur och tillämpningar på andra nivåer för att testa end-to-end-prestanda. CMT utvecklades för att underlätta uppbyggnaden av nya tillämpningar och skapa en ram för forskning på alla nivåer. CMT är ett extensibelt, öppet system, och det är tillräckligt flexibelt för att stödja en mängd olika tillämpningsmodeller. Plattformsoberoende portabilitet tillhandahålls för att fungera i den heterogena miljön på Internet. Med hjälp av CMT är det möjligt att utföra experiment utan att behöva uppfinna och implementera ett helt multimediasystem. Till exempel, med hjälp av CMT forskare har undersökt ett antal frågor som rör kontinuerliga medier inklusive: 1) en kommandoström media typ 4, 2) ett protokoll för att leverera kontinuerliga mediedata över ett ATM-nätverk, 3) en realtidskommunikation protokoll23, 4) nya komprimeringsalgoritmer (t.ex., VQ10
Berkeley Continuous Media Toolkit REF ] är multiplattform och använder Tcl/TK.
16,911,016
Design and performance of the Berkeley Continuous Media Toolkit
{'venue': 'Electronic Imaging', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']}
3,658
Detta papper presenterar en visuell-inertiell odometri ram som tätt sammansmälter tröghetsmätningar med visuella data från en eller flera kameror, med hjälp av ett itererat utökat Kalman filter. Genom att använda bildlappar som landmärkesdeskriptorer härleds ett fotometriskt fel, som är direkt integrerat som en innovationsterm i filteruppdateringssteget. Därför är databindningen en naturlig del av uppskattningsprocessen och det krävs inga ytterligare extraktions- eller matchningsprocesser. Dessutom möjliggör det spårning av icke-hörnformade funktioner, såsom linjer, och därmed ökar uppsättningen av möjliga landmärken. Filtret är formulerat på ett helt robocentriskt sätt, vilket minskar fel relaterade till icke-linjäritet. Detta inkluderar även partitionering av ett landmärkes platsskattning i en bäringsvektor och avstånd och möjliggör därmed en ofördröjd initiering av landmärken. Sammantaget resulterar detta i en kompakt strategi, som uppvisar en hög nivå av robusthet med avseende på låg scen struktur och rörelse oskärpa. Dessutom finns det ingen tidskrävande initieringsförfarande och pose uppskattningar finns tillgängliga från och med den andra bildramen. Vi testar filtret på olika verkliga dataset och jämför det med andra toppmoderna visuella-inertiella ramar. Experimentella resultat visar att robust lokalisering med hög noggrannhet kan uppnås med detta filterbaserade ramverk.
h) ROVIO: Robust Visual Inertial Odometrie REF använder ett Iterated Extended Kalman Filter för att nära sammanfoga IMU-data med bilder från en eller flera kameror.
29,967,714
Iterated extended Kalman filter based visual-inertial odometry using direct photometric feedback
{'venue': None, 'journal': 'The International Journal of Robotics Research', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,660
Abstract-Wireless sensornätverk är vanligtvis utformade för tillståndskontroll applikationer och för att spara energi men inte för tidskritiska applikationer med strikta realtidsbegränsningar som kan hittas i industriell automation och avionik domän. I detta dokument föreslår vi ett nytt protokoll för medium åtkomst (MAC) som definieras som trådlös skiljeförfarande (WirArb) som ger varje användare kanal tillgång baserat på deras olika prioritetsnivåer. Det föreslagna MAC-protokollet stöder flera användare och varje användare är pre-tilldelad en specifik skiljedomsfrekvens som bestämmer ordningen för kanalåtkomst. Med denna mekanism kan vi se till att användaren med högsta prioritet omedelbart får tillgång till kanalen och vi kan garantera ett deterministiskt beteende. För att utvärdera den föreslagna MAC, använder vi en diskret tid Markov kedja modell för att matematiskt formulera WirArb protokollet. Våra resultat visar att det föreslagna protokollet ger hög prestanda för att säkerställa deterministisk realtidskommunikation och bandbreddseffektivitet.
Tao och Al. föreslog en mekanism som kan fördela kraven till användarkanaler baserat på olika prioritetsnivåer och se till att användaren med högsta prioritet omedelbart kommer att få kanalåtkomst REF.
7,692,313
WirArb: A New MAC Protocol for Time Critical Industrial Wireless Sensor Network Applications
{'venue': 'IEEE Sensors Journal', 'journal': 'IEEE Sensors Journal', 'mag_field_of_study': ['Computer Science']}
3,661
Abstract-Cloud computing är en typ av parallellt och distribuerat system som består av en samling sammankopplade och virtuella datorer. Med den ökande efterfrågan och fördelarna med molndatainfrastruktur kan olika datortjänster utföras på molnmiljön. En av de grundläggande frågorna i denna miljö har att göra med uppgiftsplanering. Moln uppgift schemaläggning är ett NP-hård optimering problem, och många meta-heuristiska algoritmer har föreslagits för att lösa det. En bra schemaläggare bör anpassa sin schemaläggningsstrategi till den föränderliga miljön och de olika typerna av uppgifter. I detta dokument har en policy för schemaläggning av molnuppgifter baserat på optimering av myrkolonier för lastbalansering jämfört med olika schemaläggningsalgoritmer föreslagits. Ant Colony Optimization (ACO) är slumpmässig optimering sökmetod som kommer att användas för att fördela inkommande jobb till virtuella maskiner. Det viktigaste bidraget från vårt arbete är att balansera systembelastningen samtidigt som vi försöker minimera omfattningen av en given uppgift. Belastningsbalansfaktorn, som är relaterad till avslutandet av arbetet, föreslås göra det möjligt att avsluta arbetet med olika resurser på liknande sätt och att förbättra lastbalanseringens förmåga. Den föreslagna schemaläggningsstrategin simulerades med hjälp av Cloudsim-verktygspaket. Experimentella resultat visade att den föreslagna algoritmen överträffade schemaläggningsalgoritmer som är baserade på grundläggande ACO eller Modified Ant Colony Optimization (MACO).
Keshk m.fl. I REF föreslogs användning av optimerad myrkoloni för lastbalansering.
37,022,027
Cloud Task Scheduling for Load Balancing based on Intelligent Strategy
{'venue': None, 'journal': 'International Journal of Intelligent Systems and Applications', 'mag_field_of_study': ['Computer Science']}
3,662
Crowd counting har nyligen väckt ett ökat intresse för datorseende men är fortfarande ett utmanande problem. I detta dokument föreslår vi en trellis encoder-dekoder nätverk (Tednet) för crowd counting, som fokuserar på att generera hög kvalitet densitet estimering kartor. De viktigaste bidragen är fyrafaldiga. För det första utvecklar vi en ny trellis-arkitektur som innehåller flera avkodningsvägar till hierarkiskt aggregerade funktioner i olika kodningsfaser, vilket förbättrar den representativa förmågan hos konvolutionella funktioner för stora variationer i objekt. För det andra använder vi täta skip-anslutningar som interleaved över vägar för att underlätta tillräcklig multi-scale funktion fusioner, vilket också hjälper TEDnet att absorbera tillsynsinformationen. För det tredje föreslår vi en ny kombinatorisk förlust för att upprätthålla likheter i lokal sammanhållning och rumslig korrelation mellan kartor. Genom att distribuera denna kombinatoriska förlust på mellanliggande utgångar, TEDnet kan förbättra back-förökningsprocessen och lindra lutning försvinner problem. Slutligen, på fyra allmänt använda riktmärken, uppnår vårt TEDnet den bästa övergripande prestandan både när det gäller densitet karta kvalitet och räkning noggrannhet, med en förbättring upp till 14% i MAE metrisk. Dessa resultat validerar TEDnets effektivitet för crowd counting.
Jiang m.fl. REF föreslog Trellis Encoder-Decoder Networks (Tednet), som kunde uppskatta en högkvalitativ crowd densitet karta för räkning.
67,856,061
Crowd Counting and Density Estimation by Trellis Encoder-Decoder Networks
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
3,663
Abstrakt. I allmänt förekommande nätverk kan mobila noder (MN) ofta lida av prestandanedbrytning på grund av följande två orsaker: (1) minskning av signalstyrkan genom en MN rörelse och mellanliggande föremål, och (2) radiointerferens med andra WLAN. Därför är det viktigt att snabbt och tillförlitligt upptäcka försämringen av ett trådlöst länktillstånd för att undvika försämring av kommunikationskvaliteten under överlämnandet. I våra tidigare arbeten har vi fokuserat på ett beslutskriterium som gör det möjligt för MN att upprätthålla kommunikationens kvalitet och pekat på problemen med befintliga beslutskriterier. Dessutom visade vi effektiviteten i antalet omsändningar genom simuleringsförsök. En jämförelse mellan signalstyrkan och antalet omsändningar inom ramen kunde dock inte undersökas på grund av att signalstyrkan var otillförlitlig i simuleringar. Därför jämför vi i detta dokument, genom att använda FTP- och VoIP-tillämpningar, signalstyrkan och antalet frame retransmissioner som ett beslutskriterium med experiment i termer av (1) och (2) i en verklig miljö. Slutligen visar vi på problemen med signalstyrka i motsats till effektiviteten hos antalet omsändningar inom ramen som ett beslutskriterium för överlämnande.
I REF uppgav författarna att prestandanedbrytningen i mobila noder (MN) vanligtvis berodde på minskad signalstyrka orsakad av mobila noders rörelse, mellanliggande objekt och radiointerferens med andra trådlösa lokala nätverk (WLANs).
14,524,222
Experimental Evaluation of Decision Criteria for WLAN Handover: Signal Strength and Frame Retransmission
{'venue': 'IEICE Transactions', 'journal': 'IEICE Transactions', 'mag_field_of_study': ['Computer Science']}
3,664
Word sense induktion (WSI) försöker automatiskt upptäcka sinnena av ett ord i en corpus via oövervakade metoder. Vi föreslår en sense-topic modell för WSI, som behandlar känsla och ämne som två separata latenta variabler som ska härledas gemensamt. Ämnena är informerade av hela dokumentet, medan sinnena är informerade av det lokala sammanhang som omger det tvetydiga ordet. Vi diskuterar också oövervakade sätt att berika den ursprungliga corpus för att förbättra modellen prestanda, inklusive att använda neurala ord inbäddningar och externa corpora för att utöka sammanhanget för varje data instans. Vi uppvisar betydande förbättringar jämfört med den tidigare toppmoderna tekniken och uppnår de bästa resultat som hittills rapporterats om uppgiften SemEval-2013 WSI.
Den sense-topic modellen REF är en annan typ av strukturerad latent rörlig modell relaterad till vårt arbete.
14,389,684
A Sense-Topic Model for Word Sense Induction with Unsupervised Data Enrichment
{'venue': 'Transactions of the Association for Computational Linguistics', 'journal': 'Transactions of the Association for Computational Linguistics', 'mag_field_of_study': ['Computer Science']}
3,665
Heterogena trådlösa nätverk (HetNets) ger en kraftfull strategi för att möta den dramatiska mobiltrafikens tillväxt, men innebär också en betydande utmaning för backhaul. Caching och multicasting vid makro och pico basstationer (BS) är två lovande metoder för att stödja massiv innehåll leverans och minska backhaul belastning i HetNets. I detta dokument överväger vi gemensamt caching och multicasting i en storskalig cache-aktiverad HetNet med backhaul begränsningar. Vi föreslår en hybrid caching design bestående av identiska caching i makro-tier och slumpmässig caching i pico-tier, och en motsvarande multicasting design. Genom att noggrant hantera olika typer av interferenser och anta lämpliga approximationer, härleder vi dragbara uttryck för den framgångsrika transmissionssannolikheten i det allmänna signal-till-brus-förhållandet (SNR) och användardensitetsregionen samt den höga SNR- och användardensitetsregionen, med hjälp av verktyg från stokastisk geometri. Då anser vi att den framgångsrika överföringssannolikheten maximeras genom att optimera konstruktionsparametrar, vilket är ett mycket utmanande blandat diskret-kontinuerligt optimeringsproblem. Genom att utforska strukturella egenskaper får vi en nästan optimal lösning med överlägsen prestanda och hanterbar komplexitet. Denna lösning uppnår bättre prestanda i den allmänna regionen än någon asymptotiskt optimal lösning, under ett milt tillstånd. Analysen och optimeringsresultaten ger värdefulla designinsikter för praktiska cache-aktiverade HetNets.
Cui m.fl. I REF föreslogs en hybrid caching och multicasting policy i cachenenabled HetNets, och härledde de dragbara uttrycken för framgång överföringsannolikhet.
3,502,942
Analysis and Optimization of Caching and Multicasting in Large-Scale Cache-Enabled Heterogeneous Wireless Networks
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,666
Eftersom komprimerade data, som ofta används i datorsystem och kommunikationssystem, är mycket känsliga för fel, har flera metoder för felåterställning för datakomprimering föreslagits. Felåterställningsmetod för LZ77-kodning, en av de mest populära universella datakomprimeringsmetoderna, har föreslagits. Detta kan inte tillämpas på LZSS-kodning, en variant av LZ77-kodning, eftersom dess komprimerade data består av kodord med variabel längd. I detta dokument föreslås en metod för utbyte av fel för LZSS-kodning. Den felkänsliga delen av den komprimerade data kodas av unary kodning och flyttas till början av komprimerade data. Efter dessa data infogas en synkroniseringssekvens. Genom att söka i synkroniseringssekvensen detekteras fel i den felkänsliga delen. Felen återvinns med hjälp av en kopia av delen. Datorsimulering säger att kompressionsförhållandet för den föreslagna metoden är nästan lika med det för LZ77-kodning och att den har mycket hög felåterställningsförmåga.
Den föreslagna metoden i REF kodar en felkänslig del av LZSS komprimerade data genom att använda unary kodning.
34,614,235
Burst Error Recovery Method for LZSS Coding
{'venue': 'IEICE Transactions', 'journal': 'IEICE Transactions', 'mag_field_of_study': ['Computer Science']}
3,667
I detta dokument behandlas problemet med samtidig spårning av flera mål i en video. Vi applicerar först objektdetektorer på varje videoram. Par av detektion svar från varannan på varandra följande ramar används sedan för att bygga en graf av tracklets. Grafen hjälper transitivt länka de bästa matchande spår som inte kränker hårda och mjuka kontextuella begränsningar mellan de resulterande spåren. Vi bevisar att detta data association problem kan formuleras som att hitta maximal vikt oberoende uppsättning (MWIS) av grafen. Vi presenterar en ny, polynom-tid MWIS algoritm, och visar att det konvergerar till en optimal. Likhet och kontextuella begränsningar mellan objektdetektioner, som används för databindning, lärs online från objektets utseende och rörelseegenskaper. Långsiktiga ocklusioner hanteras genom att man iterativt upprepar MWIS för att hierarkiskt slå samman mindre spår till längre. Våra resultat visar på fördelar med att samtidigt redovisa mjuka och hårda kontextuella begränsningar i multimålspårning. Vi överträffar toppmodernheten på referensdataseten.
Långsiktiga ocklusioner hanteras i REF genom sammanslagning av utseende och rörelselikhet.
816,262
Multiobject tracking as maximum weight independent set
{'venue': 'CVPR 2011', 'journal': 'CVPR 2011', 'mag_field_of_study': ['Computer Science']}
3,668
Abstract-Vi föreslår ett nytt system för att bevisa administrativ rollbaserad åtkomstkontroll (ARBAC) politik korrekt med avseende på säkerhetsegenskaper med hjälp av de kraftfulla abstraktionbaserade verktyg som finns för programverifiering. Vårt system använder en kombination av abstraktion och reduktion för att programverifiering för att utföra säkerhetsanalys. Vi konverterar ARBAC politik till tvingande program som simulerar politiken abstrakt, och sedan använda ytterligare abstrakt-tolkning tekniker från programanalys för att analysera programmen för att bevisa politiken säker. Vi hävdar att de aggressiva set-abstraktioner och numerisk-abstraktioner vi använder är naturliga och lämpliga i passerkontroll inställning. Vi implementerar vårt schema med hjälp av ett verktyg som kallas VAC som översätter ARBAC-policyer till tvingande program följt av en intervallbaserad statisk analys av programmet, och visar att vi effektivt kan bevisa åtkomstkontroll policyer korrekt. Det viktigaste inslaget i vårt tillvägagångssätt är de abstraktionssystem vi utvecklar och minskningen av rollbaserad åtkomstkontrollsäkerhet (som inte har något att göra med program) till programverifieringsproblem.
Ferrara et al REF konverterade ARBAC-policyer till tvingande program och tillämpade abstrakt-tolkning tekniker för att analysera de konverterade programmen.
17,570,614
Security Analysis of Role-based Access Control through Program Verification
{'venue': '2012 IEEE 25th Computer Security Foundations Symposium', 'journal': '2012 IEEE 25th Computer Security Foundations Symposium', 'mag_field_of_study': ['Computer Science']}
3,669
Bakgrund: Kardiokockografi (CTG) är det mest använda verktyget för fosterövervakning. Den visuella analysen av fostrets hjärtfrekvens (FHR) spår beror till stor del på expertis och erfarenhet av den berörda kliniken. Flera tillvägagångssätt har föreslagits för en effektiv tolkning av FHR. I detta dokument föreslås en ny metod för FHR-funktionsextraktion baserad på empirisk nedbrytning (EMD), som användes tillsammans med stödvektormaskin (SVM) för klassificering av FHR-inspelningar som "normala" eller "i riskzonen". Metoder: FHR registrerades från 15 försökspersoner med en provtagningshastighet på 4 Hz och ett dataset bestående av 90 slumpmässigt utvalda register med 20 minuters varaktighet bildades från dessa. Alla register var märkta som "normala" eller "i riskzonen" av två erfarna obstetriker. Ett träningsset bildades av 60 poster, de återstående 30 kvar som testsetet. Standardavvikelserna för EMD-komponenterna är indata som funktioner till en stödvektormaskin (SVM) för klassificering av FHR-prover. Resultat: För träningssetet resulterade ett femfaldigt korsvalideringstest i en noggrannhet på 86 % medan det totala geometriska medelvärdet för känslighet och specificitet var 94,8 %. Kappa-värdet för träningssetet var.923. Tillämpningen av den föreslagna metoden på testuppsättningen (30 poster) resulterade i ett geometriskt medelvärde på 81,5 %. Kappa-värdet för testuppsättningen var.684. Slutsatser: På grundval av systemets övergripande prestanda kan det konstateras att den föreslagna metoden är en lovande ny metod för utvinning och klassificering av FHR-signaler.
Krupa m.fl. I REF föreslogs en ny metod för FHR-signalanalys baserad på Empirical Mode Decomposition (EMD) för funktionsextraktion och SVM med RBF för klassificering av FHR-inspelningar.
2,307,023
Antepartum fetal heart rate feature extraction and classification using empirical mode decomposition and support vector machine
{'venue': 'BioMedical Engineering OnLine', 'journal': 'BioMedical Engineering OnLine', 'mag_field_of_study': ['Medicine', 'Computer Science']}
3,670
Vanligtvis är tvåspråkiga ordvektorer utbildade "online". Mikolov m.fl. (2013a) visade att de också kan hittas "offline", varigenom två förtränade inbäddningar är i linje med en linjär omvandling, med hjälp av ordböcker som sammanställts från expertkunskap. I detta arbete bevisar vi att den linjära omvandlingen mellan två utrymmen bör vara ortogonal. Denna omvandling kan erhållas med hjälp av singular value sönderdelning. Vi introducerar en roman "inverterad softmax" för att identifiera översättning par, med vilken vi förbättrar precisionen @1 av Mikolov ursprungliga kartläggning från 34% till 43%, när du översätter en testuppsättning som består av både vanliga och sällsynta engelska ord till italienska. Ortogonala omvandlingar är mer robusta för buller, vilket gör att vi kan lära oss omvandlingen utan expert tvåspråkig signal genom att bygga en "pseudo-ordbok" från identiska tecken strängar som visas på båda språken, uppnå 40% precision på samma testuppsättning. Slutligen utökar vi vår metod för att hämta de sanna översättningarna av engelska meningar från en corpus på 200k italienska meningar med en precision @1 av 68%.
REF visade vidare hur ortogonalitet krävdes för att förbättra enhetligheten i tvåspråkiga kartläggningar, vilket gjorde dem mer robusta för buller.
11,591,887
Offline bilingual word vectors, orthogonal transformations and the inverted softmax
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,671
Abstract-Förstå objekt stater är lika viktigt som objekt erkännande för robotisk uppgift planering och manipulation. Så vitt vi vet introducerar och tar detta dokument för första gången upp problemet med statlig identifiering i matlagningsrelaterade bilder. I detta papper utforskas föremål och ingredienser i matlagningsvideor och de vanligaste föremålen analyseras. Elva tillstånd från de vanligaste matlagning objekt undersöks och en datauppsättning av bilder som innehåller dessa objekt och deras tillstånd skapas. Som en lösning på problemet med statsidentifiering föreslås en djup modell baserad på Resnet. Modellen initieras med Imagenet-vikter och tränas på datasetet för elva klasser. Den utbildade statsidentifieringsmodellen utvärderas på en delmängd av Imagenet-datasetet och tillståndsetiketter tillhandahålls med hjälp av en kombination av modellen med manuell kontroll. Dessutom finjusteras en individuell modell för varje objekt i datauppsättningen med hjälp av vikterna från den från början utbildade modellen och objektspecifika bilder, där betydande förbättringar visas.
I REF infördes en datauppsättning av tillstånd för matlagningsobjekt och problemet med statsklassificering i matlagningsrelaterade bilder togs upp.
29,153,614
Identifying Object States in Cooking-Related Images
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,672
I detta dokument diskuteras tekniker för överföring av slätare video mer eektivt över ett trådlöst nätverk. Uktueringen av trådlösa kanalförhållanden kan lägga till en betydande fördröjning till videopaket och få dem att missa sin speltid. Om en video slätas ut är det möjligt att selektivt leverera paket som försenats vid basstationen för att minska effekten av de saknade paketen till videokvaliteten. I detta dokument presenterar vi en enkel men ändå effektiv paketvalalgoritm som uppnår detta mål. Algoritmen avgör om man ska överföra ett paket baserat på kanalförhållanden samt hur sannolikt högre prioritetslager i resten av videon kan levereras i tid. Vi introducerar begreppet \quality index" för att mäta algoritmens prestanda. Resultat från spårdrivna simuleringar visar att algoritmens prestanda är nära optimal under en mängd olika kanalförhållanden när tröskeln ställs in mellan 0,7 och 0,9.
Kleinrock et al REF föreslog ett schemaläggningssystem som bestämmer vilka paket som ska överföras baserat på förutsägelser om hur lager i framtida ramar kan levereras.
18,375,844
A Packet Selection Algorithm for Adaptive Transmission of Smoothed Video Over a Wireless Channel
{'venue': 'JOURNAL OF PARALLEL AND DISTRIBUTED COMPUTING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,673