src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Automatisk ansiktsuttrycksanalys är ett intressant och utmanande problem och påverkar viktiga tillämpningar inom många områden såsom människa-datorinteraktion och datadriven animation. Att härleda en effektiv ansiktsrepresentation från ursprungliga ansiktsbilder är ett viktigt steg för en lyckad ansiktsuttrycksigenkänning. I denna uppsats utvärderar vi empiriskt ansiktsrepresentation baserad på statistiska lokala funktioner, lokala binära mönster, för personoberoende ansiktsuttrycksigenkänning. Olika maskininlärningsmetoder undersöks systematiskt i flera databaser. Omfattande experiment visar att LBP-funktioner är effektiva och effektiva för ansiktsuttrycksigenkänning. Vi formulerar dessutom Boosted-LBP för att extrahera de mest diskriminerande LBP-funktionerna, och den bästa igenkänningsprestandan erhålls genom att använda Support Vector Machine-klassificerare med Boostered-LBP-funktioner. Dessutom undersöker vi LBP-funktioner för ansiktsuttrycksigenkänning med låg upplösning, vilket är ett kritiskt problem men sällan tas upp i det befintliga arbetet. Vi observerar i våra experiment att LBP funktioner utför stabilt och robust över ett användbart utbud av låga upplösning av ansiktsbilder, och ger lovande prestanda i komprimerade lågupplösta videosekvenser som fångas i verkliga miljöer.
I REF utvecklades ett ansiktsuttrycksigenkänningssystem baserat på LBP.
589,516
Facial expression recognition based on Local Binary Patterns: A comprehensive study
{'venue': 'Image Vis. Comput.', 'journal': 'Image Vis. Comput.', 'mag_field_of_study': ['Computer Science']}
80,904
Abstract-This paper introducerar koncept och algoritmer för funktionsval, enkäter befintliga funktionsval algoritmer för klassificering och klusterering, grupper och jämför olika algoritmer med en kategorisering ram baserad på sökstrategier, utvärderingskriterier, och data mining uppgifter, avslöjar outforskade kombinationer, och ger riktlinjer för att välja funktionsval algoritmer. Med kategoriseringen fortsätter vi arbetet med att bygga ett integrerat system för intelligent val av funktioner. En enhetlig plattform föreslås som ett mellansteg. Ett belysande exempel presenteras för att visa hur befintliga funktionsvalsalgoritmer kan integreras i en metaalgoritm som kan dra nytta av enskilda algoritmer. En extra fördel med att göra det är att hjälpa en användare att använda en lämplig algoritm utan att känna till detaljer om varje algoritm. Vissa verkliga applikationer ingår för att visa användningen av funktionsval vid datautvinning. Vi avslutar detta arbete genom att identifiera trender och utmaningar i urvalsforskning och utveckling.
Liu och Yu Ref föreslog en kategorisering ram för att bygga ett integrerat system för automatisk funktionsval.
1,607,600
Toward integrating feature selection algorithms for classification and clustering
{'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']}
80,905
Nyckelord programmering är en ny teknik för att minska behovet av att komma ihåg detaljer i programmeringsspråk syntax och API:er, genom att översätta ett litet antal nyckelord som tillhandahålls av användaren till ett giltigt uttryck. Tidigare arbete har visat på genomförbarheten och förtjänsten med detta tillvägagångssätt på begränsade områden. Detta dokument presenterar en ny algoritm som skalar till den mycket större domänen av allmän-purpose Java programmering. Vi testade algoritmen genom att extrahera nyckelord från metodsamtal i projekt med öppen källkod, och fann att den exakt kunde rekonstruera över 90% av de ursprungliga uttrycken. Vi genomförde också en studie med nyckelord som genererats av användare, vars resultat tyder på att användare kan få rätt Java-kod med hjälp av sökordsförfrågningar så exakt som de kan skriva rätt Java-kod själva.
Little och Miller REF byggde ett system som översätter ett litet antal nyckelord, som tillhandahålls av användaren, till ett giltigt uttryck.
53,224,512
Keyword programming in java
{'venue': "ASE '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,906
Abstract-Inlike konventionella ansiktsuttryck, mikrouttryck är ögonblickliga och ofrivilliga reflektioner av mänskliga känslor. Eftersom mikrouttryck är flyktiga, som bara består av några få bilder i en videosekvens, är de svåra att uppfatta och tolka korrekt, och de är mycket utmanande att identifiera och kategorisera automatiskt. Befintliga igenkänningsmetoder är ofta ineffektiva när det gäller att hantera subtila förskjutningar i ansiktet, vilket kan vara vanligt i typiska mikrouttryckstillämpningar på grund av de konstanta rörelserna hos de individer som observeras. För att ta itu med detta problem föreslås en ny metod som kallas Facial Dynamics Map för att karakterisera rörelserna av en mikrouttryck i olika granularitet. Specifikt används en algoritm baserad på optisk flödesuppskattning för att utföra pixelnivåjustering för mikrouttryckssekvenser. Varje uttryck sekvens delas sedan in i spatiotemporala kuboider i den valda granulariteten. Vi presenterar också en iterativ optimal strategi för att beräkna den huvudsakliga optiska flödesriktningen för varje kuboid för bättre representation av den lokala ansiktsdynamiken. Med dessa huvudsakliga riktningar, den resulterande Facial Dynamics Map kan karakterisera en mikrouttryck sekvens. Slutligen utvecklas en klassificering för att identifiera förekomsten av mikrouttryck och kategorisera olika typer. Experimentella resultat på fyra referensdatauppsättningar visar högre igenkänningsprestanda och förbättrad tolkningsbarhet.
Facial Dynamics Map (FDM) REF beskriver lokal ansiktsdynamik genom att extrahera huvud av riktningen för varje kuboid.
12,472,647
Microexpression Identification and Categorization Using a Facial Dynamics Map
{'venue': 'IEEE Transactions on Affective Computing', 'journal': 'IEEE Transactions on Affective Computing', 'mag_field_of_study': ['Psychology', 'Computer Science']}
80,907
Att förstå lärande och generalisering av djupa arkitekturer har varit ett stort forskningsmål under de senaste åren med anmärkningsvärda teoretiska framsteg. En huvudpunkt för generaliseringsstudier är framgången för alltför stora nätverk som trotsar den klassiska visdomen av enhetlig konvergens och inlärningsförmåga. Vi studerar empiriskt den lagermässigt funktionella strukturen hos överparameteriserade djupa modeller. Vi ger bevis för den heterogena egenskapen hos lager. För att göra det, introducerar vi begreppet (efter träning) re-inialisering och re-randomization robusthet. Vi visar att lager kan kategoriseras i antingen "robust" eller "kritisk". I motsats till kritiska lager har det inte några negativa konsekvenser att återställa de robusta skikten till sitt ursprungliga värde, och i många fall förändras de knappt under träningen. Vår studie ger ytterligare belägg för att enbart parameterräkning eller norm redovisning är alltför grov i att studera generalisering av djupa modeller, och planhet eller robusthet analys av modellparametrarna måste respektera nätverk arkitekturer. Efter träning, för ett givet lager d = 1,..., D, kan vi re-initalisera parametrarna genom uppdrag T d ← 0 d, samtidigt som parametrarna för de andra skikten förblir oförändrade. Modellen med parametrarna ( ska T 1,. .., utvärderas sedan. Om inget annat anges använder vi termen prestanda för att beteckna klassificeringsfel på testdata. Prestandan av ett nätverk i vilket lager d återinitierades kallas re-inialisering robusthet lager d. Observera att här 0 d betecknar de slumpmässiga värden som realiseras i början av utbildningen. Mer allmänt, för k tid steg 0 = τ 1 < τ 2 < · · · < τ k−1 < τ k = T, kan vi återinitiera d - th skiktet genom att ställa in T d ← ∂ τ d, och få re-initialization robusthet lager d efter τ uppdateringar. För att gå ett steg längre, vi undersöker också re-randomization av ett lager d genom att omsampling slumpmässiga värden på d P d och utvärdera modellens prestanda för ( ska T 1,. .., ska T d −1, ska d, T d +1,.... .., ska T D )....., till T D. )............ )................................................................................................. Analogt hänvisar vi till den utvärderade prestandan som re-randomization robusthet av lager d. Observera att det inte finns någon omskolning eller finjustering efter re-initialization eller re-randomization, och nätverket utvärderas direkt med blandade vikter. När ett nätverk uppvisar ingen eller försumbar minskning av prestandan efter omstart eller omrandomisering av ett lager, säger vi att lagret är robust, och annars kallas lagret kritiskt. I detta avsnitt studerar vi lager robusthet av vanligt använda neurala nätverk på standardbild klassificering riktmärken, särskilt MNIST, CIFAR10 och ImageNet. Alla nätverk utbildas med hjälp av SGD med Nesterov momentum, och bitvis konstant inlärningshastighet schema. Se bilaga A för ytterligare information.
I REF kan man till exempel också konstatera att skikten har heterogena egenskaper; i det fallet betecknas arbetsskikten antingen som "robust" eller "kritiska", och robusta lager kan till och med återställas till sitt ursprungliga värde utan några negativa konsekvenser.
59,606,288
Are All Layers Created Equal?
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,908
Detta papper ger en länk mellan matroid teori och lokalt reparerbara koder (LRCs) som är antingen linjära eller mer allmänt nästan affin. Med hjälp av denna länk, nya resultat på både LRCs och matroid teori härleds. Parametrarna (n, k, d, r, δ) för LRC är generaliserade till matroider, och matroid analog av den generaliserade singleton bunden av Gopalan et al. för linjära LRCs ges för matroider. Det visas att den givna gränsen inte är snäv för vissa kategorier av parametrar, vilket innebär en icke-existens resultat för motsvarande lokalt reparerade nästan affina koder som myntas perfekt i detta papper. Konstruktioner av klasser av matroider med en stor spännvidd av parametrarna (n, k, d, r, δ) och motsvarande lokala reparationsset anges. Med hjälp av dessa matroid konstruktioner, nya LRC är konstruerade med föreskrivna parametrar. Existensen resultat på linjära LRCs och icke-existens resultat på nästan affina LRCs ges i detta dokument stärka icke-existens och existens resultat på perfekta linjära LRCs ges av Song et al.
Det visades i REF att varje nästan afffin LRC inducerar en matroid sådan att parametrarna (n, k, d, r, δ) av LRC visas som matroidinvarianter.
2,912,367
On the Combinatorics of Locally Repairable Codes via Matroid Theory
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,909
Enhetsdrivrutiner kör vanligen i kärnan för att uppnå hög prestanda och enkel åtkomst till kärntjänster. Detta sker dock till priset av minskad tillförlitlighet och ökade svårigheter i programplaneringen. Driver programmerare kan inte använda användarläge utvecklingsverktyg och måste istället använda besvärliga kärnverktyg. Fel i kärnans drivrutiner kan orsaka att hela operativsystemet kraschar. Drivrutiner i användarläge har länge setts som en lösning på detta problem, men lider av antingen dålig prestanda eller nya gränssnitt som kräver en omskrivning av befintliga drivrutiner. Detta dokument introducerar Microdrivers arkitektur som uppnår hög prestanda och kompatibilitet genom att lämna kritisk vägkod i kärnan och flytta resten av drivrutinskoden till en användarläge process. Detta gör det möjligt för datahanteringsoperationer som är kritiska för I/O-prestanda att köras med full hastighet, medan hanteringsoperationer som initiering och konfiguration körs med reducerad hastighet i användarnivå. För att uppnå kompatibilitet presenterar vi DriverSlicer, ett verktyg som delar upp befintliga kärndrivrutiner i en kärnkomponent och en användarkomponent med hjälp av ett litet antal programmerareanteckningar. Experiment visar att så mycket som 65% av drivrutinskoden kan tas bort från kärnan utan att påverka vanlig prestanda, och att endast 1-6 procent av koden kräver kommentarer.
För att utnyttja programverktyg på användarnivå och minska fel på kärnnivå som införts av drivrutiner, partitionerar Microdriver REF en befintlig drivrutin till en kärna nivå drivrutin som hanterar prestandakritiska uppgifter och en användarnivå drivrutin som behandlar problem med låga prestanda.
14,420,164
The design and implementation of microdrivers
{'venue': 'ASPLOS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,910
Under stora evenemang publiceras en stor mängd innehåll på Twitter, men allt detta innehåll är inte tillförlitligt. Förekomsten av spam, annonser, rykten och falska bilder minskar värdet av information som samlas in från Twitter, särskilt under plötsliga krishändelser där information från andra källor är knapp. I detta forskningsarbete beskriver vi olika aspekter av att bedöma trovärdigheten hos användargenererat innehåll på Twitter under storskaliga evenemang, och utvecklar ett nytt realtidssystem för att bedöma trovärdigheten hos tweets. För det första utvecklar vi en halvövervakad rankningsmodell med SVM-rankning för att bedöma trovärdigheten, baserad på utbildningsdata från sex krishändelser med hög effekt 2013. En omfattande uppsättning av 45 funktioner används för att bestämma trovärdighet poäng för varje tweets. För det andra utvecklar och distribuerar vi ett system-TweetCred -i form av en webbläsartillägg, en webbapplikation och ett API på länken: http://twitdigest.ibitd.edu.in/TweetCred/. Såvitt vi vet är detta det första forskningsarbetet för att utveckla ett praktiskt system för trovärdighet på Twitter och utvärdera det med riktiga användare. TweetCred installerades och användes av 717 Twitter-användare inom tre veckor. Under denna period beräknades en trovärdighetspoäng för mer än 1,1 miljoner unika tweets. För det tredje utvärderade vi TweetCreds realtidsresultat och konstaterade att 84 procent av trovärdighetspoängen visades inom 6 sekunder. Vi rapporterar om den positiva feedback som vi fick från systemets användare och de insikter vi fick för att förbättra systemet för framtida iterationer.
Trovärdighet av engelska tweets: I REF utvecklade författarna den första trovärdighetsanalysatorn i realtid genom en semiövervakad rankningsmodell (TweetCred).
17,506,782
TweetCred: A Real-time Web-based System for Assessing Credibility of Content on Twitter.
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,911
Befintliga metoder för omidentifiering av personer (ReID) bygger vanligtvis på enramsbildfunktioner, samtidigt som man bortser från rymdtidsinformation från bildsekvenser som ofta är tillgängliga i de praktiska övervakningsscenarierna. Single-frame (single-shot) baserad utseende matchning är i sig begränsad för person ReID i offentliga utrymmen på grund av den utmanande visuell tvetydighet och osäkerhet som uppstår från icke-överlappande kamera vyer där visning villkor förändringar kan orsaka betydande förändringar människor utseende. I detta arbete presenterar vi en ny modell för att automatiskt välja de mest diskriminerande videofragment från bullriga/ofullständiga bildsekvenser av människor från vilka tillförlitliga rum-tid och utseende funktioner kan beräknas, samtidigt som du lär dig en video ranking funktion för person ReID. Med hjälp av PID2011, iLIDS-VID, och HDA+ bildsekvensdatauppsättningar, genomförde vi omfattande jämförande utvärderingar för att visa fördelarna med den föreslagna modellen över samtida gångigenkänning, holistisk bildsekvensmatchning och toppmoderna singel-/multi-shot ReID-metoder.
Wang m.fl. REF väljer tillförlitliga rumstidsfunktioner från bullriga/ofullständiga bildsekvenser samtidigt som du lär dig en videorankingfunktion.
3,464,415
Person Re-Identification by Discriminative Selection in Video Ranking
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
80,912
ABSTRACT I detta dokument anser vi att ett obemannade luftfartyg (UAV)-aktiverat trådlöst kommunikationsnät (WPCN), där en roterande UAV används som en hybrid ingångspunkt (AP) för att betjäna flera markanvändare (GU). I synnerhet skördar GU radiofrekvens (RF) energi från den signal som skickas av UAV, som sedan används av GU för att driva sin upplänk informationsöverföring till UAV. I praktiken är uppdragets slutförandetid och energiförbrukning två viktiga index för att utvärdera prestandan hos UAV-aktiverad kommunikation. För att slutföra uppdraget så snart som möjligt bör UAV flyga över markanvändarna den fungerar med maximal hastighet, men detta leder till att mer framdrivningsenergi förbrukas. Vårt mål är att avslöja energi-tidsavvänjningen, som kännetecknas av gränsen för den så kallade energi-tid-regionen. Vi härleder först den matematiska formen av kompromissen, UAV bana, användaren schemaläggning och uppdraget slutförande tid, liksom tidstilldelningen, som alla måste vara gemensamt optimerade. I detta syfte föreslår vi två kommunikationsprotokoll: (i) fly-hover-kommunicate och (ii) path discretization. För varje protokoll finner vi först de två ytterligheterna, där minimienergiförbrukning och minimitid för uppdragets slutförande uppnås. Vi fullbordar sedan gränsen för att minimera energiförbrukningen för given tid för uppdragets slutförande. Dessutom, på grund av problemets icke konvexitet, föreslår vi en algoritm för att få en lokalt optimal lösning baserad på den successiva konvexa approximationstekniken (SCA) för båda konstruktionerna. Slutligen ges simuleringsresultaten för att validera effektiviteten i vår studie.
En roterande UAV som fungerar som en hybridaccesspunkt kommunicerad med markanvändare i det trådlösa kommunikationsnätet i REF ; författarna syftade till att avslöja energi-tidens avsättning genom banoptimering och tidstilldelning med den maximala hastighetsgränsen för UAV.
195,775,665
Energy Consumption and Completion Time Tradeoff in Rotary-Wing UAV Enabled WPCN
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
80,913
Abstract-I detta brev, vi anser en storskalig multipleinput multiple-output (MIMO) system där mottagaren bör skörda energi från sändaren genom trådlös kraftöverföring för att stödja sin trådlösa informationsöverföring. Energistråleformningen i det storskaliga MIMO-systemet används för att ta itu med det utmanande problemet med trådlös fjärröverföring. Dessutom, med tanke på begränsningen av effekten i ett sådant system, fokuserar denna skrivelse på att maximera energieffektiviteten för informationsöverföring (bit per Joule) samtidigt som kvaliteten på tjänsten (QoS) krav, dvs.. Fördröjningsbegränsning genom att gemensamt optimera överföringstid och sändningskraft. Genom att lösa optimeringsproblemet får vi ett energieffektivt resursfördelningssystem. Numeriska resultat validerar det föreslagna systemets effektivitet. Index Terms-Energy-effektiv resursfördelning, trådlös information och kraftöverföring, storskalig MIMO-system, energistråleformning, QoS-garanti.
I REF övervägdes en enda användares trådlösa informations- och kraftöverföringssystem med ett massivt antennsystem.
15,819,250
Energy-Efficient Optimization for Wireless Information and Power Transfer in Large-Scale MIMO Systems Employing Energy Beamforming
{'venue': 'IEEE Wireless Communications Letters', 'journal': 'IEEE Wireless Communications Letters', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,914
När det gäller informationsspridning på sociala nätverk är ett av de viktigaste problemen att dra slutsatsen att det är sannolikt att den ena informationen sprids från den ena individen till den andra. Befintliga metoder behandlar huvudsakligen detta problem på ett parmässigt sätt, vilket avgör sannolikheten för spridning bland individer. Detta överrepresenterade sätt gör att de lider av allvarliga overpassing problem för par av individer utan observerade interaktioner, och därmed begränsar deras förutsägelse noggrannhet. I detta papper, i stället för att härleda den parvisa förökningsannolikheten, lär vi oss två lågrankade vektorer för varje individ, som representerar dess påverkan respektive känslighet. Baserat på denna koncisa representation föreslår vi en probabilistisk modell för att effektivt lära individer påverka och mottaglighet från loggen över informationskaskader. Vi utvärderar resultatet av vår metod på datasetet från de största sociala medierna i Kina, och visar att vår metod överträffar befintliga metoder vid slutsatsen om förökningsannolikhet. Sociala medier revolutionerar informationsspridningen, med dess stora lätthet när det gäller informationsförmedling, tillgång och filtrering. Olika från konventionella medier, informationsspridning i sociala medier fortskrider längs sociala relationer mellan individer. Därför, för modellering av informationsspridning på sociala nätverk, ett viktigt problem är att dra slutsatsen att det interpersonella inflytandet mellan individer, vilket är grundläggande för att påverka maximering [11], social rekommendation, och viral marknadsföring [12]. Befintliga studier syftar främst till att fastställa sannolikheten för spridning av information bland individer, baserat på strukturen i sociala nätverk, register över informationskaskad, och demografiska egenskaper hos individer. Kempe m.fl. [11] Genomförde den oberoende kaskadmodellen för informationsförökning, förutsatt att sannolikheten för förökning är enhetlig eller att det finns en gradmodulerad förökningssannolikhet. Goyal m.fl. [7] Lärde sig spridningssannolikheten för oberoende kaskadmodell, med uppbyggnaden av sociala nätverk och loggen över informationskaskad som indata.
Wang m.fl. I REF föreslogs en modell för att frikoppla påverkan mätt på ett par sätt till två latenta vektorer som representerar påverkan och känslighet för en nod.
9,530,982
Learning user-specific latent influence and susceptibility from information cascades
{'venue': 'AAAI 2015', 'journal': 'arXiv: Social and Information Networks', 'mag_field_of_study': ['Computer Science', 'Physics']}
80,915
Vi anser att problemet med att upptäcka robotiska grepp i en RGB-D-vy av en scen som innehåller objekt. I detta arbete tillämpar vi ett djupt lärande för att lösa detta problem, vilket undviker tidskrävande handdesign av funktioner. Detta innebär två stora utmaningar. För det första måste vi utvärdera ett stort antal sökandes grepp. För att göra detektionen snabb och robust presenterar vi ett tvåstegssystem med två djupa nätverk, där toppdetektionerna från den första omvärderas av den andra. Det första nätverket har färre funktioner, är snabbare att köra, och kan effektivt rensa ut osannolika kandidat grepp. Den andra, med fler funktioner, är långsammare men måste köras endast på de översta få upptäckter. För det andra måste vi hantera multimodala ingångar effektivt, där vi presenterar en metod som tillämpar strukturerad legalisering av vikterna baserat på multimodal gruppreglering. Vi visar att vår metod förbättrar prestandan på en RGBD robot gripa dataset, och kan användas för att framgångsrikt köra grepp på två olika robotplattformar.
I REF används ett djupt nätverk som är utbildat i 1035 exempel för att fastställa ett framgångsrikt grepp baserat på RGB-D-data.
5,240,721
Deep learning for detecting robotic grasps
{'venue': None, 'journal': 'The International Journal of Robotics Research', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,916
Sammanfattning —Att ge aktuell indata till användarnas applikationer är ett viktigt datahanteringsproblem för en distribuerad datormiljö, där varje plats för datalagring och mellanliggande nod kan ha specifika data tillgängliga, lagringsbegränsningar och kommunikationslänkar tillgängliga. Webbplatser i nätverket begär dataobjekt och varje begäran har en tillhörande deadline och prioritet. I en militär situation, data iscensättning problemet innebär positionering data för att underlätta en snabbare åtkomst tid när det behövs av program som kommer att hjälpa i beslutsfattandet. Detta arbete fokuserar på att lösa en grundläggande version av problemet med datalagring där alla parametervärden för kommunikationssystemet och uppgifternas begäran om information representerar den mest kända information som hittills samlats in och förblir fast under hela schemaläggningsprocessen. Nätverket antas vara övertecknat och alla förfrågningar om dataobjekt kan inte tillgodoses. En matematisk modell för det grundläggande datastationsproblemet införs. Därefter, tre flera källor kortaste-pat algoritmbaserade heuristik för att hitta en nära-optimal schema av kommunikationsstegen för att iscensätta data presenteras. Varje heurist kan användas med var och en av fyra kostnadskriterier utvecklas. Således undersöks tolv genomföranden. Dessutom beaktas två olika viktningar för olika prioriterade nivåers relativa betydelse. De föreslagna heuristikernas prestanda utvärderas och jämförs med simuleringar. De föreslagna heuristikerna har visat sig fungera bra med avseende på övre och nedre gränser. Dessutom gör heuristiken och ett komplicerat kostnadskriterium det möjligt att ta emot mer prioriterade meddelanden än en enkel kostnadsbaserad heurism som först schemalägger alla meddelanden med högsta prioritet.
Forskningen i Ref förutsatte att varje begärd datapost är förknippad med en viss tidsfrist och prioritet.
17,282,131
A Mathematical Model and Scheduling Heuristics for Satisfying Prioritized Data Requests in an Oversubscribed Communication Network
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,917
....................................... Flerdomän-bild-till-bild-översättningsresultat på CelebA-datasetetet via överföring av kunskap som inhämtats från RaFD-datasetet. De första och sjätte kolumnerna visar indatabilder medan de återstående kolumnerna är bilder som genereras av StarGAN. Observera att bilderna genereras av en enda generator nätverk, och ansiktsuttryck etiketter som arg, glad, och rädd är från RaFD, inte CelebA. Nya studier har visat anmärkningsvärd framgång i bild-till-bild översättning för två domäner. Befintliga metoder har dock begränsad skalbarhet och robusthet i hanteringen av mer än två domäner, eftersom olika modeller bör byggas oberoende av varje par av bilddomäner. För att ta itu med denna begränsning föreslår vi StarGAN, en ny och skalbar metod som kan utföra bild-till-bild översättningar för flera domäner med endast en modell. En sådan enhetlig modellarkitektur av StarGAN möjliggör samtidig utbildning av flera datauppsättningar med olika domäner inom ett enda nätverk. Detta leder till StarGAN's överlägsna kvalitet av översatta bilder jämfört med befintliga modeller samt den nya förmågan att flexibelt översätta en ingångsbild till någon önskad måldomän. Vi demonstrerar empiriskt effektiviteten av vår strategi på en ansiktsattribut överföring och en ansiktsuttryck syntes uppgifter.
Stargan REF använder en enda generator som tar som inmatning en bild och målattribut för att utföra multi-domain bildöversättning.
9,417,016
StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation
{'venue': 'IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 8789-8797', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,918
En del av Kinas unika kulturarv är spelet kinesiska par (duì liá n). En person utmanar den andra personen med en mening (första meningen). Den andra personen svarar sedan med en mening (andra meningen) lika i längd och ord segmentering, på ett sätt som motsvarande ord i de två meningarna matchar varandra genom att lyda vissa begränsningar av semantisk, syntaktisk och lexikal relativitet. Denna uppgift betraktas som ett svårt problem i AI och har inte undersökts i forskarsamhället. I detta dokument betraktar vi denna uppgift som ett slags maskinöversättningsprocess. Vi presenterar en frasbaserad SMT-strategi för att generera den andra meningen. För det första tar systemet som inmatning den första meningen, och genererar som utgång en N-bästa lista över föreslagna andra meningar, med hjälp av en fras-baserad SMT dekoder. Sedan används en uppsättning filter för att ta bort kandidater som bryter mot språkliga begränsningar. Slutligen tillämpas en rankning SVM för att omvärdera kandidaterna. En omfattande utvärdering med hjälp av både mänskliga bedömningar och BLEU-resultat har genomförts, och resultaten visar att detta tillvägagångssätt är mycket framgångsrikt.
En fras baserad SMT system utbildades för att "översätta" den första raden av ett kinesiskt par eller duilian till den andra genom REF.
8,773,022
Generating Chinese Couplets using a Statistical MT Approach
{'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,919
ABSTRACT I det här dokumentet utformar vi en mobilitetsmedveten användarorganisationsstrategi för millimetervågsnät (mmW) för att övervinna begränsningarna i de konventionella mottagen kraft (RSS)-baserade associationsstrategierna i ett mobilt 5G-scenario. Mer i detalj, först utformningen av en mobilitet-medveten strategi för användarorganisation i 5G mmW-nätverk framställs som ett begränsat optimeringsproblem. Sedan visas det att den föreslagna strategin uppvisar flera attraktiva funktioner: a) den kan spåra de dynamiska förändringarna i nätet topologi och i de kanalförhållanden som orsakas av användarens rörlighet; b) den tar hänsyn till fördelningen av laster bland de små basstationer (sBS), vilket övervinner att associera en UE till en redan överbelastad SBS. Detta påverkar i sin tur på ett positivt sätt nätverkets allmänna rättvisa; c) det övervinner alltför frekventa överlämnanden mellan SBS, och därmed behovet av ofta återkommande återassociation; d) det tar hänsyn till de speciella aspekterna av mmW-kommunikation, såsom riktning, känslighet för blockering, och NLoS spridningseffekter; och e) det är fullt distribuerat, dvs. varje mobil användare associerar till en SBS oberoende av varandra, som härrör från lokal information endast. Dessutom visar det sig att det uttömmande sökandet efter lösningen på det föreslagna optimeringsproblemet är ogenomförbart. Följaktligen föreslås i detta dokument en effektiv algoritm som uppvisar en polynom-tid komplexitet. Slutligen bekräftar de numeriska resultaten fördelarna med att anta den föreslagna regeln om rörlighet som är medveten om och fullt ut distribuerad. I synnerhet kvantifieras den mycket betydande förbättringen av den föreslagna associeringen med avseende på den konventionella RSS-baserade. INDEX TERMS mmW kommunikation, 5G nätverk, användarorganisation.
Mobilitet beteende användare och topologi förändringar spåras för användare förening i 5G millimeter-våg REF.
31,153,670
Mobility-Aware User Association for 5G mmWave Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
80,920
Vi introducerar en villkorlig generativ modell för att lära sig att reda ut de dolda variationsfaktorerna inom en uppsättning märkta observationer, och dela upp dem i kompletterande koder. En kod sammanfattar de angivna variationsfaktorerna i samband med etiketterna. Den andra sammanfattar den återstående ospecificerade variabiliteten. Under utbildningen kommer den enda tillgängliga källan till handledning från vår förmåga att skilja mellan olika observationer som tillhör samma klass. Exempel på sådana observationer är bilder av en uppsättning märkta objekt som fångas i olika synvinklar, eller inspelningar av flera högtalare som dikterar flera fraser. I båda fallen är mångfalden inom klassen källan till de ospecificerade variationsfaktorerna: varje objekt observeras i flera synvinklar, och varje talare dikterar flera fraser. Att lära sig att reda ut de angivna faktorerna från de ospecificerade blir lättare när stark övervakning är möjlig. Antag att under utbildningen har vi tillgång till par av bilder, där varje par visar två olika objekt fångas ur samma synvinkel. Denna källa till anpassning gör det möjligt för oss att lösa vår uppgift med hjälp av befintliga metoder. Märken för de ospecificerade faktorerna är dock vanligtvis inte tillgängliga i realistiska scenarier där datainsamlingen inte är strikt kontrollerad. Vi tar itu med problemet med disentaglement i denna mer allmänna miljö genom att kombinera djupa konvolutionella autoenkodrar med en form av kontradiktorisk utbildning. Båda faktorerna av variation fångas implicit i organisationen av den lärda inbäddning utrymme, och kan användas för att lösa en-bild analogier. Experimentella resultat på syntetiska och verkliga dataset visar att den föreslagna metoden kan generalisera till osedda klasser och intra-klassvariationer.
REF tilldelar en kod för de angivna variationsfaktorerna i samband med etiketterna, och lämnade de återstående som ospecificerade variabilitet.
6,892,094
Disentangling factors of variation in deep representations using adversarial training
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,921
Vi anser att multi-label förutsägelse problem med stora output utrymmen under antagandet av output sparity -att målet (label) vektorer har litet stöd. Vi utvecklar en allmän teori för en variant av den populära felkorrigering utdatakod systemet, med idéer från komprimerad avkänning för att utnyttja denna gleshet. Metoden kan betraktas som en enkel minskning från flermärkta regressionsproblem till binära regressionsproblem. Vi visar att antalet underproblem bara behöver vara logaritmiskt i det totala antalet möjliga etiketter, vilket gör detta tillvägagångssätt radikalt mer effektivt än andra. Vi anger också och bevisar robusthet garantier för denna metod i form av ånger transform gränser (i allmänhet), och ger också en mer detaljerad analys för linjära förutsägelse inställning.
Multi-etikett förutsägelse via Compressed Sensing (CS) REF förutsätter sparhet i etiketten uppsättning och kodar etiketter med ett litet antal linjära slumpmässiga projektorer.
2,555,940
Multi-Label Prediction via Compressed Sensing
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,922
Förstainstansrättens segmentering är problemet med att upptäcka och avgränsa varje distinkt objekt av intresse som visas i en bild. Nuvarande instanssegmenteringsmetoder består av ensembler av moduler som utbildas oberoende av varandra, vilket innebär att inlärningsmöjligheter saknas. Här föreslår vi en ny instans segmenteringsparadigm som består av en end-to-end metod som lär sig hur man segmenterar fall sekventiellt. Modellen är baserad på ett återkommande neuralt nätverk som sekventiellt finner objekt och deras segmenteringar en i taget. Detta nät förses med ett rumsligt minne som håller reda på vad pixlar har förklarats och tillåter hantering av ocklusion. För att träna modellen utformade vi en ny principiell förlustfunktion som exakt representerar egenskaperna hos instanssegmenteringsproblemet. I de experiment som utförts, fann vi att vår metod överträffar de senaste tillvägagångssätten på flera personer segmentering, och alla toppmoderna metoder på Plant Phenotyping dataset för bladräkning.
Parallellt med vårt arbete föreslår REF ett återkommande neuralt nät för att märka objekt instanser sekventiellt genom att hålla ett minne som pixlar har märkts hittills.
7,001,625
Recurrent Instance Segmentation
{'venue': 'ECCV 2016. 14th European Conference on Computer Vision', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,923
Den senaste tidens framsteg inom DNA-sekvenseringsteknik har satt allestädes närvarande tillgång till fullt sekvenserade mänskliga genom inom räckhåll. Det är inte längre svårt att föreställa sig den dag då alla kommer att ha möjlighet att skaffa sig och lagra sin egen DNA-sekvens. Bred och prisvärd tillgång till fullt sekvenserade genomer öppnar omedelbart upp viktiga möjligheter inom ett antal hälsorelaterade områden. I synnerhet, vanliga genomiska applikationer och tester som utförs in vitro idag kommer snart att genomföras beräkningsmässigt, med hjälp av digitaliserade genom. Nya tillämpningar kommer att utvecklas i takt med att genomaktiverad medicin blir allt mer förebyggande och personlig. Detta framsteg föranleder dock också betydande integritetsutmaningar i samband med potentiell förlust, stöld eller missbruk av genomiska data. I den här artikeln börjar vi ta itu med genomisk integritet genom att fokusera på tre viktiga tillämpningar: Faderskapstest, Personlig Medicin och Genetisk Kompatibilitetstest. Efter att noggrant ha analyserat dessa applikationer och deras integritetskrav, föreslår vi en uppsättning effektiva tekniker baserade på privat set verksamhet. Detta gör det möjligt för oss att i silico genomföra vissa operationer som för närvarande utförs via in vitro-metoder, på ett säkert sätt. Experimentella resultat visar att föreslagna tekniker är både genomförbara och praktiska idag.
Med hänsyn till det helt följdriktiga mänskliga genomet Baldi et al. REF föreslog protokoll, för faderskapstester, individanpassad medicin och genetiska kompatibilitetstester, baserade på privat set-teknik.
5,982,940
Countering GATTACA: efficient and secure testing of fully-sequenced human genomes
{'venue': "CCS '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,924
I detta dokument föreslår vi WifiU, som använder kommersiella Wi-Fi-enheter för att fånga finkorniga gångmönster för att känna igen människor. Intuitionen är att på grund av skillnaderna i gångar av olika människor, den WiFi-signal som återspeglas av en gående människa genererar unika variationer i Channel State Information (CSI) på WiFi-mottagaren. För att profilera mänskliga rörelser med hjälp av CSI använder vi signalbehandlingstekniker för att generera spektrogram från CSI-mätningar så att de resulterande spektrogramen liknar dem som genereras av särskilt utformade Dopplerradarer. För att extrahera funktioner från spektrogram som bäst kännetecknar gångmönstret utför vi autokorrelering på bröstkorgsreflektionen för att avlägsna defekter i spektrogram. Vi utvärderade WifiU på ett dataset med 2 800 gångfall samlade från 50 människor som gick i ett rum med en yta på 50 kvadratmeter. Experimentella resultat visar att WifiU uppnår topp-1, topp-2 och topp-3 noggrannheter på 79,28 %, 89,52 % respektive 93,05 %.
WifiU profiler mänskliga rörelser där spektrogram genereras från CSI REF.
14,391,542
Gait recognition using wifi signals
{'venue': None, 'journal': 'Proceedings of the 2016 ACM International Joint Conference on Pervasive and Ubiquitous Computing', 'mag_field_of_study': ['Computer Science']}
80,925
Abstract-fullständiga konvolutionella neurala nätverk (FCN) har visat sig uppnå state-of-the-art prestanda på uppgiften att klassificera tidsseriesekvenser. Vi föreslår en förstärkning av helt konvolutionella nätverk med långtidsminne recidiverande neurala nätverk (LSTM RNN) sub-moduler för tidsserieklassificering. Våra föreslagna modeller förbättrar avsevärt prestandan hos fullt konvolutionella nätverk med en nominell ökning av modellstorleken och kräver minimal förbehandling av datasetet. Det föreslagna långsiktiga korttidsminnet Fullt konvolutionellt nätverk (LSTM-FCN) uppnår toppmodern prestanda jämfört med andra. Vi undersöker också användningen av uppmärksamhetsmekanism för att förbättra tidsserieklassificeringen med Uppmärksamhet Långsiktig Memory Fully Convolutional Network (ALSTM-FCN). Med hjälp av uppmärksamhetsmekanismen kan man visualisera beslutsprocessen i LSTM-cellen. Dessutom föreslår vi finjustering som en metod för att förbättra prestandan hos utbildade modeller. En övergripande analys av vår modells prestanda tillhandahålls och jämförs med andra tekniker.
Karim et al REF presenterade förstärkningen av helt konvolutionella nätverk med delmoduler för klassificering av tidsserier (LSTM RNN, Long Short Term Memory Recurrent Neural Network).
3,708,626
LSTM Fully Convolutional Networks for Time Series Classification
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,926
Abstract-This paper presents DONET, en Data-driven Overlay Network för live media streaming. Kärnverksamheten i DONet är mycket enkel: varje nod utbyter regelbundet information om datatillgänglighet med en uppsättning partners, och hämtar inte tillgängliga data från en eller flera partners, eller levererar tillgängliga data till partners. Vi betonar tre framträdande egenskaper i denna datadrivna design: 1) lätt att genomföra, eftersom den inte behöver konstruera och underhålla en komplex global struktur; 2) eflcied. Eftersom vidarebefordran av data bestäms dynamiskt enligt datatillgänglighet men inte begränsas av specifika riktningar, och 3) rowmf och motståndskraftig, eftersom partnerskapen möjliggör adaptiv och snabb växling mellan flera leverantörer. Vi visar genom analys att DONET är skalbart med jagad fördröjning. Vi tar också upp en uppsättning praktiska utmaningar för att förverkliga DONET, och föreslår en effektiv medlems- och partnerskapshanteringsalgoritm, tillsammans med en intelligent schemaläggningsalgoritm som uppnår realtid och kontinuerlig distribution av strömmande innehåll. Vi har i stor utsträckning utvärderat DONET:s prestanda över PlanetLab. Våra experiment, som involverar nästan alla aktiva PIanetLab noder, visar att DONet uppnår ganska bra streamingkvalitet även under formidabla nätverksförhållanden. Dessutom hålls både kontroll- och överföringsfördröjningen på låga nivåer. En Internet-baserad DONET implementation, kallad CoolStreuming r*+O.Y, släpptes den 30 maj 2004, som har lockat över 3oooO distinkta användare med mer än 4000 samtidigt vara online vid vissa topptider. Vi diskuterar de viktigaste frågorna för att utforma Coolstreaming i detta dokument, och presentera flera intressanta observationer från dessa storskaliga tester; i synnerhet, ju större overlay storlek, desto bättre streaming kvalitet kan det leverera.
CoolStreaming REF är ett datadrivet overlay-nätverk för P2P-strömning.
15,264,793
CoolStreaming/DONet: a data-driven overlay network for peer-to-peer live media streaming
{'venue': 'Proceedings IEEE 24th Annual Joint Conference of the IEEE Computer and Communications Societies.', 'journal': 'Proceedings IEEE 24th Annual Joint Conference of the IEEE Computer and Communications Societies.', 'mag_field_of_study': ['Computer Science']}
80,927
Tweets är den mest aktuella och inkluderande ström av information och kommentarer om aktuella händelser, men de är också fragmenterade och bullriga, motivera behovet av system som kan extrahera, aggregera och kategorisera viktiga händelser. Tidigare arbete med att extrahera strukturerade representationer av händelser har främst fokuserat på newswire text; Twitter unika egenskaper presenterar nya utmaningar och möjligheter för open-domain händelse extraktion. Detta dokument beskriver TwiCalthe första öppna-domän händelse-extrahering och kategorisering system för Twitter. Vi visar att det verkligen är möjligt att exakt ta fram en öppen kalender med viktiga händelser från Twitter. Dessutom presenterar vi ett nytt tillvägagångssätt för att upptäcka viktiga händelsekategorier och klassificera extraherade händelser baserat på latenta variabla modeller. Genom att utnyttja stora volymer av omärkta data uppnår vår strategi en 14-procentig ökning av maximal F1 jämfört med en övervakad baslinje. En kontinuerligt uppdaterad demonstration av vårt system kan ses på http://statuscalendar.com.Våra NLP-verktyg finns tillgängliga på http://github.com/aritter/ twitter_nlp.
REF ) genererade en kalender av händelser som nämns på twitter.
207,196,336
Open domain event extraction from twitter
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,928
Vi föreslår en metod för att identifiera användarnas allmänna ståndpunkter i onlinedebatter, dvs. stödja eller motsätta sig huvudämnet för en online-debatt, genom att utnyttja lokal information i sina kommentarer i debatten. En online-debatt är ett forum där varje användare lägger ut ett yttrande på ett visst ämne medan andra användare uppger sina positioner genom att publicera sina kommentarer i debatten. De stödjande eller motsatta kommentarerna görs genom att direkt svara på yttrandet, eller indirekt på andra kommentarer (för att uttrycka lokal enighet eller oenighet), vilket gör det svårt att identifiera användarnas allmänna ståndpunkter. En tidigare studie har visat att en länkbaserad metod, som helt bortser från innehållet i kommentarerna, kan uppnå högre noggrannhet för identifieringsuppgiften än metoder som enbart bygger på innehållet i kommentarerna. I detta dokument visar vi att användningen av textinnehållet i kommentarerna i den länkbaserade metoden kan ge högre noggrannhet i identifieringsuppgiften.
REF föreslog en metod som använder kopplingarna mellan användare för att förutsäga varje användares åsikter, dvs. stödja eller motsätta sig ett ämne i onlinedebatter.
18,151,048
Support or Oppose? Classifying Positions in Online Debates from Reply Activities and Opinion Expressions
{'venue': 'COLING - POSTERS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,929
Stat-rymd modeller har framgångsrikt använts i mer än femtio år inom olika områden av vetenskap och teknik. Vi presenterar ett förfarande för effektiv variation Bayesian lärande av icke-linjära state-space modeller baserade på gles Gaussiska processer. Resultatet av lärandet är en dragbar baksida över ickelinjära dynamiska system. I jämförelse med konventionella parametriska modeller erbjuder vi möjligheten att enkelt byta bort modellkapacitet och beräkningskostnader samtidigt som vi undviker övermontering. Vår huvudalgoritm använder en hybrid inference metod som kombinerar variations Bayes och sekventiell Monte Carlo. Vi presenterar även tillägg till stokastiska variationsinferenser och online-inlärning.
I REF presenteras en variantell GP-modell för ickelinjära state-space-modeller.
1,835,066
Variational Gaussian Process State-Space Models
{'venue': 'R. Frigola, Y. Chen and C. E. Rasmussen. Variational Gaussian Process State-Space Models, in Advances in Neural Information Processing Systems (NIPS), 2014', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,930
Detta dokument beskriver InfoGAN, en informations-teoretisk förlängning till Generative Adversarial Network som kan lära sig disentrangerade representationer på ett helt oövervakat sätt. InfoGAN är ett generativt kontradiktoriskt nätverk som också maximerar den ömsesidiga informationen mellan en liten delmängd av de latenta variablerna och observationen. Vi får en lägre gräns för det ömsesidiga informationsmålet som kan optimeras effektivt. Specifikt, InfoGAN framgångsrikt löses skriva stilar från siffror former på MNIST dataset, posera från belysning av 3D renderade bilder, och bakgrundssiffror från den centrala siffran på SVHN datasetet. Den upptäcker också visuella begrepp som inkluderar frisyrer, närvaro / frånvaro av glasögon, och känslor på CelebA ansikte dataset. Experiment visar att InfoGAN lär sig tolkningsbara representationer som är konkurrenskraftiga med representationer som lärts av befintliga övervakade metoder.
I REF visar författarna en metod som kan lära sig olika representationer och tillämpa den på problemet med bildgenerering.
5,002,792
InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,931
Att lära sig generiska och robusta funktioner representationer med data från flera domäner för samma problem är av stort värde, särskilt för de problem som har flera datauppsättningar men ingen av dem är tillräckligt stor för att ge rikliga datavariationer. I detta arbete presenterar vi en pipeline för att lära sig djupa funktioner representationer från flera områden med Convolutional Neural Networks (CNN). När man tränar ett CNN med data från alla domäner, lär sig vissa neuroner representationer delas över flera domäner, medan vissa andra är effektiva endast för en specifik. Baserat på denna viktiga observation, föreslår vi en Domain Guidade Dropout algoritm för att förbättra funktionen lärande förfarande. Experiment visar effektiviteten i vår pipeline och den föreslagna algoritmen. Våra metoder på personen om-identifiering problem outperform state-of-the-art metoder på flera datauppsättningar med stora marginaler.
Xiao m.fl. Ref presenterade en pipeline för att lära sig djupa inslag representationer från flera områden med CNN.
4,234,245
Learning Deep Feature Representations with Domain Guided Dropout for Person Re-identification
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,932
Abstrakt. Detta papper presenterar en video summering teknik för en Internet-video för att ge ett snabbt sätt att överblicka dess innehåll. Detta är ett utmanande problem eftersom hitta viktiga eller informativa delar av den ursprungliga videon kräver att förstå dess innehåll. Dessutom är innehållet i Internet-videor mycket varierande, allt från hemvideor till dokumentärer, vilket gör videosammanfattningen mycket svårare eftersom förkunskaper nästan inte är tillgängliga. För att ta itu med detta problem, föreslår vi att använda djup video funktioner som kan koda olika nivåer av innehåll semantik, inklusive objekt, åtgärder, och scener, förbättra effektiviteten av standard video summering tekniker. För detta designar vi ett djupt neuralt nätverk som kartlägger videor samt beskrivningar till ett gemensamt semantiskt utrymme och gemensamt tränade det med tillhörande par av videor och beskrivningar. För att generera en videosammanfattning extraherar vi de djupa funktionerna från varje segment av den ursprungliga videon och tillämpar en klusterbaserad summeringsteknik för dem. Vi utvärderar våra videosammanfattningar med hjälp av SumMe-datasetet samt referensmetoder. Resultaten visade fördelarna med att införliva våra djupa semantiska funktioner i en videosammanfattningsteknik.
REF använder djupa videofunktioner för kodning av olika nivåer av innehållsemantik och ett djupt neuralt nätverk som kartlägger videor och deras beskrivningar till ett gemensamt semantiskt utrymme.
18,009,079
Video Summarization using Deep Semantic Features
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,933
Abstract-This paper presenterar pathChirp, ett nytt aktivt undersökningsverktyg för att uppskatta den tillgängliga bandbredden på en kommunikationsnätverksbana. Baserat på begreppet "självframkallad trängsel", PathChirp har ett exponentiellt flygmönster av sonder som vi kallar en kvitter. Packet chips erbjuder flera betydande fördelar jämfört med nuvarande undersökningsprogram baserade på paket par eller paket tåg. Genom att snabbt öka undersökningshastigheten inom varje chirp, får PathChirp en rik uppsättning information från vilken för att dynamiskt uppskatta den tillgängliga bandbredden. Eftersom det endast använder paket interarrival gånger för uppskattning, pathChirp kräver inte synkrona eller mycket stabila klockor vid avsändaren och mottagaren. Vi testar pathChirp med simuleringar och Internetexperiment och finner att det ger goda uppskattningar av den tillgängliga bandbredden samtidigt som endast en bråkdel av antalet sondbyte som nuvarande toppmoderna tekniker använder.
I REF, Ribeiro et al. föreslog att man skulle skapa en självinducerad trängsel med hjälp av en aktiv genomsökningsström med ett exponentiellt flygmönster, kallat "pathChirp".
10,514,162
pathChirp: Efficient Available Bandwidth Estimation for Network Paths
{'venue': 'In Passive and Active Measurement Workshop', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,934
Medan neural maskinöversättning (NMT) gör goda framsteg under de senaste två åren, tiotals miljoner tvåspråkiga mening par behövs för sin utbildning. Men mänsklig märkning är mycket kostsam. För att ta itu med denna flaskhals av utbildningsdata utvecklar vi en mekanism för dubbelt lärande, som kan göra det möjligt för ett NMT-system att automatiskt lära sig av omärkta data genom ett dubbellärande spel. Denna mekanism är inspirerad av följande observation: varje maskinöversättning uppgift har en dubbel uppgift, t.ex., engelsk-till-franska översättning (primal) kontra fransk-till-engelska översättning (dubbel); den primära och dubbla uppgifter kan bilda en sluten loop, och generera informativa återkopplingssignaler för att träna översättningsmodellerna, även om utan inblandning av en mänsklig etikett. I dual-learning-mekanismen använder vi en agent för att representera modellen för den primära uppgiften och den andra agenten för att representera modellen för den dubbla uppgiften och sedan be dem att lära varandra genom en förstärkning av inlärningsprocessen. Baserat på de återkopplingssignaler som genereras under denna process (t.ex. språkmodellens sannolikhet för en modells utgång, och rekonstruktionsfelet i den ursprungliga meningen efter de ursprungliga och dubbla översättningarna), kan vi iterativt uppdatera de två modellerna fram till konvergens (t.ex. genom att använda policygradientmetoderna). Vi kallar motsvarande metod för neural maskinöversättning dual-NMT. Experiment visar att dubbel-NMT fungerar mycket bra på engelsk-franska översättning; särskilt, genom att lära från enspråkig data (med 10% tvåspråkig data för varm start), det uppnår en jämförbar noggrannhet till NMT utbildade från den fullständiga tvåspråkiga data för den franska-till-engelska översättningen uppgift.
Cykelkonsistens har använts för att göra det möjligt för ett Neural Machine Translation system att lära sig av omärkta data genom att följa en sluten slinga av maskinöversättning REF.
5,758,868
Dual Learning for Machine Translation
{'venue': 'NIPS 2016', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,935
Vi föreslår en ny familj av policy gradient metoder för att förstärka lärande, som växlar mellan provtagningsdata genom interaktion med miljön, och optimerar en "surrogat" objektiv funktion med hjälp av stokastisk gradient uppstigning. Medan standard policy gradient metoder utför en gradient uppdatering per dataprov, föreslår vi en ny objektiv funktion som möjliggör flera epoker av minibatch uppdateringar. De nya metoderna, som vi kallar proximal policyoptimering (PPO), har några av fördelarna med förtroende regional policyoptimering (TRPO), men de är mycket enklare att genomföra, mer allmänt, och har bättre urval komplexitet (empiriskt). Våra experiment testar PPO på en samling av benchmarking uppgifter, inklusive simulerad robotisk locomotion och Atari spelspel, och vi visar att PPO överträffar andra online policy gradient metoder, och totalt ger en gynnsam balans mellan prov komplexitet, enkelhet, och vägg-tid.
Proximal Policy Optimization (PPO) använder en aktör nätverk som har en avgränsad surrogat objektiv funktion REF.
28,695,052
Proximal Policy Optimization Algorithms
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,936
Intel Software Guard Extension (SGX) är en hårdvarubaserad betrodd körning miljö (TEE) som möjliggör säker beräkning utan att lita på någon underliggande programvara, såsom operativsystem eller till och med hårdvara firmware. Det ger starka säkerhetsgarantier, nämligen sekretess och integritet, till en enklave (dvs. ett program som körs på Intel SGX) genom solid hårdvarubaserad isolering. Men en ny kontrollerad-kanal attack (Xu et al., Oakland 2015), även om det är en out-of-scope attack enligt Intel SGX hotmodell, visade att en skadlig OS kan härleda grov-grained kontroll flöden av en enklave via en serie av sidfel, och en sådan sida-kanal kan vara svårt för säkerhetskänsliga program. I den här artikeln utforskar vi en ny, men ändå kritisk, sidokanalsattack mot Intel SGX, kallad en grenskuggningsattack, som kan avslöja finkorniga kontrollflöden (dvs. varje gren) av ett enklavprogram som körs på riktig SGX-hårdvara. Grundorsaken till denna attack är att Intel SGX inte rensar grenens historia när man byter från enklavläge till non-enclave-läge, vilket lämnar de finkorniga spåren till omvärlden genom en gren-prediction sidokanal. Att utnyttja kanalen är dock inte så enkelt i praktiken, eftersom 1) att mäta felpreskriptionsstraff som baseras på timing är alltför inkorrekt för att skilja mellan finkorniga kontrollflödesförändringar och 2) att kräva sofistikerad kontroll över enklavens utförande för att tvinga dess utförande till de intressanta kodblocken. För att övervinna dessa utmaningar utvecklade vi två nya exploateringstekniker: 1) Intel PT- och LBR-baserade historieinfererande tekniker och 2) APIC-baserad teknik för att kontrollera genomförandet av enklavprogram på ett finkornigt sätt. Som ett resultat kan vi demonstrera vår attack genom att bryta den senaste tidens säkerhetskonstruktioner, inklusive ORAM-system, Sanctum, SGX-Shield och T-SGX. Inte begränsa vårt arbete till själva attacken, vi noggrant studerat genomförbarheten av hårdvarubaserade lösningar (t.ex., filial historia clearing) och föreslog också en mjukvarubaserad motåtgärd, kallas Zigzagger, för att mildra grenen skuggning attack i praktiken. ArXiv:1611.06952v2 [cs.CR] 25 nov 2016 1 /* bignum.c */ 2 statiska int mpi_montmul(mbedtls_mpi *A, const mbedtls_mpi *B, 3 const mbedtls_mpi *N, mbedtls_mpi_uint mm, 4 const mbedtls_mpi *T) { 5 size_t i, n, m; 6 mbedtls_mpi_uint u0, u1, *d; 7 8 d = T->p; n = N->n; m = (B->n < n)? B-> n; 9 10 för (i = 0; i < n; i++) { 11 u0 = A->p[i]; 12 u1 = (d[0] + u0 * B->p[0]) * mm; 13 14 mpi_mul_hlp(m, B->p, d, u0); 15 mpi_mul_hlp(n, N->p, d, u1); 16 17 *d++ = u0, d[n+1] = 0; 18 } 19 20, om (mbedtls_mp_cmp_abs(A, N) >= 0) { 21 och mpi_sub_hlp(n, N->p, A->p); 22 till i = 1; 23 till 24 Den gren skuggning attack kan dra slutsatsen om en dummy subtraktion har utfört eller inte.
Lee och Al. REF, till exempel, visade genomförbarheten av finkorniga kontrollflöde attacker i en enklav.
310,483
Inferring Fine-grained Control Flow Inside SGX Enclaves with Branch Shadowing
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,937
Programvaruarkitekturer förskjuter utvecklarnas fokus från kodlinjer till grövre arkitektoniska element och deras övergripande sammankopplingsstruktur. Språk för beskrivning av arkitektur har föreslagits som modeller för att stödja arkitekturbaserad utveckling. Det råder dock föga enighet inom forskarvärlden om vad som är en ADL, vilka aspekter av en arkitektur som bör modelleras i en ADL, och vilka av flera möjliga ADL som är bäst lämpade för ett visst problem. Dessutom görs sällan åtskillnad mellan ADL å ena sidan och formella specifikationer, sammankoppling av moduler, simulering och programmeringsspråk å andra sidan. I detta dokument försöker man ge ett svar på dessa frågor. Den motiverar och presenterar en definition och ett klassificeringsramverk för ADL. Definitionens användbarhet visas genom att man använder den för att skilja ADL-värden från andra modelleringsbeteckningar. Ramverket används också för att klassificera och jämföra flera befintliga ADL. En slutsats är att även om mycket forskning har gjorts på detta område, uppfyller ingen enskild ADL alla identifierade behov. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Flera ADL har föreslagits under de senaste åren och de är alla baserade på samma grundprinciper REF.
1,261,989
A Classification and Comparison Framework for Software Architecture Description Languages
{'venue': 'IEEE Trans. Software Eng.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,938
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Snabbare R-CNN REF ersätter selektiva sökförslag med förslag från ett regionnätverk (RPN), och introducerar en metod för att integrera RPN med Fast R-CNN genom att växla mellan finjusterande delade konvolutionslager och förutsägelselager för dessa två nätverk.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
80,939
Abstract-Mobil C-arm är ett viktigt verktyg i vardagen trauma och ortopedik kirurgi. Minimalt invasiva lösningar, baserade på röntgenbildande och co-registrerad extern navigering skapade ett stort intresse inom det kirurgiska samhället och började ersätta den traditionella öppna kirurgin för många ingrepp. Dessa lösningar ökar vanligtvis noggrannheten och minskar traumat. I allmänhet introducerar de ny hårdvara i de yttersta randområdena och lägger till siktbegränsningar som åläggs av optiska spårningssystem. De tvingar på så sätt till radikala förändringar i den kirurgiska installationen och den övergripande proceduren. Vi förstärker en allmänt använd mobil C-arm med en vanlig videokamera och ett dubbelspegelsystem som möjliggör realtidsfusion av optiska bilder och röntgenbilder. Videokameran är monterad så att dess optiska centrum praktiskt taget sammanfaller med C-armens röntgenkälla. Efter en engångskalibrering är de förvärvade röntgenbilderna och optiska bilderna samregistrerade. Detta dokument beskriver utformningen av ett sådant system, kvantifierar dess tekniska noggrannhet, och ger ett kvalitativt bevis på dess effektivitet genom studier kadaver som utförs av traumakirurger. I synnerhet studeras relevansen av detta system för kirurgisk navigering inom pidiklarnas skruvplacering, vertebroplastik och intramedullär spiklåsning. Bilden overlay ger ett intuitivt gränssnitt för kirurgisk vägledning med en noggrannhet på 1 mm, helst med användning av endast en enda röntgenbild. Det nya systemet är smidigt integrerat i den kliniska applikationen utan någon ytterligare hårdvara, särskilt för styrning av nedåtstrålkastarinstrument baserat på den anteroposteriöra sneda vyn, där instrumentaxeln är i linje med röntgenkällan. Under alla experiment visade sig kameraförstärkt mobilt C-armsystem vara en intuitiv och robust vägledningslösning för utvalda kliniska rutiner.
Navab m.fl. REF utvecklade ett röntgen-C-arm-system utrustat med en videokamera.
3,336,987
Camera Augmented Mobile C-Arm (CAMC): Calibration, Accuracy Study, and Clinical Applications
{'venue': 'IEEE Transactions on Medical Imaging', 'journal': 'IEEE Transactions on Medical Imaging', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Mathematics']}
80,940
De flesta känslor analys närmar sig använda som baslinje en stöd vektor maskiner (SVM) klassificerare med binära unigram vikter. I detta dokument undersöker vi om mer sofistikerade funktionsvägningssystem från informationsinsamling kan förbättra klassificeringsnoggrannheten. Vi visar att varianter av det klassiska tf.idf-systemet som är anpassat till känsloanalys ger en betydande ökning av noggrannheten, särskilt vid användning av en sublinjär funktion för termfrekvensvikter och dokumentfrekvensutjämning. Teknikerna testas på ett brett urval av datamängder och ger den bästa noggrannheten till vår kunskap.
Senare studerade REF några varianter av det klassiska tf*idf schemat anpassade till känsloanalys, vilket ger betydande förbättringar i fråga om noggrannhet.
469,886
A Study of Information Retrieval Weighting Schemes for Sentiment Analysis
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,941
Fog computing, som tillhandahåller datatjänster med låg latens vid nätkanten, är en möjliggörare för nya Internet of Things (IoT) system. I detta dokument studerar vi fördelningen av dimdataresurser till IoT-användarna i ett hierarkiskt datorparadigm inklusive dim- och fjärrmolntjänster. Vi formulerar en beräkning offloading spel för att modellera konkurrensen mellan IoT-användare och fördela den begränsade bearbetningskraften av dimnoder effektivt. Varje användare strävar efter att maximera sin egen erfarenhetskvalitet (QoE), vilket återspeglar dess tillfredsställelse med att använda datortjänster i termer av minskning av beräkningsenergi och fördröjning. Genom att utnyttja en potentiell spelstrategi, bevisar vi existensen av en ren Nash jämvikt (NE) och ger en övre gräns för priset på anarki. Eftersom tids komplexiteten för att nå jämvikt ökar exponentiellt i antalet användare, föreslår vi ytterligare en nästan optimal resursfördelningsmekanism och visar att i ett system med N IoT-användare, det uppnår en -NE i O(N/ ) tid. Genom numeriska studier utvärderar vi såväl användarnas QoE som jämviktseffektiviteten. Våra resultat visar att genom att använda den föreslagna mekanismen, fler användare drar nytta av datortjänster i jämförelse med en befintlig avlastningsmekanism. Vi visar vidare att vår föreslagna mekanism avsevärt minskar beräkningsfördröjningen och möjliggör dimdatatjänster med låg latens för delay-sensitive IoT-tillämpningar.
Författarna till REF formulerade ett datoriserat offloading spel för att modellera konkurrensen mellan IoT-användare och effektivt fördela den begränsade processorkraften i dimnoder.
27,199,789
Hierarchical Fog-Cloud Computing for IoT Systems: A Computation Offloading Game
{'venue': 'IEEE Internet of Things Journal', 'journal': 'IEEE Internet of Things Journal', 'mag_field_of_study': ['Computer Science']}
80,942
De state-of-the-art metoder som används för relationsklassificering är främst baserade på statistisk maskininlärning, och deras prestanda beror starkt på kvaliteten på de extraherade egenskaperna. De extraherade funktionerna härrör ofta från produktionen av befintliga system för bearbetning av naturligt språk (NLP), vilket leder till att felen i de befintliga verktygen sprids och hindrar dessa systems prestanda. I detta papper, vi utnyttjar en convolutional djup neurala nätverk (DNN) för att extrahera lexical och mening nivå funktioner. Vår metod tar alla ord tokens som indata utan komplicerad förbearbetning. Först, ordet polletter omvandlas till vektorer genom att titta upp ord inbäddningar 1. Sedan, lexical nivå funktioner extraheras enligt de givna substantiv. Under tiden lär man sig funktioner på straffnivå med hjälp av en konvolutionell metod. Dessa två nivåer funktioner är concatenated att bilda den slutliga extraherade funktionen vektor. Slutligen matas funktionerna in i en softmax klassificering för att förutsäga förhållandet mellan två markerade substantiv. De experimentella resultaten visar att vårt tillvägagångssätt avsevärt överträffar de senaste metoderna.
Prestandan hos dessa funktionsbaserade modeller beror starkt på kvaliteten på de extraherade funktionerna REF.
12,873,739
Relation Classification via Convolutional Deep Neural Network
{'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,943
Online-recensioner har i allt högre grad blivit en mycket viktig resurs för konsumenterna när de handlar. Även om det blir allt svårare för människor att fatta välinformerade köpbeslut utan att bli lurade av falska recensioner. Tidigare verk på åsikten spam problem mestadels anses klassificera falska recensioner med beteendemässiga användarmönster. De fokuserade på produktiva användare som skriver mer än ett par recensioner, kasta en gång recensenter. Antalet enskilda granskare förväntas dock vara högt för många granska webbplatser. Medan beteendemönster är effektiva när man har att göra med elitanvändare, för en gång granskare, översyn texten måste utnyttjas. I det här dokumentet tar vi itu med problemet med att upptäcka falska recensioner skrivna av samma person som använder flera namn, och lägger upp varje recension under ett annat namn. Vi föreslår två metoder för att upptäcka liknande utvärderingar och visa resultaten i allmänhet överträffar de vektorliknande likhetsåtgärder som används i tidigare arbeten. Den första metoden utvidgar den semantiska likheten mellan ord till utvärderingsnivån. Den andra metoden är baserad på ämnesmodellering och utnyttjar likheten av recensioner ämnesfördelningar med hjälp av två modeller: påse-of-words och påse-of-opinionfraser. Experimenten genomfördes på recensioner från tre olika dataset: Yelp (57K recensioner), Trustpilot (9K recensioner) och Ott dataset (800 recensioner).
Vissa befintliga arbeten tittar på att identifiera recensioner skrivna av samma person men under olika namn REF.
9,834,106
Detecting Singleton Review Spammers Using Semantic Similarity
{'venue': "WWW '15 Companion Proceedings of the 24th International Conference on World Wide Web, 2015, p.971-976", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,944
Short Messaging Service (SMS) texter beter sig helt annorlunda än vanliga skrivna texter och har några mycket speciella fenomen. För att översätta SMS-texter, traditionella metoder modell sådana oegentligheter direkt i Machine Translation (MT). Men sådana metoder lider av anpassningsproblem eftersom enorma ansträngningar krävs för att anpassa språkmodellen i det befintliga översättningssystemet för att hantera SMS-textstil. Vi erbjuder ett alternativt tillvägagångssätt för att lösa sådana oegentligheter genom att normalisera SMS-texter före MT. I detta dokument ser vi uppgiften SMS normalisering som ett översättningsproblem från SMS-språket till det engelska språket 1 och vi föreslår att anpassa en frasbaserad statistisk MT-modell för uppgiften. Utvärdering med 5-faldig korsvalidering på en parallell SMS-normaliserad corpus på 5000 meningar visar att vår metod kan uppnå 0,80702 i BLEU-poäng mot BLEU-poängen 0,6958. Ett annat experiment med att översätta SMS-texter från engelska till kinesiska på en separat SMS-text corpus visar att, med SMS normalisering som MT förbehandling kan till stor del öka SMS översättning prestanda från 0.1926 till 0.3770 i BLEU poäng. SMS översättning är en mobil maskin översättning (MT) program som översätter ett meddelande från ett språk till ett annat. Även om det finns många kommersiella MT-system fungerar inte direkt användning av sådana system bra på grund av de speciella fenomenen i SMS-texter, t.ex. den unika avslappnade och kreativa skrivstilen och den frekventa användningen av okonventionella och ännu inte standardiserade kortformer. Direkt modellering av dessa speciella fenomen i MT kräver enorma ansträngningar. Alternativt kan vi normalisera SMS-texter till 1 Denna uppsats diskuterar endast engelsk SMS-text normalisering. grammatiska texter före MT. På så sätt behandlas det traditionella MT som en "svart låda" med liten eller minimal anpassning. En fördel med denna pre-translation normalisering är att mångfalden i olika användargrupper och domäner kan modelleras separat utan tillgång till och anpassning av MT-systemets språkmodell för varje SMS-applikation. En annan fördel är att normaliseringsmodulen enkelt kan användas av andra program, såsom SMS till röstbrevlåda och SMS-baserad information fråga. I detta dokument presenterar vi en frasbaserad statistisk modell för normalisering av SMS-text. Normaliseringen visualiseras som ett översättningsproblem där meddelanden i SMS-språket ska översättas till normal engelska med hjälp av en liknande frasbaserad statistisk MT-metod (Koehn et al., 2003). Vi använder IBM: s BLEU score (Papineni et al., 2002) för att mäta prestanda SMS text normalisering. BLEU poäng beräknar likheten mellan två meningar med hjälp av n-gram statistik, som används i stor utsträckning i MT utvärdering. En uppsättning parallella SMS-meddelanden, bestående av 5000 obehandlade (onormaliserade) SMS-meddelanden och deras manuellt normaliserade referenser, är konstruerade för utbildning och testning. Utvärdering med femfaldig korsvalidering på denna corpus visar att vår metod kan uppnå noggrannhet på 0,80702 i BLEU-poäng jämfört med baslinjesystemet på 0,6985. Vi studerar också inverkan av vår SMS-text normalisering på uppgiften att SMS översättning. Experimentet med att översätta SMS-texter från engelska till kinesiska på en corpus bestående av 402 SMS-texter visar att SMS normalisering som ett förbearbetningssteg av MT kan öka översättningsprestandan från 0,1926 till 0,3770 i BLEU-poäng. Resten av tidningen är organiserad enligt följande. Avsnitt 2 innehåller en översikt över arbetet i samband med detta. I avsnitt 3 sammanfattas egenskaperna hos engelska SMS-texter. Avsnitt 4 diskuterar vår metod och Avsnitt 5 rapporterar våra experiment. Avsnitt 6 avslutar dokumentet.
Aw et al. Är du okej? föreslog ett tillvägagångssätt för att normalisera SMS-texter för maskinöversättning uppgift REF.
6,574,007
A Phrase-Based Statistical Model For SMS Text Normalization
{'venue': 'International Conference On Computational Linguistics And Annual Meeting Of The Association For Computational Linguistics - Poster Sessions', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,945
Vi visar att det finns betydande redundans i parameteriseringen av flera djupt lärande modeller. Med bara ett fåtal viktvärden för varje funktion är det möjligt att exakt förutsäga de återstående värdena. Dessutom visar vi att parametervärdena inte bara kan förutsägas, utan många av dem behöver inte läras alls. Vi tränar flera olika arkitekturer genom att lära oss bara ett litet antal vikter och förutsäga resten. I bästa fall kan vi förutsäga mer än 95% av vikterna i ett nätverk utan någon nedgång i noggrannhet.
Ja, Denil m.fl. visade att det är möjligt att förutsäga 95% av vikterna i ett neuralt nätverk (utan nedgång i noggrannhet) bara med hjälp av de återstående 5% av vikterna REF.
1,639,981
Predicting Parameters in Deep Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,946
Vi föreslår ett djupt neuralt nätverk för förutsägelse av framtida ramar i naturliga videosekvenser. För att effektivt hantera komplex utveckling av pixlar i videor, föreslår vi att bryta rörelsen och innehållet, två viktiga komponenter som genererar dynamik i videor. Vår modell är byggd på Encoder-Decoder Convolutional Neural Network och Convolutional LSTM för pixel-nivå förutsägelse, som självständigt fångar den rumsliga layouten av en bild och motsvarande temporal dynamik. Genom att självständigt modellera rörelse och innehåll minskar predikteringen av nästa ram till att omvandla de extraherade innehållsfunktionerna till nästa raminnehåll genom de identifierade rörelsefunktionerna, vilket förenklar uppgiften att förutsäga. Vår modell är end-to-end trainingbar över flera tidssteg, och lär sig naturligt att bryta ner rörelse och innehåll utan separat träning. Vi utvärderar den föreslagna nätverksarkitekturen på mänskliga aktivitetsvideor med hjälp av KTH, Weizmann action och UCF-101 datauppsättningar. Vi visar de senaste resultaten i jämförelse med de senaste tillvägagångssätten. Såvitt vi vet är detta den första end-to-end trainingable nätverksarkitekturen med rörelse- och innehållsseparation för att modellera den spatio-temporala dynamiken för pixel-nivå framtida förutsägelse i naturliga videor. * Detta arbete gjordes medan SH och XL besökte University of Michigan.
Villegas et al. REF distribuerade den staplade ConvLSTM för pixel-nivå förutsägelse i naturliga videor.
24,069,181
Decomposing Motion and Content for Natural Video Sequence Prediction
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,947
Även om extrahering av användarattribut på sociala medier har fått stor uppmärksamhet, stöter befintliga metoder, mestadels övervakade, på stora svårigheter att få tillgång till uppgifter om guldstandard och är därför begränsade till att förutsäga unary predicates (t.ex. kön). I detta dokument presenterar vi en svagt övervakad strategi för användarprofilextraktion från Twitter. Användares profiler från sociala mediers webbplatser som Facebook eller Google Plus används som en avlägsen källa till övervakning för att extrahera deras attribut från användargenererad text. Förutom traditionella språkliga funktioner som används vid distansövervakning för informationsutvinning tar vår strategi också hänsyn till nätverksinformation, en unik möjlighet som erbjuds av sociala medier. Vi testar vår algoritm på tre attributdomäner: make/maka, utbildning och jobb; experimentella resultat visar att vårt tillvägagångssätt kan göra korrekta förutsägelser för användarnas attribut baserat på deras tweets. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Ref presenterade nyligen en relationsextraktion inspirerad strategi för att sluta sig till en användares make/maka, utbildning och arbete genom att använda distansövervakning från olika sociala nätverk.
14,191,436
Weakly Supervised User Profile Extraction from Twitter
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,948
Många djupa neurala nätverk tränas på naturliga bilder uppvisar ett märkligt fenomen gemensamt: på det första lagret de lär sig funktioner som liknar Gabor filter och färg blobs. Sådana första lager funktioner verkar inte vara specifika för en viss datauppsättning eller uppgift, men allmänt i det att de är tillämpliga på många datauppsättningar och uppgifter. Funktionerna måste så småningom övergå från allmän till specifik av det sista skiktet av nätverket, men denna övergång har inte studerats i stor utsträckning. I detta papper kvantifierar vi experimentellt generalitet kontra specificitet av neuroner i varje lager av ett djupt konvolutionellt neuralt nätverk och rapporterar några överraskande resultat. Överförbarheten påverkas negativt av två olika problem: (1) specialiseringen av högre lagerneuroner till deras ursprungliga uppgift på bekostnad av prestanda på måluppgiften, vilket förväntades, och (2) optimering svårigheter relaterade till delning av nätverk mellan co-anpassade neuroner, som inte förväntades. I ett exempel nätverk tränas på ImageNet, visar vi att någon av dessa två frågor kan dominera, beroende på om funktioner överförs från botten, mitten eller toppen av nätverket. Vi dokumenterar också att överförbarheten av funktioner minskar när avståndet mellan basuppgiften och måluppgiften ökar, men att överföra funktioner även från avlägsna uppgifter kan vara bättre än att använda slumpmässiga funktioner. Ett sista överraskande resultat är att initiering av ett nätverk med överförda funktioner från nästan alla lager kan ge en boost till generalisering som dröjer även efter finjustering till målet dataset.
REF, författarna studerar överförbarheten av CNN funktioner mellan olika uppgifter genom omskolning olika delar av nätverken.
362,467
How transferable are features in deep neural networks?
{'venue': 'Advances in Neural Information Processing Systems 27, pages 3320-3328. Dec. 2014', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,949
I detta dokument föreslår vi ett system som utför klassificeringen av kundrecensioner av hotell med hjälp av en känsloanalys. Vi utvecklar en process för att extrahera en domänspecifik lexikon av semantiskt relevanta ord baserade på en given corpus (Scharl et al., 2003; Pak & Paroubek, 2010). Det resulterande lexikonet stöder känsloanalysen för att generera en klassificering av granskningarna. Utvärderingen av klassificeringen på testdata visar att det föreslagna systemet fungerar bättre jämfört med en fördefinierad baslinje: om en kundgranskning klassificeras som bra eller dålig är klassificeringen korrekt med en sannolikhet på cirka 90 %.
REF föreslår ett system som utför klassificeringen av kundrecensioner av hotell med hjälp av en känsloanalys.
14,380,011
Classification of Customer Reviews based on Sentiment Analysis
{'venue': 'ENTER', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,950
Vi presenterar en nätverksarkitektur och tillhörande algoritmer för att motverka distribuerade överbelastningsattacker (DDoS) riktade mot en Internetserver. Den grundläggande mekanismen är för en server under stress att installera en router gas på utvalda uppströms routers. Gasen kan vara den läckande buckethastighet med vilken en router kan vidarebefordra paket som är avsedda för servern. Därför, innan aggressiva paket kan konvergera för att överväldiga servern, deltagande routrar proaktivt reglera de bidragande paketfrekvenser till mer måttliga nivåer, vilket förhindrar en förestående attack. Vid fördelningen av serverkapaciteten bland routrarna föreslår vi en uppfattning om nivå-max-min rättvisa. Vi presenterar en kontrollteoretisk modell för att utvärdera algoritmkonvergens under en variation av systemparametrar. Dessutom presenterar vi resultat paket nätverk simulering med hjälp av en realistisk global nätverk topologi, och olika modeller av bra användare och angripare distributioner och beteende. Med hjälp av en generatormodell av webbförfrågningar parameteriserade av empiriska data, utvärderar vi också effekten av strypning för att skydda användarens tillgång till en webbserver. För det första, för aggressiva angripare, gaspedalmekanismen är mycket effektiv i att företrädesvis släppa angripare trafik över god användartrafik. I synnerhet ger nivå-max-min-rättvishet bättre skydd för användarna än rekursiv pushback av max-min-gränsvärden för rättvisa räntor som föreslås i litteraturen. För det andra kan strypning reglera den erfarna serverbelastningen till under dess designgräns - i närvaro av användardynamik - så att servern kan fortsätta fungera under en DDoS-attack.
Jau m.fl. I REF föreslås också ett system för återkopplingskontroll av routern för att strypa den angripande trafiken med största möjliga rättvisa.
1,769,256
Defending against distributed denial-of-service attacks with max-min fair server-centric router throttles
{'venue': 'IEEE/ACM Transactions on Networking', 'journal': 'IEEE/ACM Transactions on Networking', 'mag_field_of_study': ['Computer Science']}
80,951
Abstract-Med uppkomsten av hög datahastighet sensor nätverk applications, det finns en ökande efterfrågan på högpresterande frågetjänster. För att möta denna utmaning föreslår vi Dynamic Conflict-free Query Scheduling (DCQS), en ny schemaläggningsteknik för frågor i trådlösa sensornätverk. I motsats till tidigare TDMA-protokoll utformade för allmän arbetsbelastning är DCQS speciellt utformad för frågetjänster i trådlösa sensornätverk. DCQS har flera unika funktioner. För det första optimerar den frågeprestandan genom konfliktfri överföringsplanering baserad på tidsegenskaperna hos frågor i trådlösa sensornätverk. För det andra kan den anpassa sig till förändringar i arbetsbelastningen utan att uttryckligen rekonstruera överföringsschemat. Dessutom ger DCQS också förutsägbara prestanda när det gäller den maximala möjliga frågehastigheten. Vi tillhandahåller en analytisk kapacitet bundet till DCQS som gör det möjligt för DCQS att hantera överbelastning genom hastighetskontroll. NS2-simuleringar visar att DCQS avsevärt överträffar ett representativt TDMA-protokoll (DRAND) och 802.11b när det gäller frågelatens och dataflöde.
I tidigare arbete föreslog vi DCQS REF, en överföring schemaläggning teknik för WSN frågor.
739,513
Dynamic Conflict-Free Transmission Scheduling for Sensor Network Queries
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
80,952
Detta dokument granskar nyligen studier i att förstå neurala-nätverk representationer och lärande neurala nätverk med tolknings- / disentangled mellanlager representationer. Även om djupa neurala nätverk har uppvisat överlägsen prestanda i olika uppgifter, är tolkningsbarhet alltid Achilles häl av djupa neurala nätverk. För närvarande får djupa neurala nätverk hög diskriminering makt på bekostnad av en låg tolkningsbarhet av deras svart-box representationer. Vi tror att hög tolkningsbarhet kan hjälpa människor att bryta flera flaskhalsar i djupt lärande, t.ex. lära sig av några kommentarer, lära sig via kommunikation mellan människor och datorer på semantisk nivå och semantiskt debugging nätverk representationer. Vi fokuserar på konvolutionella neurala nätverk (CNN), och se över visualiseringen av CNN representationer, metoder för att diagnostisera representationer av förtränade CNNs, metoder för disentangling pre-tränade CNN representationer, lärande av CNNs med disentrangerade representationer, och mellan-till-slut lärande baserat på modell tolkningsbarhet. Slutligen diskuterar vi framtida trender i förklarande artificiell intelligens. I detta dokument genomför vi en undersökning av aktuella studier i att förstå neurala-nätverk representationer och lära neurala nätverk med tolknings- / disentangled representationer. Vi kan grovt definiera omfattningen av översynen i följande fem forskningsinriktningar:
I allmänhet, de flesta neurala nätverk uppnå en hög noggrannhet på kostnaden för låg tolkningsbarhet av black-box representationer, vilket gör det svårt för forskare att utforma och reglera nätverksarkitektur REF.
4,110,304
Visual interpretability for deep learning: a survey
{'venue': 'Frontiers of Information Technology & Electronic Engineering', 'journal': 'Frontiers of Information Technology & Electronic Engineering', 'mag_field_of_study': ['Computer Science']}
80,953
Abstract-Svåra energibegränsningar batteridrivna sensornoder kräver energieffektiv kommunikation i trådlösa sensornätverk (WSN). Det stora flertalet av de befintliga lösningarna är dock baserade på det klassiska skiktade protokollet, vilket leder till betydande omkostnader. Det är mycket effektivare att ha ett enhetligt system, som blandar gemensamma protokolllagerfunktioner i en tvärskiktsmodul. I detta dokument införs ett cross-layer-protokoll (XLP) som ger kontroll över trängsel, routing och medelhög åtkomstkontroll på ett tvärskiktsmässigt sätt. Designprincipen för XLP är baserad på konceptet mellan skikt av initiativbestämning, vilket gör det möjligt för mottagare-baserad stridighet, initiativ-baserad vidarebefordring, lokal överbelastning kontroll, och distribuerad arbetscykel drift att förverkliga effektiv och tillförlitlig kommunikation i WSNs. Initiativets fastställande kräver enkla jämförelser med tröskelvärdena, och därför är det mycket enkelt att genomföra, även när det gäller beräkningsbegränsade anordningar. Såvitt vi vet är XLP det första protokollet som integrerar funktioner i alla lager från PHY till transport till ett tvärskiktsprotokoll. Ett analytiskt ramverk över lager utvecklas för att undersöka XLP:s prestanda. I en simuleringsplattform över lager har dessutom de toppmoderna skikt- och tvärskiktsprotokollen genomförts tillsammans med XLP för prestandautvärderingar. XLP förbättrar kommunikationsprestandan avsevärt och överträffar de traditionella skiktade protokollarkitekturerna både när det gäller nätverksprestanda och komplexitet i genomförandet.
Arbetet med REF introducerar ett enhetligt tvärskiktssystem, som aggregerar gemensamma protokolllager till ett enda tvärskiktsprotokoll XLM för resursbegränsade sensornoder.
15,113,467
XLP: A Cross-Layer Protocol for Efficient Communication in Wireless Sensor Networks
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
80,954
Behoven av olika miljöinformation introducerar multimediadata i trådlösa sensornätverk. Egenskaperna hos de flesta multimediainformation, såsom stora mängder data och höga kvalitetskrav för nätverkstjänster, påverkar positivt traditionella trådlösa sensornätverk, som också härleder olika nya forskningsområden. Detta dokument fokuserar på multimedia bildsensornätverk och föreslår FVPTR (fuzzy bildigenkänning och virtuell-potentiell-field-baserad parad tangent punkt repulsion) metod för att förbättra perspektivet täckning av nätverket. Detta tillvägagångssätt använder suddig bildigenkänningsmetod för att bearbeta gränsnoder. Sikta på icke-gränsöverskridande noder, baserat på potentiell fältteori, antar det parade tangentpunkt repulsion mekanism, som försöker få den optimala nätverksavkänning täckning genom flera parade prestationer mellan en nuvarande nod och flera mål noder. I kombination med FVPTR läggs vissa algoritmer som LRBA, MBAA och blandad superpositionsalgoritm fram för enkel- eller flergångsjustering genom rotation av riktningsvinkeln. Resultaten av simulering och alla typer av jämförelser visar att tre gånger parningsmetoden förbättrar täckningen av nätverken väl.
Huang m.fl. REF fokuserade på multimediabildsensornätverken och föreslog en virtuell potentiell fältbaserad metod med hänsyn till sensorns riktning och rörelse för täckningsförbättringen.
33,340,953
A Novel Coverage Enhancement Algorithm for Image Sensor Networks
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
80,955
Abstract-Mobile-edge cloud computing är ett nytt paradigm för att tillhandahålla molndatafunktioner i utkanten av genomträngande radionät i nära anslutning till mobila användare. I det här dokumentet studerar vi först problemet med att avlasta flera användare för molndata i en trådlös störningsmiljö med flera kanaler. Vi visar att det är NP-hårdt att beräkna en centraliserad optimal lösning, och därmed anta en spelteoretisk metod för att uppnå effektiv beräkning offloading på ett distribuerat sätt. Vi formulerar den distribuerade beräkningen offloading beslutsfattande problem bland mobila användare som en multi-användare beräkning offloading spel. Vi analyserar den strukturella egenskapen i spelet och visar att spelet medger en Nash jämvikt och har den ändliga förbättring egenskapen. Vi utformar sedan en distribuerad beräkning offloading algoritm som kan uppnå en Nash jämvikt, härleda den övre gränsen för konvergenstiden, och kvantifiera dess effektivitet förhållande över de centraliserade optimala lösningarna i termer av två viktiga prestandamått. Vi utökar ytterligare vår studie till scenariot med fleranvändarberäkningsavlastning i den trådlösa innehållsmiljön med flera kanaler. Numeriska resultat bekräftar att den föreslagna algoritmen kan uppnå överlägsen beräkning offloading prestanda och skala samt användarens storlek ökar.
Chen och Al. REF har studerat problemet med avlastning av fleranvändarkod i mobila kantdatorer och föreslagit en distribuerad avladdning av beslutsalgoritm baserad på spelteori.
1,663,452
Efficient Multi-User Computation Offloading for Mobile-Edge Cloud Computing
{'venue': 'TNET', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,956
I detta brev undersöker vi den säkra överföringen i ett kognitivt satellit-territoriellt nätverk med en multi-antennas tjuvlyssnare, där störningar från markbaserad basstation införs för att öka säkerheten för satellitlänken. Vårt mål är att minimera sändningskraften genom att gemensamt optimera den kooperativa strålformningen och artificiellt buller samtidigt som vi garanterar sekretessgraden för satellitlänken, informationsbegränsningen för marklänken och den totala sändningskraftbegränsningen. Båda scenarierna i de perfekta och ofullkomliga kanalfallen beaktas. De resulterande optimeringsproblemen är icke-konvexa och utmanande, som effektivt löses genom vissa omvandlingar för att omformulera mer dragbara versioner, respektive. Numeriska resultat tillhandahålls för att bekräfta de föreslagna systemen. Index Terms-Satellite-territorial nätverk, säkerhet, kooperativ strålformning, perfekt och ofullständig kanal tillstånd information.
Sekretessprestandan för ett kognitivt satellit-territoriellt nätverk i närvaro av en tjuvlyssnare utrustad med flera antenner undersöks i REF, där störningar från den mobila basstationen avsiktligt införs för att öka säkerheten för satellitlänken.
3,400,773
Resource Allocations for Secure Cognitive Satellite-Terrestrial Networks
{'venue': 'IEEE Wireless Communications Letters', 'journal': 'IEEE Wireless Communications Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,957
Vi studerar kraften i tillförlitliga anonyma distribuerade system, där processer inte misslyckas, inte har identifierare, och kör identiska program. Vi är särskilt intresserade av de relativa befogenheterna hos system med olika kommunikationsmekanismer: anonym sändning, readwrite register, eller read-write register plus ytterligare delade minnesobjekt. Vi visar att ett system med anonym sändning kan simulera ett system av delade minnesobjekt om och endast om objekten uppfyller en egenskap som vi kallar idemdicence; detta resultat gäller oavsett om antingen systemet är synkront eller asynkront. Omvänt är nyckeln till att simulera anonym sändning i anonymt delat minne förmågan att räkna: sändningen kan simuleras av ett asynkront delat minnessystem som endast använder räknare, men läs-skriv register i sig räcker inte. Vi undersöker vidare den relativa kraften hos olika typer och storlekar av avgränsade räknare och avslutar med ett nonrobustness resultat.
Aspnes m.fl. REF har studerat simuleringar mellan ett distribuerat system med sändning och ett delat minnessystem i anonym och tillförlitlig miljö.
2,098,231
Relationships between broadcast and shared memory in reliable anonymous distributed systems
{'venue': 'Distributed Computing', 'journal': 'Distributed Computing', 'mag_field_of_study': ['Computer Science']}
80,958
Abstrakt. Vi betraktar problem med bildomvandling, där en indatabild omvandlas till en utdatabild. Nya metoder för sådana problem tränar normalt feed-forward konvolutionella neurala nätverk med hjälp av en per-pixel förlust mellan utdata och mark-truth bilder. Parallellt arbete har visat att högkvalitativa bilder kan genereras genom att definiera och optimera perceptuella förlustfunktioner baserat på hög nivå funktioner som extraheras från preutbildade nätverk. Vi kombinerar fördelarna med båda tillvägagångssätten och föreslår användning av perceptuella förlustfunktioner för utbildning av feed-forward-nätverk för bildomvandlingsuppgifter. Vi visar resultat på överföring av bildstil, där ett feed-forward-nätverk utbildas för att lösa det optimeringsproblem som Gatys et al föreslår i realtid. Jämfört med den optimeringsbaserade metoden ger vårt nätverk liknande kvalitativa resultat men är tre storleksordningar snabbare. Vi experimenterar också med en-bild super-upplösning, där ersätta en per-pixel förlust med en perceptuell förlust ger visuellt tilltalande resultat.
Alternativt kan förlustfunktionen utökas till att omfatta perceptuell förlust, tillämpad av Johanson et al. REF till style-överföring och super upplösning uppgifter.
980,236
Perceptual Losses for Real-Time Style Transfer and Super-Resolution
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,959
Vi undersöker problemet med språkbaserad bildredigering (LBIE). Med tanke på en källbild och en beskrivning av ett naturligt språk vill vi skapa en målbild genom att redigera källbilden baserat på beskrivningen. Vi föreslår ett generiskt modelleringsramverk för två deluppdrag av LBIE: språkbaserad bildsegmentering och bildfärgning. Ramverket använder återkommande uppmärksamma modeller för att sammansmälta bild- och språkfunktioner. Istället för att använda en fast stegstorlek, introducerar vi för varje region av bilden en termineringsgrind för att dynamiskt avgöra efter varje slutsats steg om att fortsätta extrapolera ytterligare information från textbeskrivningen. Ramverkets effektivitet är validerad på tre datauppsättningar. Först introducerar vi ett syntetiskt dataset, kallat CoSAL, för att utvärdera LBIE-systemets end-to-end-prestanda. För det andra visar vi att ramverket leder till toppmodern prestanda för bildsegmentering på ReferIt-datauppsättningen. För det tredje presenterar vi den första språkbaserade färgning resultat på Oxford-102 Blommor dataset.
Chen et al REF föreslog en återkommande uppmärksam modell för att redigera och färglägga bilder givna textbeskrivningar.
28,316,672
Language-Based Image Editing with Recurrent Attentive Models
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
80,960
Abstract-En av de viktigaste drivkrafterna för Bakterial Foraging Optimization Algorithm (BFOA) är reproduktion fenomenet av virtuella bakterier var och en av vilka modeller en försök lösning av optimeringsproblem. Under reproduktionen dör de minst hälsosamma bakterierna (med ett lägre ackumulerat värde av den objektiva funktionen i en kemotaktisk livstid) och de andra friskare bakterierna var och en delas i två, som sedan börjar utforska sökplatsen från samma plats. Detta håller befolkningens storlek konstant i BFOA. Fenomenet har en direkt analogi med urvalsmekanismen för klassiska evolutionära algoritmer. I den här artikeln ger vi en enkel matematisk analys av effekten av reproduktion på bakteriell dynamik. Vår analys visar att fortplantningen bidrar till en snabb konvergens av bakteriepopulationen nära optima.
Samma år tillhandahölls A.Abraham och A.Bis en enkel matematisk analys av det reproduktionssteg som användes i BFOA REF.
8,423,592
Analysis of reproduction operator in Bacterial Foraging Optimization Algorithm
{'venue': '2008 IEEE Congress on Evolutionary Computation (IEEE World Congress on Computational Intelligence)', 'journal': '2008 IEEE Congress on Evolutionary Computation (IEEE World Congress on Computational Intelligence)', 'mag_field_of_study': ['Computer Science']}
80,961
Ett av de äldsta problemen inom lingvistik är att rekonstruera de ord som framträdde på de protospråk från vilka moderna språk utvecklades. Att identifiera formerna för dessa forntida språk gör det möjligt att utvärdera förslag om språkförändringens karaktär och dra slutsatser om människans historia. Protospråk är typiskt rekonstrueras med hjälp av en mödosam manuell process som kallas den jämförande metoden. Vi presenterar en familj av probabilistiska modeller av ljudförändring samt algoritmer för att utföra slutledning i dessa modeller. Det resulterande systemet rekonstruerar automatiskt och exakt protospråk från moderna språk. Vi tillämpar detta system på 637 austronesiska språk, vilket ger en exakt, storskalig automatisk rekonstruktion av en uppsättning protospråk. Över 85% av systemets rekonstruktioner är inom en karaktär av den manuella rekonstruktion som tillhandahålls av en lingvist som specialiserar sig på austronesiska språk. Att automatiskt kunna rekonstruera ett stort antal språk är ett användbart sätt att kvantitativt undersöka hypoteser om de faktorer som avgör vilka ljud i ett språk som sannolikt kommer att förändras över tiden. Vi visar detta genom att visa att de rekonstruerade austronesiska protospråken ger övertygande stöd för en hypotes om förhållandet mellan ett ljuds funktion och dess sannolikhet att förändras som först föreslogs 1955. ancestral en computational på diakronic R econstruction of the proto languages where modern languages downed is a besvärligt problem, ockuperar historiska lingvister sedan slutet av 1700-talet. För att lösa detta problem har lingvister utvecklat en arbetsintensiv manuell procedur som kallas den jämförande metoden (1), med hjälp av information om de ljud och ord som förekommer på många moderna språk för att hypothesize protolanguage rekonstruktioner även när inga skriftliga poster finns tillgängliga, öppna ett av de få möjliga fönster för förhistoriska samhällen (2, 3). Rekonstruktioner kan hjälpa till att förstå många aspekter av vårt förflutna, såsom den tekniska nivån (2), migreringsmönster (4) och manus (2, 5) i de tidiga samhällena. Att jämföra rekonstruktioner på många språk kan bidra till att avslöja själva språkförändringens natur och identifiera vilka aspekter av språket som med största sannolikhet kommer att förändras över tiden, en mångårig fråga inom historisk lingvistik (6, 7). I många fall finns det inga direkta bevis på formen av protospråk. Lyckligtvis är det, på grund av världens avsevärda språkliga mångfald, fortfarande möjligt att föreslå återuppbyggnadar genom att utnyttja en stor samling främmande språk som härstammar från ett enda protospråk. Ord som förekommer i dessa moderna språk kan organiseras i cognate uppsättningar som innehåller ord som misstänks ha en delad anortal form (Tabell 1 ). Den viktigaste iakttagelsen som gör det möjligt att återuppbygga dessa data är att språk tycks genomgå en relativt begränsad uppsättning regelbundna ljudförändringar, som var och en tillämpas på hela vokabulären i ett språk i specifika skeden av dess historia (1). Men flera faktorer gör återuppbyggnaden till ett svårt problem. Till exempel är ljudförändringar ofta kontextkänsliga, och många är stränginsättningar och raderingar. I detta dokument presenterar vi ett automatiserat system med möjlighet till storskalig rekonstruktion av protospråk direkt från ord som förekommer på moderna språk. Detta system är baserat på en probabilistisk modell av ljudförändring på nivån för telefoni, bygger på arbetet med rekonstruktion av förfäderssekvenser och anpassning i beräkningsbiologi (8-12). Flera grupper har nyligen undersökt hur metoder från beräkningsbiologi kan tillämpas på problem inom historisk lingvistik, men ett sådant arbete har fokuserat på att identifiera sambanden mellan språk (som kan uttryckas i en fylogeni) snarare än att rekonstruera språken själva (13-18). Mycket av denna typ av arbete har baserats på binära cognate eller strukturella matriser (19, 20), som kastar all information om den form som orden tar, helt enkelt indikerar om de är cognate. Sådana modeller hade inte som mål att rekonstruera protospråk och använder följaktligen en representation som saknar den upplösning som krävs för att härleda anortal fonetiska sekvenser. Med hjälp av fonologiska representationer kan vi utföra rekonstruktion och kräver inte att vi antar att cognate uppsättningar har helt lösts som en förbehandling steg. Representera orden vid varje punkt i en phylogeny och har en modell av hur de förändras ger ett sätt att jämföra olika hypothesized cognate uppsättningar och därmed sluta cognate uppsättningar automatiskt. Fokus på andra problem än återuppbyggnad i tidigare beräkningsmetoder har inneburit att nästan alla befintliga protospråksrekonstruktioner har gjorts manuellt. Men för att få mer exakta rekonstruktioner för äldre språk måste ett stort antal moderna språk analyseras. Det proto-austronesiska språket har till exempel över 1.200 nedstigande språk (21). Alla dessa språk kan potentiellt öka kvaliteten på rekonstruktionerna, men antalet möjligheter ökar avsevärt för varje språk, vilket gör det svårt att analysera ett stort antal språk samtidigt. De få tidigare systemen för automatiserad rekonstruktion av protospråk eller cognate inference (22-24) kunde inte hantera denna ökning av beräknings komplexitet, eftersom de förlitade sig på deterministiska modeller av ljudförändring och exakta men svåråtkomliga algoritmer för rekonstruktion. Att kunna rekonstruera ett stort antal språk gör det också möjligt att ge kvantitativa svar på frågor om de faktorer som är inblandade i språkförändringar. Vi visar potentialen för automatiserad rekonstruktion att leda till nya resultat i historisk lingvistik genom att undersöka en specifik hypotes om regelbundenhet i ljudförändringar som kallas funktionell belastning. Den funktionella belastningshypotesen, som infördes 1955, hävdar att ljud som spelar en viktigare roll för att särskilja ord är mindre benägna att förändras över tid (6). Vår probabilistiska rekonstruktion av hundratals protospråk i den austronesiska phylogeny ger ett sätt att utforska denna fråga kvantitativt, producerar övertygande bevis till förmån för den funktionella belastning hypotesen.
REF använder en grafisk modell för att rekonstruera ordformerna i ProtoAustronesian med hjälp av Swadesh-listor.
14,616,476
Automated reconstruction of ancient languages using probabilistic models of sound change
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Computer Science', 'Medicine']}
80,962
Vi presenterar CROSSGRAD, en metod för att använda multi-domän utbildningsdata för att lära sig en klassificering som generaliserar till nya domäner. CROSSGRAD behöver inte en anpassningsfas via märkta eller omärkta data, eller domänfunktioner i den nya domänen. De flesta befintliga domänanpassningsmetoder försöker radera domänsignaler med hjälp av tekniker som domänadversarieträning. Däremot är CROSSGRAD fritt att använda domänsignaler för att förutsäga etiketter, om det kan förhindra överutrustning på utbildningsdomäner. Vi konceptualiserar uppgiften i en Bayesiansk inställning, där ett provtagningssteg implementeras som dataförstärkning, baserat på domänstyrda perturbationer av inmatningsinstanser. CROSSGRAD tränar parallellt en etikett och en domänklassificering på exempel som störs av förlustgradienter av varandras mål. Detta gör det möjligt för oss att direkt störa ingångar, utan att separera och omblanda domänsignaler samtidigt som vi gör olika fördelningsantaganden. Empirisk utvärdering av tre olika tillämpningar där denna inställning är naturlig fastställer att (1) domänstyrd perturbering ger konsekvent bättre generalisering till osynliga domäner, jämfört med generiska perturberingsmetoder, och att (2) dataförstärkning är en stabilare och mer exakt metod än domänadversarial utbildning.
Shankar m.fl. REF förstärkte källkodsdomänen med domänstyrda perturbationer av inmatningsinstanserna.
13,754,527
Generalizing Across Domains via Cross-Gradient Training
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,963
För att klara av den svåra vägen förlust, millimeter-våg (mm-våg) system utnyttja mycket riktad kommunikation. Till följd av detta kan till och med en liten ljusstörning mellan två kommunicerande anordningar (t.ex. på grund av rörlighet) ge upphov till en betydande signaldroppe. Detta leder till frekventa anrop av tidskrävande mekanismer för omjustering av strålen, vilket försämrar systemets prestanda. I det här dokumentet föreslår vi strategier för smart stråleutbildning och spårning för snabb mm-vågslänkutförande och underhåll under nodrörlighet. Vi utnyttjar hybrida analoga digitala transceivrars förmåga att samla in kanalinformation från flera rumsliga riktningar samtidigt och formulera ett probabilistiskt optimeringsproblem för att modellera den temporala utvecklingen av mmwavekanalen under mobilitet. Dessutom presenterar vi för första gången en strålspårningsalgoritm som extraherar information som behövs för att uppdatera styrriktningarna direkt från datapaket, utan behov av rumslig skanning under den pågående dataöverföringen. Simuleringsresultat, som erhållits av en anpassad simulator baserad på strålspårning, visar förmågan hos våra stråltränings-/spårningsstrategier att hålla kommunikationshastigheten endast 10% under den optimala gränsen. Jämfört med den senaste tekniken, vår strategi ger en 40% till 150% hastighetsökning, men kräver lägre komplexitet hårdvara.
Andra relevanta dokument i detta ämne inkluderar REF, där författarna föreslår smarta strålspårningsstrategier för snabb mmWave länk etablering och underhåll under nod rörlighet.
2,206,656
Tracking mm-Wave channel dynamics: Fast beam training strategies under mobility
{'venue': 'IEEE INFOCOM 2017 - IEEE Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2017 - IEEE Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
80,964
Abstrakt. Protokoll som bevisats säkra inom ramen för den universella kompatibiliteten (UC) uppfyller starka och önskvärda säkerhetsegenskaper. Tyvärr är det känt att inom den "plain" modellen, säker beräkning av allmänna funktioner utan en ärlig majoritet är omöjligt. Detta har fått forskare att föreslå olika "uppställningsantaganden" med vilka man kan utöka det nakna UC-ramverket för att kringgå detta allvarliga negativa resultat. Befintliga inställningsantaganden verkar till sin natur kräva någon betrodd part (eller parter) för att initiera installationen i den verkliga världen. Vi föreslår en ny uppsättning antagande - mer i linje med ett fysiskt antagande om förekomsten av manipuleringssäker hårdvara - som också räcker för att kringgå det omöjliga resultat som nämns ovan. Vi föreslår detta antagande som potentiellt leder till en strategi som kan minska behovet av betrodda parter, och jämföra vårt antagande med de som föreslagits tidigare. Under många år, forskare ansåg säkerheten av protokoll i en fristående miljö där en enda protokoll exekvering ansågs isolerat. Tyvärr, ett bevis på fristående säkerhet för ett protokoll ger i allmänhet inte några garantier när protokollet utförs flera gånger på ett parallellt sätt (eventuellt av olika grupper av parter), eller i ett nätverk där andra protokoll avrättningar äger rum. Detta förverkligande har motiverat en betydande mängd arbete som syftar till att tillhandahålla modeller och säkerhetsdefinitioner som uttryckligen tar itu med sådana problem. Ramverket för universell kompatibilitet (UC), som infördes av Canetti [6], ger starka säkerhetsgarantier i just en sådan miljö. (Andra ramar med liknande garantier finns också [20], men vi antar UC-modellen i detta arbete.) Vi hänvisar läsaren till Canettis uppsats för en fullständig diskussion om fördelarna med att arbeta inom denna ram, och fokuserar istället på frågan om genomförbarhet. Canettis inledande arbete visar redan breda genomförbarhetsresultat för att realisera någon (polynomisk-tidsberäknad) multi-part funktionalitet i närvaro av en
Katz REF visade att tvåparts- och flerpartsberäkning är möjlig förutsatt att en manipuleringssäker hårdvara.
16,473,878
Universally composable multi-party computation using tamper-proof hardware
{'venue': 'In EUROCRYPT, Lecture Notes in Computer Science', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,965
Sammanhang: Vetenskaplig programvara spelar en viktig roll i kritiskt beslutsfattande, till exempel att göra väderprognoser baserade på klimatmodeller, och beräkning av bevis för forskningspublikationer. Nyligen har forskare varit tvungna att dra tillbaka publikationer på grund av fel orsakade av programvara fel. Systematiska tester kan identifiera sådana fel i koden. Mål: Denna studie syftar till att identifiera specifika utmaningar, föreslagna lösningar och olösta problem vid testning av vetenskaplig programvara. Metod: Vi genomförde en systematisk litteraturundersökning för att identifiera och analysera relevant litteratur. Vi identifierade 62 studier som gav relevant information om testning av vetenskaplig programvara. Resultat: Vi fann att utmaningar vid testning av vetenskaplig programvara faller inom två huvudkategorier: (1) testutmaningar som uppstår på grund av egenskaper hos vetenskaplig programvara såsom orakelproblem och (2) testutmaningar som uppstår på grund av kulturella skillnader mellan forskare och programvaruteknik samhället såsom att titta på koden och den modell som den genomför som oskiljaktiga enheter. Dessutom identifierade vi metoder för att kunna övervinna dessa utmaningar och deras begränsningar. Slutligen beskriver vi olösta utmaningar och hur forskare och praktiker inom programvaruteknik kan bidra till att övervinna dem. Slutsatser: Vetenskaplig programvara innebär särskilda utmaningar för testning. Särskilt kulturella skillnader mellan forskare utvecklare och mjukvaruingenjörer, tillsammans med egenskaperna hos den vetenskapliga programvaran gör testning svårare. Befintliga tekniker som identifiering av kodkloner kan bidra till att förbättra testprocessen. Programvaruingenjörer bör överväga särskilda utmaningar som vetenskaplig programvara, t.ex. orakelproblem, innebär när de utvecklar testmetoder.
En av de största utmaningarna som uppstår på grund av egenskaperna hos vetenskaplig programvara är oracle problem REF.
4,602,249
Testing Scientific Software: A Systematic Literature Review
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Medicine']}
80,966
Vi presenterar en ny lösning på problemet med att återställa och spåra 3D-position, orientering och full artikulation av en mänsklig hand från markörlösa visuella observationer som erhållits av en Kinect-sensor. Vi behandlar detta som ett optimeringsproblem, söker efter handmodellparametrar som minimerar skillnaden mellan utseende och 3D struktur hypothesized fall av en handmodell och faktiska hand observationer. Detta optimeringsproblem löses effektivt med hjälp av en variant av partikelsvamoptimering (PSO). Den föreslagna metoden kräver inte särskilda markörer och / eller en komplex bild förvärv setup. Att vara modell baserad, det ger kontinuerliga lösningar på problemet med att spåra hand articulations. Omfattande experiment med en prototyp GPU-baserad implementation av den föreslagna metoden visar att noggrann och robust 3D-spårning av handledikuleringar kan uppnås i nära realtid (15Hz).
Nyligen, Oikonomidis et al. REF formulerar handen utgör ett återhämtningsproblem som en optimeringsmetod, som mäter skillnaden mellan en modell och den observerade handen.
8,677,556
Efficient Model-based 3 D Tracking of Hand Articulations using Kinect
{'venue': 'BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,967
Integrering av mobil-edge computing (MEC) och trådlös kraftöverföring (WPT) är en lovande teknik i Internet of Things (IoT) eran. Det kan ge massiva lågeffekt mobila enheter med förbättrad beräkningsförmåga och hållbar energiförsörjning. I detta dokument anser vi att ett trådlöst MEC-system med flera användare, där en multi-antennanslutningspunkt (AP) (integrerad med en MEC-server) sänder trådlös kraft för att ladda flera användare och varje användarnod förlitar sig på den skördade energin för att utföra latenskänsliga beräkningsuppgifter. Med MEC kan dessa användare utföra sina respektive uppgifter lokalt av sig själva eller avlasta alla eller delar av uppgifterna till AP baserat på en tidsdelning flera åtkomst (TDMA) protokoll. Under denna installation strävar vi efter en energieffektiv MEC-WPT-systemdesign genom att gemensamt optimera sändningsenergistrålkastaren vid AP, centralenhetens frekvenser (CPU) och de avlastade bitarna hos varje användare, samt tidsfördelningen mellan olika användare. I synnerhet minimerar vi energiförbrukningen vid AP över en viss tid block under förutsättning att beräkningar latens och energiavverkning begränsningar per användare. Genom att formulera detta problem i ett konvext ramverk och använda Lagrange-dualitetsmetoden får vi dess optimala lösning i en halvsluten form. Numeriska resultat visar fördelarna med den föreslagna gemensamma utformningen jämfört med alternativa referenssystem.
I REF integreras trådlös kraftöverföring i beräkningsavlastningsdesignen.
2,172,141
Joint offloading and computing optimization in wireless powered mobile-edge computing systems
{'venue': '2017 IEEE International Conference on Communications (ICC)', 'journal': '2017 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,968
Sårläkningsfrekvensen är fortfarande en intressant och viktig fråga, där moderna bildtekniker ännu inte har gett ett definitivt svar. För att styra bättre terapeutiska ingrepp krävs en bättre förståelse av de grundläggande mekanismer som driver vävnadsreparationer. Sårläkningshastigheten kvantifieras främst av hastigheten av förändringen av sårets yta. Syftet med detta arbete är att etablera en standardiserad och objektiv teknik för att bedöma utvecklingen av sårläkning i sår som visas på patientens fötter, med hjälp av textur bildanalys. Bildförbehandling, segmentering, textur och geometrisk analys tillsammans med visuell experts utvärdering användes för att bedöma sårläkningsprocessen. Totalt 77 digitala bilder från 11 olika försökspersoner med fotskador togs var tredje dag, i 21 dagar, av en billig digitalkamera under olika ljusförhållanden. Bilderna normaliserades och såren segmenterades automatiskt med hjälp av ett segmenteringssystem baserat på ormar. Från de segmenterade såren extraherades 56 olika texturegenskaper och 4 olika geometriska mått för att identifiera egenskaper som kvantifierar graden av sårläkning. Texturfunktioner som kan tyda på utvecklingen av sårläkningsprocessen identifierades. Mer specifikt, vissa textur funktioner ökar (genomsnitt, kontrast, grovhet och radial summa), medan vissa andra textur funktioner minskar (summan av kvadrater varians, summa varians, summa medelvärde, entropi, grovhet, EE-lagar textur energimått och Hurst koefficienter för fraktal dimension en och två analys) med progression av sårläkningsprocessen. Dessa egenskaper konstaterades vara signifikant annorlunda vid en observerad tidpunkt under sårläkningsprocessen, jämfört med tidigare olika tidpunkter, och detta kunde användas för att indikera graden av sårläkning. Inga signifikanta skillnader kunde konstateras för alla geometriska åtgärder som utvunnits ur såren mellan olika tidpunkter. Baserat på resultaten av denna studie, föreslås det att vissa texturfunktioner kan användas för att övervaka sårläkningsprocessen, vilket minskar arbetsbelastningen för experter, ger standardisering, minska kostnader, och förbättra behandlingskvaliteten för patienter. Enkelheten i metoden tyder också på att det kan vara ett värdefullt verktyg i klinisk sårbedömning. En studie i större skala behövs för att fastställa tillämpningen i klinisk praxis och för att beräkna texturfunktioner och geometriska åtgärder som kan ge information för bättre och tidigare differentiering av sårläkningsprocessen. Framtida arbete kommer att innehålla ytterligare texturdetaljer och geometriska åtgärder för att bedöma sårläkningsprocessen för att kunna användas i den verkliga kliniska praktiken.
Sårläkningshastigheten kvantifieras främst genom byte av såryta och författarna försöker definiera en standardiserad och objektiv teknik för att bedöma utvecklingen av sårläkning, med hjälp av texturbildanalys REF.
17,645,801
Evaluation of wound healing process based on texture image analysis
{'venue': None, 'journal': 'Journal of Biomedical Graphics and Computing', 'mag_field_of_study': ['Computer Science']}
80,970
Routing-protokollet är ett viktigt ämne i de trådlösa sensornätverken. För trådlösa sensornätverk i MultiSink är utformningen och implementeringen av routingprotokollet svårare på grund av strukturens komplexitet. Papperet behandlar problemet med en flerdimensionell träd routing protokoll för multisink trådlösa sensornätverk baserat på myrkolonioptimering. Det föreslagna protokollet är som följer: 1) lyssnande mekanism används för att upprätta och upprätthålla multidimensionell träd routing topologi; 2) med beaktande av humle, paketförluster, återsändning och fördröjningskonto, föreslås en distribuerad myrkolonialgoritm. När noder väljer rutter i dataöverföringen, används algoritmen för att förverkliga realtidsoptimering genom samordning mellan noder. Simulationsresultaten visar att det föreslagna protokollet kan förverkliga QoS-optimering för trådlösa sensornätverk med multisänka, och dess prestanda är bättre än routingprotokollet med minimala humlenummer.
Ett annat routingprotokoll som föreslås i REF använder distribuerad myrkolonialgoritm.
43,388,446
A Multiple-Dimensional Tree Routing Protocol for Multisink Wireless Sensor Networks Based on Ant Colony Optimization
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
80,971
Diagram med avgränsad motorvägsdimension introducerades av Abraham m.fl. [SODA 2010] som modell för transportnät. Vi visar att varje sådan graf kan inbäddas i en fördelning över avgränsade trädbredd grafer med godtyckligt liten förvrängning. Mer konkret, med tanke på en viktad graf G = (V, E) av konstant vägdimension, visar vi hur man slumpmässigt beräknar en viktad graf H = (V, E ) som förvränger kortaste vägavstånd av G med högst en 1 + ε faktor i förväntan, och vars trädbredd är polylogaritmisk i proportion till G. Vår probabilistiska inbäddning innebär kvasi-polynom tid approximation system för ett antal optimeringsproblem som naturligt uppstår i transportnät, inklusive Travelling Salesman, Steiner Tree, och Facility Plats. För att bygga vår inbäddning för grafer med låga motorvägsdimensioner förlänger vi Talwars [STOC 2004] inbäddning av mått med låga dubbleringsdimensioner i avgränsade grafer med trädbredd, vilket generaliserar kända resultat för euklideiska mått. Vi lägger till flera icke-triviala ingredienser till Talwars tekniker, och i synnerhet noggrant analysera strukturen av grafer med låg motorvägsdimension. Således visar vi att den geometriska verktygslåda som används för Euclideans mått sträcker sig bortom klassen av låga dubbleringsmått.
Feldmann m.fl. REF tar hänsyn till datorrelaterade approximationer för olika andra problem som naturligt uppstår i transportnäten.
11,339,698
A (1 + ε)-Embedding of Low Highway Dimension Graphs into Bounded Treewidth Graphs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,972
Vi presenterar en oövervakad metod för symmetrisk ordjustering där två enkla asymmetriska modeller tränas gemensamt för att maximera en kombination av datasannolikhet och överenskommelse mellan modellerna. Jämfört med standard praxis att korsa förutsägelser av självständigt utbildade modeller, ger gemensam utbildning en 32% minskning av AER. Dessutom ger ett enkelt och effektivt par HMM-konfiguratorer en 29% minskning av AER över symmetriiserade IBM modell 4 förutsägelser.
I REF föreslås avtalsbaserat lärande, som tillsammans lär sig sannolikheter genom att maximera en kombination av sannolikhet och överenskommelse mellan två riktningsmodeller.
618,683
Alignment By Agreement
{'venue': 'Human Language Technology Conference And Meeting Of The North American Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,973
Vi presenterar en distribuerad algoritm för uppgiftstilldelning i multiagentsystem för inställningar där agenter och uppgifter är geografiskt utspridda i tvådimensionellt utrymme. Vi beskriver en metod som gör det möjligt för agenter att individuellt bestämma hur de ska röra sig så att de som grupp effektivt tilldelas uppgifter. Metoden består av två algoritmer och är särskilt användbar i miljöer med mycket stort antal agenter och uppgiftsnoder. En algoritm anpassar beräkningsgeometri tekniker för att bestämma adjacency information för agent noderna med tanke på de geografiska positionerna för agenter och uppgifter. Denna adjakens information används för att bestämma de synliga noder som är mest relevanta för en agents beslutsprocess och för att eliminera de som den inte bör överväga. Den andra algoritmen använder lokala heuristik baserade enbart på en agents angränsande noder för att bestämma dess tillvägagångssätt. Denna metod ger förbättrad uppgiftstilldelning jämfört med tidigare algoritmer som föreslagits för liknande miljöer. Vi presenterar också en modifiering av den andra algoritmen som förbättrar prestanda i miljöer där flera agenter krävs för att slutföra en enda uppgift.
Sanders och Als arbete. I REF införs beräkningsgeometribaserade algoritmer för distribuerad uppgiftstilldelning inom geografiska områden.
4,883,365
A scalable, distributed algorithm for efficient task allocation
{'venue': "AAMAS '02", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,974
Simulering är ofta det enda praktiska sättet att testa arkitektoniska idéer och bedöma systemets prestanda. Simulatorer ger flexibilitet att ändra och analysera inverkan av olika arkitektoniska parametrar och komponenter samt möjliggöra mer detaljerad statistik insamling än verklig hårdvara. Dessa fördelar gör simulering användbar även för projekt som så småningom kommer att genomföra hårdvara. Före 1994, de flesta akademiska delade minnes multiprocessor studier ignorerade till stor del processorn modellen, fokuserar istället på minnet systemet som den viktigaste prestanda flaskhals. Dessa studier antog en förenklad processormodell baserad på i-order utgåva, blockera läsningar, och ingen spekulation. Men i början av 1990-talet såg flera meddelanden av kommersiella delade minnessystem med hjälp av processorer som aggressivt utnyttjade undervisningsnivå parallellism (ILP) såsom MIPS R10000, Hewlett-Packard PA8000, och Intel Pentium Pro. Dessa processorer hade potential att minska minnesavläsningsbås genom överlappande läslatens med andra operationer, eventuellt ändra karaktären av flaskhalsar i systemet. Eftersom det inte fanns några delade ILP-system eller simulatorer på den tiden, konstruerade vi Rsim-originellt en akronym för Rice-simulator för ILP-multiprocessorer för att studera sådana system. Två stora frågor vägledde våra insatser: • Har processorn mikroarkitekturen inflytande på delad prestanda och design i den utsträckning som den motiverar sina detaljerade modelleringskostnader och tillhörande prestandakostnader i en delad minnessimulator? • Med enkla processorbaserade simulatorer som redan tar lång tid att köra, skulle vi kunna bygga en sådan detaljerad simulator tillräckligt effektivt för att utföra substantiella arkitekturstudier i rimlig tid? Vår erfarenhet av Rsim visar att modellering av ILP-funktioner är viktigt även i system med delade multiprocessorer. I synnerhet nuvarande enkla processorbaserade approximationer kan inte modellera betydande prestandaeffekter för tillämpningar som uppvisar parallella läsfel. Dessutom nyligen delade-minne design-till exempel aggressiva implementationer av sekventiell konsistens 1 -direkt använda aggressiva ILP-förbättrande funktioner moderna processorer som enkla processorer-baserade simulatorer inte modell. Vi har också visat att betydande multiprocessorstudier kan utföras med den aktuella hastigheten på ILP-simulatorer. Att förbättra deras hastighet är dock avgörande för den framtida arbetsbördan. Vår Rsim är en allmänt tillgänglig arkitektursimulator för delade minnessystem byggda från processorer som aggressivt utnyttjar parallellism på undervisningsnivå. Modellering av ILP-funktioner i en multiprocessor är särskilt viktigt för tillämpningar som uppvisar parallellism bland läsfel.
RSim är en simulator för instruction-level parallellism (ILP) multiprocessorer med stöd för ccNUMA arkitekturer med en invalidering-baserad katalog karterade sammanhållen protokoll REF.
887,583
Rsim : Simulating Shared-Memory Multiprocessors with ILP Processors
{'venue': 'IEEE Computer', 'journal': 'IEEE Computer', 'mag_field_of_study': ['Computer Science']}
80,975
Abstract-Eftersom textinnehållet på sociala medier online är mycket ostrukturerat, informellt och ofta felstavat, kan befintlig forskning om stötande språkdetektering på budskapsnivå inte korrekt upptäcka stötande innehåll. Samtidigt verkar offensivitetsdetektering på användarnivå vara en mer genomförbar metod, men det är ett underforskat område. För att överbrygga denna lucka föreslår vi Lexical Syntaktic Feature (LSF) arkitektur för att upptäcka stötande innehåll och identifiera potentiella stötande användare i sociala medier. Vi skiljer på pejoratives/profanities och obscenities bidrag till att bestämma stötande innehåll, och inför hand-authoring syntaktic regler för att identifiera namn-kalla trakasserier. I synnerhet införlivar vi en användares skrivstil, struktur och specifika cybermobbning innehåll som funktioner för att förutsäga användarens potential att skicka ut stötande innehåll. Resultaten från experimenten visade att vårt LSF-ramverk presterade betydligt bättre än befintliga metoder i stötande innehållsdetektering. Den uppnår precision på 98,24 % och erinrar om 94,34 % i detektion av straffoffensiv, samt precision på 77,9 % och återkallande av 77,8 % i detektion av användaroffensiver. Samtidigt är processhastigheten för LSF ungefär 10msek per mening, vilket tyder på potentialen för effektiv spridning i sociala medier.
REF föreslog en Lexical Syntaktic Feature-arkitektur för att överbrygga klyftan mellan att upptäcka stötande innehåll och potentiella stötande användare i sociala medier, och hävdade att även om befintliga metoder behandlar meddelanden som oberoende instanser bör fokus ligga på källan till innehållet.
6,306,899
Detecting Offensive Language in Social Media to Protect Adolescent Online Safety
{'venue': '2012 International Conference on Privacy, Security, Risk and Trust and 2012 International Confernece on Social Computing', 'journal': '2012 International Conference on Privacy, Security, Risk and Trust and 2012 International Confernece on Social Computing', 'mag_field_of_study': ['Computer Science']}
80,976
I detta dokument föreslår vi en ny sträng-till-beroende algoritm för statistisk maskinöversättning. Med denna nya ram använder vi oss av en målbaserad språkmodell under avkodningen för att utnyttja långväga ordrelationer, som inte är tillgängliga med en traditionell n-grams språkmodell. Våra experiment visar att sträng-till-beroende dekoder uppnår 1,48 punkt förbättring i BLEU och 2,53 punkt förbättring i TER jämfört med en standard hierarkisk sträng-sträng system på NIST 04 kinesisk-engelska utvärdering uppsättning.
REF använder sig av målberoende träd och en språkmodell för målberoende under avkodningen.
832,217
A New String-to-Dependency Machine Translation Algorithm with a Target Dependency Language Model
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,977
Användningen av drönare små celler (DSCs) som är antennbaserade trådlösa basstationer som kan monteras på flygande enheter såsom obemannade luftfartyg (UAVs), växer fram som en effektiv teknik för att tillhandahålla trådlösa tjänster till markanvändare i en mängd olika scenarier. En av de viktigaste designutmaningarna är en effektiv utbyggnad av sådana DSC samtidigt som man optimerar det täckta området. I detta dokument, med tanke på låghöjdsplattformen (LAP), undersöks DSC:s nedlänktäckningsprestanda. Den optimala DSC-höjden, som leder till maximal marktäckning och minsta erforderliga sändningseffekt för en enda DSC, härleds. Dessutom undersöks problemet med att tillhandahålla en maximal täckning för ett visst geografiskt område med hjälp av två DSC i två scenarier; störningsfri och fullständig interferens mellan DSC. Inverkan av avståndet mellan DSC på täckningsområdet studeras och det optimala avståndet mellan DSC som resulterar i maximal täckning härleds. Numeriska resultat verifierar våra analytiska resultat på förekomsten av optimal DSC höjd/separationsavstånd och ger insikter om optimal distribution av DSC för att komplettera trådlös nätverkstäckning.
I REF undersöks flyg-BS:s nedlänkstäckningsprestanda.
2,864,161
Drone Small Cells in the Clouds: Design, Deployment and Performance Analysis
{'venue': '2015 IEEE Global Communications Conference (GLOBECOM)', 'journal': '2015 IEEE Global Communications Conference (GLOBECOM)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,978
Eftersom en uppgift T, en pool av individer X med olika färdigheter, och ett socialt nätverk G som fångar kompatibiliteten bland dessa individer, studerar vi problemet med att hitta X, en delmängd av X, att utföra uppgiften. Vi kallar det här Team Formation-problemet. Vi kräver att medlemmar i X inte bara uppfyller kompetenskraven för uppgiften, men kan också arbeta effektivt tillsammans som ett team. Vi mäter effektiviteten med hjälp av de kommunikationskostnader som uppstår av delgrafen i G som endast involverar X. Vi studerar två varianter av problemet för två olika kommunikations-kostnadsfunktioner, och visar att båda varianterna är NP-hårda. Vi utforskar deras kopplingar till befintliga kombinatoriska problem och ger nya algoritmer för deras lösning. Såvitt vi vet är detta det första arbetet med att överväga problemet med Team Formation i närvaro av ett socialt nätverk av individer. Experiment på DBLP-datasetet visar att vårt ramverk fungerar bra i praktiken och ger användbara och intuitiva resultat.
Lappas m.fl. REF föreslog att man skulle hitta en expertgrupp genom att överväga problemet med gruppbildning i sociala nätverk.
9,466,509
Finding a team of experts in social networks
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,979
Abstrakt. Slumpmässiga skogar är en kombination av trädförutsägare så att varje träd beror på värdena för en slumpmässig vektor som provtas självständigt och med samma fördelning för alla träd i skogen. Generaliseringsfelet för skogarna konvergerar a.s. till en gräns när antalet träd i skogen blir stort. En trädklassningsskogs generaliseringsfel beror på styrkan hos de enskilda träden i skogen och sambandet mellan dem. Använda ett slumpmässigt urval av funktioner för att dela varje nod ger felfrekvenser som jämför gynnsamt med Adaboost (Y. Freund & R. Schapire, Maskininlärning: Proceedings of the Trettonde International conference, * * * *, 148-156), men är mer robust med avseende på buller. Interna uppskattningar övervakar fel, styrka och korrelation och dessa används för att visa svaret på att öka antalet funktioner som används i uppdelningen. Interna skattningar används också för att mäta variabel betydelse. Dessa idéer är också tillämpliga på regression.
I REF används den starka lagen om stora tal för att bevisa att förutsägelsen om slumpmässiga skogar nästan säkert konvergerar till en gräns när antalet träd i skogen blir stort.
89,141
Random Forests
{'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,980
Att uppskatta 6D-poser av objekt från bilder är ett viktigt problem i olika tillämpningar som robotmanipulering och virtuell verklighet. Medan direkt regression av bilder till objekt poser har begränsad noggrannhet, matcha renderade bilder av ett objekt mot den ingående bilden kan ge exakta resultat. I detta arbete föreslår vi ett nytt djupt neuralt nätverk för 6D pose matchning som heter DeepIM. Med tanke på en första pose uppskattning, vårt nätverk kan iterativt förfina posen genom att matcha den renderade bilden mot den observerade bilden. Nätverket är utbildat för att förutsäga en relativ pose transformation med hjälp av en löslig representation av 3D plats och 3D orientering och en iterativ utbildningsprocess. Experiment på två allmänt använda referensvärden för 6D-pose-uppskattning visar att DeepIM uppnår stora förbättringar jämfört med de senaste metoderna. Vi visar dessutom att DeepIM kan matcha tidigare osynliga objekt.
Närmare relaterat är DeepIM-metoden av Li et al. REF, som formulerade 6D objekt utgör uppskattning som en iterativ pose förfining process som förfinar den ursprungliga pose genom att försöka matcha den renderade bilden med den observerade bilden.
203,626,840
DeepIM: Deep Iterative Matching for 6D Pose Estimation
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']}
80,981
Abstrakt. Användning av sammanhang är viktigt i interaktiva tillämpningar. Det är särskilt viktigt för applikationer där användarens sammanhang förändras snabbt, t.ex. i både handhållna och allmänt förekommande datorer. För att bättre förstå hur vi kan använda sammanhang och underlätta uppbyggnaden av sammanhangsmedvetna applikationer behöver vi mer till fullo förstå vad som utgör en sammanhangsmedveten applikation och vad sammanhang är. Mot detta mål har vi kartlagt befintligt arbete i kontextmedvetna datorer. I detta dokument ger vi en översikt över resultaten av denna undersökning och i synnerhet definitioner och kategorier av sammanhang och sammanhangsmedvetenhet. Vi avslutar med rekommendationer för hur denna bättre förståelse av sammanhanget ska ligga till grund för en ram för utveckling av sammanhangsmedvetna tillämpningar.
Sammanhanget och dess natur i sammanhangsmedveten databehandling har kartlagts i REF.
10,242,279
Towards a Better Understanding of Context and Context-Awareness
{'venue': 'HUC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,982
Abstract-Denna artikel beskriver informationsbaserade metoder för att bearbeta och organisera rumsligt distribuerade, multimodala sensordata i ett sensornätverk. Energibegränsade nätverksbaserade avkänningssystem måste vara beroende av samverkande signal- och informationshantering (CSIP) för att dynamiskt fördela resurser, upprätthålla flera avkänningssystem och ta del av nya stimuli av intresse, allt baserat på uppgiftskrav och resursbegränsningar. Målspårning är en viktig förmåga för sensornätverk och används som ett kanoniskt problem för att studera information organisationsproblem i CSIP. Efter att ha formulerat ett CSIP-spårningsproblem i ett distribuerat begränsat optimeringsramverk beskriver tidningen IDSQ och andra tekniker för att spåra individuella mål samt kombinatoriska spårningsproblem såsom att räkna mål. Resultaten från simuleringar och experimentella implementationer har visat att dessa informationsbaserade metoder är skalbara och effektivt utnyttjar knappa avkännings- och kommunikationsresurser. Keywords-Sensor-nätverk, distribuerad avkänning, samverkande signal- och informationsbehandling, informationsverktyg, begränsad optimering, målspårning. I. Sensor Network Applications, Restriktioner och Utmaningar Nätverksanalys erbjuder unika fördelar jämfört med traditionella centraliserade tillvägagångssätt. Täta nätverk av distribuerade nätverkssensorer kan förbättra det upplevda förhållandet mellan signal och buller (SNR) genom att minska de genomsnittliga avstånden från sensor till mål. Ökad energieffektivitet i kommunikation möjliggörs av multi-hop topologi av nätverket [22]. Dessutom kan ytterligare relevant information från andra sensorer aggregeras under denna multihop-överföring genom nätverksbearbetning [13]. Men kanske de största fördelarna med nätverksavkänning är förbättrad robusthet och skalbarhet. Ett decentraliserat avkänningssystem är i sig mer robust mot individuell sensornod eller länkfel, på grund av redundans i nätverket. Decentraliserade algoritmer är också mycket mer skalbara i praktisk driftsättning, och kan vara det enda sättet att uppnå de stora skalor som behövs för vissa applikationer. Ett sensornätverk är utformat för att utföra en uppsättning informationsbehandlingsuppgifter på hög nivå, t.ex. detektering, spårning eller klassificering. Prestandamått för dessa uppgifter är väl definierade, inklusive upptäckt, falsklarm eller fel, klassificeringsfel och spårkvalitet. Kommersiella och militära tillämpningar omfattar miljöövervakning (t.ex. trafik, livsmiljö, säkerhet), industrianalys och diagnostik (t.ex. fabrik, apparater), infrastrukturskydd (t.ex. kraftnät, vattendistribution) och medvetenhet om slagfält (t.ex. flermålsspårning). Till skillnad från ett centraliserat system är dock ett sensornätverk föremål för en unik uppsättning resursbegränsningar såsom begränsad batterieffekt ombord och begränsad nätverkskommunikationsbandbredd. I ett typiskt sensornätverk fungerar varje sensornod obundet och har en mikroprocessor och begränsad mängd minne för signalbehandling och aktivitet schemaläggning. Varje nod är också utrustad med en eller flera akustiska mikrofonsystem, video- eller stillbildskameror, IR, seismiska eller magnetiska avkänningsanordningar. Varje sensornod kommunicerar trådlöst med ett litet antal lokala noder inom radiokommunikationsområdet. Den nuvarande generationen av trådlös sensor hårdvara sträcker sig från skokartong storlek Sensoria WINS NG sensorer [20] med en SH-4 mikroprocessor till matchbox storlek Berkeley Motes med en 8-bitars microcontroller [12]. Det är välkänt att kommunikation över det trådlösa mediet förbrukar mycket mer energi än att bearbeta biten. För Sensoria-sensorerna och Berkeley-motorna ligger förhållandet mellan energiförbrukningen för kommunikation och beräkning inom intervallet 1 000–10 000. Trots framstegen inom kiseltillverkningsteknik kommer trådlös kommunikation att fortsätta att dominera energiförbrukningen i inbyggda nätverksanslutna system under överskådlig framtid [8]. Således minimera mängden och omfattningen av kommunikation så mycket som möjligt, till exempel genom lokalt samarbete, datakomprimering, eller åberopa endast noder som är relevanta för en given uppgift, kan avsevärt förlänga livslängden för ett sensornätverk och lämna noder fria att stödja flera användares verksamhet. Traditionella signalbehandlingsmetoder har fokuserat på att optimera skattningskvaliteten för en fast uppsättning tillgängliga resurser. För strömbegränsade och decentraliserade system med flera användare blir det dock viktigt att noggrant välja de inbyggda sensornoder som deltar i sensorsamarbetet och balansera informationsbidraget från var och en mot dess resursförbrukning eller potentiella nytta för andra användare. Detta tillvägagångssätt är särskilt viktigt i täta nätverk, där många mätningar kan vara mycket överflödiga, och kommunikationsgenomströmningen kraftigt begränsad. Vi använder termen "collaborative signal and information processing" (CSIP) för att hänvisa till signal- och informationsbehandlingsproblem som domineras av detta problem att välja inbäddade
Zhao m.fl. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. beskriven gemensam signalbehandling REF för att hämta mer exakt information från sensordata och uppnå bättre målspårningsprestanda.
15,102,116
Collaborative Signal and Information Processing: An Information Directed Approach
{'venue': 'Proceedings of the IEEE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,983
Målet med detta papper är att analysera de geometriska egenskaperna hos djupa neurala nätverk klassificerare i inmatningsutrymmet. Vi studerar specifikt topologin för klassificeringsregioner som skapats av djupa nätverk, samt deras tillhörande beslutsgräns. Genom en systematisk empirisk undersökning visar vi att toppmoderna djupnät lär sig sammanhängande klassificeringsregioner, och att beslutsgränsen i närheten av datapunkter är platt längs de flesta riktningar. Vi drar vidare en väsentlig koppling mellan två till synes orelaterade egenskaper hos djupa nätverk: deras känslighet för additiva störningar i ingångarna och krökning av deras beslutsgräns. De riktningar där beslutsgränsen är böjd karakteriserar i själva verket de riktningar som klassificeringsgivaren är mest sårbar för. Slutligen utnyttjar vi en grundläggande asymmetri i krökning av beslutsgränsen för djupa nät, och föreslår en metod för att skilja mellan originalbilder och bilder som är störda med små kontradiktoriska exempel. Vi visar hur effektivt detta rent geometriska tillvägagångssätt är för att upptäcka små motsträviga perturbationer i bilder och för att återställa etiketterna på perturbedbilder.
REF studerade geometrin och komplexiteten hos de funktioner som DNN lärt sig och tillhandahöll empirisk analys av krökningarna av deras beslutsgränser.
5,144,578
Classification regions of deep neural networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,984
Vi studerar sociala nätverk online där relationer kan vara antingen positiva (vägledande relationer som vänskap) eller negativa (vägledande relationer som opposition eller antagonism). En sådan blandning av positiva och negativa länkar uppstår i en mängd olika online-inställningar; vi studerar datauppsättningar från Epinions, Slashdot och Wikipedia. Vi finner att tecken på länkar i de underliggande sociala nätverken kan förutsägas med hög noggrannhet, med hjälp av modeller som generaliserar över detta olika utbud av webbplatser. Dessa modeller ger insikt i några av de grundläggande principer som driver bildandet av signerade länkar i nätverk, kastar ljus över teorier om balans och status från socialpsykologi; de föreslår också sociala datortillämpningar genom vilka en användares inställning till en annan kan beräknas utifrån bevis som tillhandahålls av deras relationer med andra medlemmar i det omgivande sociala nätverket. ACM 978-1-60558-799-8/10/04. Den grundläggande frågan är då följande: Hur samverkar tecknet på en given länk med mönstret av länkskyltar i sin lokala närhet, eller mer allmänt i hela nätverket? Dessutom, vilka är de rimliga konfigurationerna av länkskyltar i verkliga sociala nätverk? Svar på dessa frågor kan hjälpa oss att resonera om hur negativa relationer används i online-system, och svar som generaliseras över flera domäner kan hjälpa till att belysa några av de underliggande principerna. Effektiva svar på sådana frågor kan också bidra till att informera utformningen av sociala datortillämpningar där vi försöker dra slutsatsen (oobserved) attityd av en användare mot en annan, med hjälp av de positiva och negativa relationer som har observerats i närheten av denna användare. En gemensam uppgift i nätgemenskaper är att föreslå nya relationer till en användare genom att föreslå att man skapar länkar till andra användare med vilka man delar vänner, intressen eller andra egenskaper. Utmaningen här är att användarna mycket väl kan ha redan befintliga attityder och åsikter - både positiva och negativa - gentemot andra som de delar vissa egenskaper med, och därmed innan de godtyckligt ger sådana förslag till användare, är det viktigt att kunna uppskatta dessa attityder från befintliga bevis i nätverket. Om A till exempel är känt för att ogilla människor som B tycker om, kan detta mycket väl ge bevis för A:s inställning till B. Förutsägelse av kanttecken. Med detta i åtanke, vi börjar med att formulera en konkret underliggande uppgift - kanten tecken förutsägelse problem - som vi kan direkt utvärdera och jämföra olika tillvägagångssätt. Kantteckens förutsägelseproblem definieras enligt följande. Antag att vi får ett socialt nätverk med tecken på alla dess kanter, men tecknet på kanten från node u till node v, betecknad s(u, v), har varit "dold". Hur tillförlitligt kan vi härleda detta tecken s (u, v) med hjälp av den information som tillhandahålls av resten av nätverket? Observera att detta problem är både en konkret formulering av våra grundläggande frågor om de typiska mönster av länktecken, och också ett sätt att närma sig vår motiverande tillämpning av sluta oobserverade attityder bland användare av sociala datorer webbplatser. Det finns en analogi här med länken förutsägelse problem för sociala nätverk [16]; på samma sätt som länk förutsägelse används för att dra slutsatser latenta relationer som är närvarande men inte registreras genom explicita länkar, kan tecken förutsägelse problem användas för att uppskatta känslan av individer mot varandra, med tanke på information om andra känslor i nätverket. När vi studerar problemet med teckenprognoser följer vi ett experimentellt ramverk som formulerats av Guha et al. i sina studier av tillit och misstro mot epinioner [8]. Vi utvidgar deras tillvägagångssätt i ett antal riktningar. För det första, där deras mål var att utvärdera spridningsalgoritmer baserade på exponentiering adjacency-matrisen, närmar vi oss problemet med hjälp av en maskininlärning ram som gör det möjligt för oss att utvärdera vilka av en rad strukturella funktioner som är mest informativa för förutsägelsen uppgift. Med hjälp av denna ram får vi också betydligt bättre resultat på själva uppgiften.
Leskovec m.fl. REF använder grad och ömsesidig information mellan par av noder för länk förutsägelse och vinster från teorin om balans och status för att förutsäga länken tecken.
7,119,014
Predicting positive and negative links in online social networks
{'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Physics']}
80,985
En av de största utmaningarna i designen av trådlösa sensornätverk (WSN) är att minska energiförbrukningen hos sensornoder för att förlänga livslängden för ändliga kapacitetsbatterier. I detta dokument föreslår vi ett energieffektivt adaptivt system för överföring (EAST) i WSN. EAST är en IEEE 802.15.4 standardkompatibel. I detta system används återkopplingsprocessen för öppen krets för temperaturmedveten kvalitetsberäkning och kompensation, där en sluten återkopplingsprocess bidrar till att dela upp nätet i tre logiska regioner för att minimera omkostnaderna för kontrollpaket. Tröskelvärde på sändare effektförlust (RSSI förlust ) och nuvarande antal noder ( ( ( )) i varje region hjälper till att anpassa sändning effektnivå ( nivå ) enligt länk kvalitetsförändringar på grund av temperaturvariation. Utvärdering av det föreslagna systemet görs genom att överväga mobila sensornoder och referensnod både statiska och mobila. Simuleringsresultat visar att det föreslagna systemet på ett effektivt sätt anpassar överföringsnivån till att ändra länkkvaliteten med mindre kontrollpaket omkostnader och energiförbrukning jämfört med klassiskt tillvägagångssätt med en enda region där maximal sändare nivå tilldelas för att kompensera temperaturvariation.
Ett IEEE 802.15.4-kompatibelt protokoll utvecklas i REF som minimerar energiförbrukningen samtidigt som den erforderliga tillförlitligheten uppnås.
3,893,924
On Adaptive Energy-Efficient Transmission in WSNs
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
80,986
Magnetisk resonanstomografi (MRI) segmentering är en komplex fråga. I detta dokument föreslås en ny metod för att uppskatta rätt antal segment och automatisk segmentering av mänskliga normala och onormala MR-hjärnbilder. Syftet med automatisk diagnos av segmenten är att hitta antalet delade bildområden av en bild enligt dess entropi och med korrekt diagnos av segment av en bild ökade också precisionen av segmentering. När det gäller det faktum att gissa antalet bildsegment och mitten av segment automatiskt kräver algoritm testa många stater för att lösa detta problem och för att ha en hög noggrannhet, använde vi en kombination av den genetiska algoritmen och fuzzy c-means (FCM) metod. I denna metod har man försökt att ändra FCM-metoden som en fitnessfunktion för en kombination av den i genetisk algoritm för att göra bildsegmenteringen mer exakt. Vårt experiment visar att den föreslagna metoden har en betydande förbättring av noggrannheten i bildsegmenteringen jämfört med liknande metoder.
Fuzzy -means (FCM) i samband med GA diskuterades i REF där resultaten visade en signifikant förbättring av noggrannheten i bildsegmenteringen jämfört med andra metoder.
62,556,476
Automatic Segmentation of Medical Images Using Fuzzy c-Means and the Genetic Algorithm
{'venue': 'Journal of Computational Medicine', 'journal': 'Journal of Computational Medicine', 'mag_field_of_study': ['Computer Science']}
80,987
Abstract-This paper undersöker samexistensen av Wi-Fi och LTE i framväxande olicensierade frekvensband som är avsedda att rymma flera radioaccess-teknik. Wi-Fi och LTE är de två mest framträdande åtkomstteknikerna som används idag, vilket motiverar ytterligare studier av de interferenser mellan systemen som uppstår i sådana delade spektrumscenarier samt möjliga tekniker för att möjliggöra förbättrad samexistens. En analytisk modell för utvärdering av baslinjeprestandan för samexisterande Wi-Fi och LTE utvecklas och används för att erhålla baslinjeprestandamått. Resultaten visar att både Wi-Fi- och LTE-nätverk orsakar betydande störningar på varandra och att nedbrytningen är beroende av ett antal faktorer som maktnivåer och fysisk topologi. Modellbaserade resultat valideras delvis genom experimentella utvärderingar med USRP-baserade SDR-plattformar på ORBIT-testbädden. Dessutom föreslås samordning av Internetarbete med logiskt centraliserad förvaltning av radioresurser mellan Wi-Fi- och LTE-system som en möjlig lösning för förbättrad samexistens. Numeriska resultat presenteras som visar betydande vinster i både Wi-Fi och LTE prestanda med den föreslagna inter-network samordning strategi.
I REF presenterar författarna en analytisk modell för utvärdering av samexistens mellan LTE och Wi-Fi.
1,774,129
Coordinated Dynamic Spectrum Management of LTE-U and Wi-Fi Networks
{'venue': '2015 IEEE International Symposium on Dynamic Spectrum Access Networks (DySPAN)', 'journal': '2015 IEEE International Symposium on Dynamic Spectrum Access Networks (DySPAN)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,988
Abstract-I detta papper analyserar vi ett IEEE 802.15.4-kompatibelt trådlöst sensornätverk, organiserat i kluster med fusionscentra (FC) som fungerar som klusterhuvuden. Sensorerna observerar samma vanliga binära fenomen, beslutar om dess status och skickar sina beslut till FC, som utför en majoritet fusion. FC:s beslut skickas sedan till en åtkomstpunkt, där en slutlig uppskattning erhålls. Dataaggregation (DA) vid på varandra följande observationer kan också utföras vid sensorer, i syfte att minska antalet sensorer som samtidigt konkurrerar om kanalen, samtidigt som paketstorleken ökas. Ett nytt matematiskt ramverk för att härleda energiförbrukningen i IEEE 802.15.4-nät föreslås också. Prestanda utvärderas i termer av energiförbrukning och sannolikheten för beslutsfel, gemensamt redovisning för decentraliserad upptäckt, medeltillgång, och DA.
En matematisk modell för att härleda energiförbrukningen i grupperade IEEE 802.15.4 WSNs är utformad i REF, som endast lämpar sig för icke-beacon-aktiverade WSNs.
2,336,220
Clustered IEEE 802.15.4 Sensor Networks with Data Aggregation: Energy Consumption and Probability of Error
{'venue': 'IEEE Wireless Communications Letters', 'journal': 'IEEE Wireless Communications Letters', 'mag_field_of_study': ['Computer Science']}
80,989
I detta dokument presenterar vi en översikt över Artemis arbetsbänk, som tillhandahåller modellering och simuleringsmetoder och verktyg för effektiv prestandautvärdering och undersökning av heterogena inbyggda multimediasystem. Mer specifikt beskriver vi Artemis modelleringsmetod på systemnivå, inklusive dess stöd för successiv förfining av arkitekturprestandamodeller samt för kalibrering av systemnivåmodeller. Vi visar att denna metodik möjliggör arkitektonisk utforskning på olika abstraktionsnivåer samtidigt som man upprätthåller avancerade och arkitekturoberoende tillämpningsspecifikationer. Dessutom illustrerar vi dessa modelleringsaspekter med hjälp av en fallstudie med en Motion-JPEG-applikation.
Artemis Ref tillhandahåller modellering och simuleringsmetoder och verktyg för effektiv utvärdering av prestanda och undersökning av heterogena inbyggda multimediasystem.
8,134,105
The Artemis Workbench for System-Level Performance Evaluation of Embedded Systems
{'venue': 'Int’l J. Embedded Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,990
Vi tränade ett konvolutionellt neuralt nätverk (CNN) för att kartlägga råa pixlar från en enda främre kamera direkt till styrkommandon. Denna end-to-end-strategi visade sig förvånansvärt kraftfull. Med minimala träningsdata från människor lär sig systemet att köra i trafik på lokala vägar med eller utan körfältsmarkeringar och på motorvägar. Det fungerar också i områden med oklar visuell vägledning såsom på parkeringsplatser och på obebyggda vägar. Systemet lär sig automatiskt interna representationer av nödvändiga bearbetningssteg såsom att upptäcka användbara vägegenskaper med endast den mänskliga styrvinkeln som träningssignal. Vi har aldrig uttryckligen utbildat den för att upptäcka till exempel vägarnas konturer. Jämfört med explicit nedbrytning av problemet, såsom upptäckt av körfältsmärkning, vägplanering och styrning, optimerar vårt end-to-end-system alla bearbetningssteg samtidigt. Vi hävdar att detta så småningom kommer att leda till bättre prestanda och mindre system. Bättre prestanda kommer att resultera i att de interna komponenterna självoptimeras för att maximera den totala systemprestandan, i stället för att optimera mänskliga- utvalda mellanliggande kriterier, t. ex. körfältsdetektering. Sådana kriterier väljs förståeligt nog för att underlätta mänsklig tolkning som inte automatiskt garanterar maximal systemprestanda. Mindre nätverk är möjliga eftersom systemet lär sig att lösa problemet med minimalt antal bearbetningssteg. Vi använde en NVIDIA DevBox och Torch 7 för träning och en NVIDIA DRIVE TM PX självkörande bildator som också kör Torch 7 för att bestämma var du ska köra. Systemet fungerar på 30 bilder per sekund (FPS).
Bojarski m.fl. REF tränade ett konvolutionellt neuralt nätverk (CNN) för att kartlägga råa pixlar från en enda främre kamera direkt till styrkommandon av AVs och denna end-to-end-strategi visade sig förvånansvärt kraftfull.
15,780,954
End to End Learning for Self-Driving Cars
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,991
Vi föreslår en mycket kompakt tvådelad representation av en given graf G som består av en grafsammanfattning och en uppsättning korrigeringar. Diagramsammanfattningen är en aggregerad graf där varje nod motsvarar en uppsättning noder i G, och varje kant representerar kanterna mellan alla noder i de två uppsättningarna. Å andra sidan anger korrigeringsdelen listan över kantkorrigeringar som ska tillämpas på sammanfattningen för att återskapa G. Våra representationer möjliggör både förlustfri och förlustfri grafkompression med gränser för det införda felet. Dessutom, i kombination med MDL-principen, ger de mycket intuitiva grova-nivå sammanfattningar av ingångsgraf G. Vi utvecklar algoritmer för att konstruera starkt komprimerade graf representationer med små storlekar och garanterad noggrannhet, och validera vår strategi genom en omfattande uppsättning experiment med flera verkliga grafdata. Såvitt vi vet är detta det första arbetet med att beräkna grafsammanfattningar med hjälp av MDL-principen och använda sammanfattningarna (tillsammans med rättelser) för att komprimera grafer med begränsat fel.
I REF, förutom den sammanfattande grafen, upprätthålls också en uppsättning kantkorrigeringar, så att den ursprungliga grafen kan rekonstrueras från den sammanfattande grafen genom att använda kantkorrigeringar.
9,558,772
Graph summarization with bounded error
{'venue': 'SIGMOD Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,992
Under de senaste åren har uppgiften att rekommendera hashtaggar för mikrobloggar fått ökad uppmärksamhet. Olika metoder har föreslagits för att studera problemet ur olika aspekter. De flesta av de senaste studierna har dock inte beaktat skillnaderna i typ eller användning av hashtaggar. I detta dokument introducerar vi en ny icke-parametrisk Bayesisk metod för denna uppgift. Baserat på Dirichlet Process Mixing Models (DPMM) införlivar vi typen av hashtag som en dold variabel. Resultaten av experiment på data som samlats in från en verklig mikrobloggningstjänst visar att den föreslagna metoden överträffar de senaste metoderna som inte tar hänsyn till dessa aspekter. Genom att ta hänsyn till dessa aspekter, är den relativa förbättringen av den föreslagna metoden jämfört med toppmoderna metoder cirka 12,2 % i F1-poäng.
REF föreslår att man modellerar typ av hashtag som en dold variabel i sin DPMM-baserade metod (Dirichlet Process Mixing Models).
3,230,806
Hashtag Recommendation Using Dirichlet Process Mixture Models Incorporating Types of Hashtags
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,993
Modellkomprimering är en kritisk teknik för att effektivt distribuera neurala nätverksmodeller på mobila enheter som har begränsade beräkningsresurser och snäva effektbudgetar. Konventionella modellkompression tekniker förlitar sig på handgjorda heuristik och regelbaserade policyer som kräver domän experter för att utforska den stora design utrymme handel utanför bland modellstorlek, hastighet, och noggrannhet, som vanligtvis är suboptimal och tidskrävande. I detta dokument föreslår vi AutoML för modellkompression (AMC) som utnyttjar förstärkande lärande för att tillhandahålla modellen kompression politik. Denna inlärningsbaserade kompressionspolicy överträffar konventionell regelbaserad kompressionspolitik genom att ha högre kompressionsförhållande, bättre bevara noggrannheten och befria mänskligt arbete. Under 4× FLOPs minskning, uppnådde vi 2,7% bättre noggrannhet än handgjorda modellen komprimering politik för VGG-16 på ImageNet. Vi tillämpade denna automatiserade, push-the-knappen kompression pipeline till MobileNet och uppnådde 1,81× hastighet upp av uppmätt inference latency på en Android-telefon och 1,43× speedup på Titan XP GPU, med endast 0,1% förlust av ImageNet Top-1 noggrannhet. Reward= -Error*log(FLOP) Agent: DDPG Action: Komprimera med sparty ratio vid (t.ex. 50%) Embedding st=[N,C,H,W,i...] Miljö: Kanalbeskärning Layer t-1 Layer t Layer t+1 Critic Actor Embedding Original NN Modell Kompression av människa: Arbetskonsumption, Suboptimal Modell Kompression av AI: Automatiserad, Högre Kompressionshastighet, Snabbare komprimerad NN AMC Engine Original NN Compressed NN 30% 50%? %
Han och Al. I Ref föreslogs att man skulle anta ett förstärkt lärande för att utnyttja designutrymmet för modellkompression.
52,048,008
AMC: AutoML for Model Compression and Acceleration on Mobile Devices
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,994
Abstract-Med övergången av ansiktsuttrycksigenkänning (FER) från laboratorie-kontrollerad till utmanande in-the-vilda förhållanden och den senaste framgången med djupinlärning tekniker inom olika områden, har djupa neurala nätverk i allt högre grad utnyttjats för att lära sig diskriminerande representationer för automatisk FER. Den senaste tidens djupa FER-system fokuserar i allmänhet på två viktiga frågor: överkompnad på grund av brist på tillräckliga träningsdata och orelaterade variationer i uttryck, såsom belysning, huvudställning och identitetsfördomar. I detta dokument ger vi en omfattande undersökning om djup FER, inklusive datauppsättningar och algoritmer som ger insikter i dessa inneboende problem. För det första introducerar vi tillgängliga dataset som används i stor utsträckning i litteraturen och tillhandahåller accepterade datavals- och utvärderingsprinciper för dessa dataset. Vi beskriver sedan standard pipeline för ett djupt FER-system med tillhörande bakgrundskunskap och förslag på tillämpliga implementeringar för varje steg. För state of the art in deep FER, granskar vi befintliga nya djupa neurala nätverk och relaterade utbildningsstrategier som är utformade för FER baserat på både statiska bilder och dynamiska bildsekvenser, och diskuterar deras fördelar och begränsningar. Konkurrenskraftiga resultat på allmänt använda riktmärken sammanfattas också i detta avsnitt. Därefter utökar vi vår enkät till ytterligare relaterade frågor och tillämpningsscenarier. Slutligen granskar vi de återstående utmaningarna och motsvarande möjligheter inom detta område samt framtida riktningar för utformningen av robusta djupa FER-system.
Li och Deng REF publicerade en undersökning om metoder för att känna igen de djupa ansiktsuttrycken.
5,058,972
Deep Facial Expression Recognition: A Survey
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Psychology', 'Computer Science']}
80,995
Syftet med kvalitetsmätningar med reducerad referens (RR) är att förutsäga den visuella kvaliteten på förvrängda bilder med endast partiell information om referensbilderna. I detta dokument föreslår vi en RR-bildkvalitetsbedömningsmetod baserad på en naturlig bildstatistikmodell i wavelet transform domänen. Vi använder Kullback-Leibler-avståndet mellan den marginella sannolikhetsfördelningen av waveletkoefficienter i referensen och förvrängda bilder som ett mått på bildförvrängning. En generaliserad Gaussian modell används för att sammanfatta den marginella fördelningen av våget koefficienter av referensbilden, så att endast ett relativt litet antal RR-funktioner behövs för utvärdering av bildkvalitet. Den föreslagna metoden är enkel att implementera och beräkningseffektiv. Dessutom finner vi att många välkända typer av bildförvrängningar leder till betydande förändringar i våget koefficient histogram, och därmed är lätt att upptäcka genom vår åtgärd. En Matlab-tillämpning av metoden har gjorts tillgänglig på Internet på http://www.cns.nyu.edu/~lcv/rriqa/.
I REF, WNISM använder den generaliserade Gaussian distribution (GGD) för uppskattning av våget koefficienter.
6,685,500
Reduced-reference image quality assessment using a wavelet-domain natural image statistic model
{'venue': 'IS&T/SPIE Electronic Imaging', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Engineering', 'Computer Science']}
80,996
Vi formulerar delay-tolerant nätverk routing problem, där meddelanden ska flyttas end-to-end över en konnektivitet graf som är tidsvarierande men vars dynamik kan vara känd i förväg. Problemet har de ytterligare begränsningarna av finita buffertar vid varje nod och den allmänna egenskapen att ingen samtidig end-to-end väg kan någonsin existera. Denna situation begränsar tillämpligheten av traditionella routing metoder som tenderar att behandla avbrott som misslyckanden och försöka hitta en befintlig end-to-end väg. Vi föreslår ett ramverk för att utvärdera routingalgoritmer i sådana miljöer. Vi utvecklar sedan flera algoritmer och använder simuleringar för att jämföra deras prestanda med avseende på den mängd kunskap de behöver om nätverkstopologi. Vi finner att algoritmerna som använder minst kunskap tenderar att prestera dåligt. Vi finner också att med begränsad ytterligare kunskap, långt mindre än fullständig global kunskap, kan effektiva algoritmer konstrueras för routing i sådana miljöer. Såvitt vi vet är detta den första undersökningen av routingfrågor i DTN.
Jain m.fl. I REF beskrevs ett antal routingstrategier i depotentiella nätverk.
195,351,698
Routing in a delay tolerant network
{'venue': "SIGCOMM '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,997
Den senaste forskningen inom power-aware supercomputing har fokuserat på att göra enskilda noder mer effektiva och mäta resultaten i termer av floppar per watt. Även om detta arbete är viktigt för att nå exaskala beräkning på 20 megawatt, har det funnits en brist på arbete som utforskar effektivitet på hela systemnivå. Traditionella metoder i superdatordesign använder värsta tänkbara effektförsörjning: den totala effekt som tilldelas systemet bestäms av den maximala effektdragning som är möjlig per nod. I en värld där det finns gott om makt och det är ont om noder är denna lösning optimal. I takt med att kraft blir den begränsande faktorn i superdatorns konstruktion blir dock den värsta avsättningsmöjligheten ett hinder för prestandan. I detta dokument visar vi hur en policy om övertilldelning av hårdvara med avseende på kraft i kombination med intelligenta, hårdvarudrivna kraftbegränsningar konsekvent leder till högre prestanda inom en rad standardriktmärken. Framför allt kräver överprovisionering att applikationer använder effektiva konfigurationer. Den bästa konfigurationen beror på applikationens skalbarhet och minnesfrågan. Vi visar att övertilldelning leder till en genomsnittlig hastighetsökning på mer än 50 procent jämfört med värsta tänkbara avsättning.
Patki m.fl. demonstrerade hur intelligenta, hårdvarudrivna kraftgränser konsekvent leder till högre prestanda inom en rad standardriktmärken REF.
472,088
Exploring hardware overprovisioning in power-constrained, high performance computing
{'venue': "ICS '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,998
Typiska rekommendationssystem antar en statisk bild av rekommendationsprocessen och behandlar den som ett förutsägelseproblem. Vi anser att det är lämpligare att betrakta problemet med rekommendationer som ett problem med successiva beslut och följaktligen att Markov de cision processes (MDP) ger en mer lämplig modell för rekommendationssystem. MDP medför två fördelar: de tar hänsyn till de långsiktiga effekterna av varje rekommendation, och de tar hänsyn till det förväntade värdet av varje rekommendation. För att lyckas i praktiken måste ett MDP-baserat rekommendationssystem ge upphov till en stark första modell, och huvuddelen av detta dokument handlar om att skapa en sådan modell. Framför allt föreslår vi att man använder en prediktiv n-grammodell för att generera den ini tiala MDP. Vår n-gram modell inducerar en Markov kedja modell av användarens beteende vars prediktiv noggrannhet är större än den för befintliga predikativa modeller. Vi beskriver vår prediktiva modell i detalj och utvärderar dess prestanda på verkliga data. Dessutom visar vi hur modellen kan användas i ett MDP-baserat rekommendationssystem.
Shani m.fl. REF hävdade att det var lämpligare att ta fram rekommendationer som ett följdproblem vid beslut.
875,571
An MDP-based Recommender System
{'venue': None, 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,999
Abstract -Vi presenterar en ny randomiserad nätkodningsmetod för robust, distribuerad överföring och komprimering av information i nätverk, och visar på dess fördelar jämfört med routing-baserade metoder. Vi presenterar en randomiserad nätkodningsmetod för robust, distribuerad överföring och komprimering av information i nätverk. Nätverksnoder överför på varje utgående länk en linjär kombination av inkommande signaler, specificerade av oberoende och slumpmässigt valda kodkoefficienter från vissa ändliga fält F. Den enda information som behövs för att avkoda en t-mottagare är den totala linjära kombinationen av källprocesser som finns i var och en av deras inkommande signaler. Denna information kan behållas, för varje signal i nätverket, som en vektor av koefficienter för var och en av källprocesserna, och uppdateras genom varje kodning nod tillämpa samma linjära kombinationer t o koefficientvektorer som för data. Se [l], [3] för tidigare arbete med nätkodning [4] för arbete med slumpmässig routing och [2] för stödjande resultat som används i våra bevis. Vi ger en lägre gräns på framgångsannolikheten för slumpmässiga nätverkskodning för multicast-anslutningar, baserat på formen av överföringsmatris determinant polynom [3], som är hårdare än Schwartz-Zippel bundet för allmänna polynom av samma totala grad. Motsvarande övre gräns vid felsannolikhet är i storleksordningen omvänt av storleken på det finita fältet, vilket visar att det kan göras godtyckligt litet genom kodning i ett tillräckligt stort ändligt fält, och att det minskar exponentiellt med antalet kodord bitar. Detta tyder på att slumpmässiga koder är potentiellt mycket användbara för nätverk med okända eller föränderliga topologier. Vi modellerar ett nätverk som en delay-free acyklisk graf med enhetskapacitet riktade länkar" och en eller flera diskreta källor. Randomiserad kodning kan strikt överträffa routing i vissa distribuerade inställningar. För illustration, överväga problemet med att skicka två processer från en källa nod till mottagare noder på slumpmässiga okända platser på ett rektangulärt rutnät, med hjälp av en distribuerad överföringsschema som inte involverar ~ ~ 'Vår modell medger parallella länkar. 2d,d.v.s. Resultatet innehåller för nätverk där inte alla noder utför slumpmässig kodning, eller där signaler lägger till genom superposition på vissa kanaler all kommunikation mellan noder eller routingtillstånd. För att maximera sannolikheten för att någon mottagare nod kommer att få två separata meddelanden, det bästa som en nod med två inkommande länkar kan göra är att försöka bevara meddelandemångfald genom att skicka en inkommande signal på en av sina två utgående länkar med lika stor sannolikhet, och den andra signalen på den återstående länken. Vi härleder kombinatoriskt en övre gräns på routing framgångsannolikheten för en källa-mottagare par i termer av deras relativa rutnät platser, som överträffas av motsvarande lägre gräns för randomiserad kodning i tillräckligt stora ändliga fält. Dessa gränser visas i tabell 1. Vår lägre gräns för kodning framgång sannolikhet gäller för linjärt korrelerade källor, där effekten av randomiserade kodning kan ses som distribuerad kompression sker inom nätverket snarare än en t källorna. För en genomförbar multicast anslutningsproblem och en randomiserad kod av tillräcklig komplexitet, med stor sannolikhet den information som flödar över alla nedskärningar kommer att vara tillräcklig för att rekonstruera de ursprungliga källprocesserna. I själva verket komprimeras källinformationen till kapaciteten hos varje snitt som den passerar igenom. Detta uppnås utan behov av samordning mellan källnoder, vilket är fördelaktigt i distribuerade miljöer där sådan samordning är omöjlig eller dyr. Slutligen noterar vi att detta tillvägagångssätt uppnår stabilitet på ett sätt som skiljer sig helt från traditionella tillvägagångssätt. Traditionellt tillämpas kompression en t-källkod noder för att minimera nödvändig överföringshastighet och lämna reservnätskapacitet, och tillägg av nya källor kan kräva ombokning av befintliga anslutningar. Vår strategi utnyttjar fullt ut tillgänglig eller tilldelad nätverkskapacitet för maximal robusthet, samtidigt som vi behåller full flexibilitet för att hantera förändringar i nätverkstopologi eller tillägg av nya källor.
Detta ramverk användes av Ho et al. REF visar att linjära nätkoder effektivt kan konstrueras genom en randomiserad algoritm.
1,903,754
The benefits of coding over routing in a randomized setting
{'venue': 'IEEE International Symposium on Information Theory, 2003. Proceedings.', 'journal': 'IEEE International Symposium on Information Theory, 2003. Proceedings.', 'mag_field_of_study': ['Computer Science']}
81,000
Abstract-Recent utvecklingen inom processor, minne och radioteknik har gjort det möjligt för trådlösa sensornätverk som är utplacerade för att samla in användbar information från ett område av intresse. De sensed data måste samlas in och överföras till en basstation där den vidarebehandlas för slutanvändarens frågor. Eftersom nätverket består av lågkostnadsnoder med begränsad batterieffekt måste energieffektiva metoder användas för datainsamling och aggregering för att uppnå långa nätverkslivslängder. I en miljö där var och en av sensornoderna i en kommunikationsrunda har data att skicka till en basstation är det viktigt att minimera den totala energi som förbrukas av systemet i en omgång så att systemets livslängd maximeras. Med hjälp av datafusion och aggregering tekniker, samtidigt minimera den totala energi per runda, om energiförbrukning per nod kan balanseras också, en nära optimal datainsamling och routing system kan uppnås när det gäller nätverkets livslängd. Hittills, förutom det konventionella protokollet för direkt överföring, har två eleganta protokoll som kallas LEACH och PEGASIS föreslagits för att maximera livslängden för ett sensornätverk. I detta dokument föreslår vi två nya algoritmer under namnet PEDAP (Power Efficient Data collection and Aggregation Protocol), som är nära optimal minsta spännvidd trädbaserade routing system, där en av dem är den effekt-medvetna versionen av den andra. Våra simuleringsresultat visar att våra algoritmer fungerar bra både i system där basstationen är långt borta och där den är i centrum av fältet. PEDAP uppnår mellan 4x till 20x förbättring av nätverkets livslängd jämfört med LEACH, och ungefär tre gånger förbättring jämfört med PEGAS.
visa att dessa två algoritmer presterar bättre än LEACH och PEGASIS både i system som basstationen är långt borta från och inuti fältet REF.
1,665,247
Power efficient data gathering and aggregation in wireless sensor networks
{'venue': 'SGMD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,001
Att lära sig en tydlig representation för varje känsla av ett tvetydigt ord kan leda till mer kraftfulla och finkorniga modeller av vektor-rymd representationer. Samtidigt som "multi-sense" metoder har föreslagits och testats på artificiella ordsimilaritet uppgifter, vet vi inte om de förbättrar verkliga naturligt språk förståelse uppgifter. I detta papper introducerar vi en rörledning arkitektur för att införliva multi-sense inbäddningar i språkförståelse, och testa prestandan av en toppmodern multi-sense inbäddning modell (baserat på kinesiska restaurangprocesser). Vi tillämpar modellen på del-av-tal taggning, namngivna enhet igenkänning, känsloanalys, semantisk relation identifiering och semantisk besläktade. Vi finner att om vi noggrant kontrollerar antalet dimensioner-sense-specifika inbäddningar, antingen ensam eller konkatenerad med standard (en vektor för alla sinnen) inbäddningar, införa något prestandaboost i semantiska-relaterade uppgifter, men är av lite i andra som är beroende av att korrekt identifiera några nyckelord såsom känsloanalys.
REF använde en CRP-modell för att skilja mellan ordförnimmelser och träningsvektorer för sinnen, där antalet sinnen inte är fixerat.
6,222,768
Do Multi-Sense Embeddings Improve Natural Language Understanding?
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,002
De senaste modellerna för gemensamt erkännande och relationsutdragning bygger i hög grad på externa verktyg för bearbetning av naturligt språk (NLP) såsom POS (del av tal) taggers och beroendetolkar. Därför är prestandan hos sådana gemensamma modeller beroende av kvaliteten på de funktioner som erhålls från dessa NLP-verktyg. Dessa egenskaper är dock inte alltid korrekta för olika språk och sammanhang. I detta dokument föreslår vi en gemensam neural modell som utför enhetsigenkänning och relation extraktion samtidigt, utan behov av några manuellt extraherade funktioner eller användning av något externt verktyg. Specifikt modellerar vi enhetsigenkänningsuppgiften med hjälp av ett CRF-skikt (Conditional Random Fields) och relationsextraheringsuppgiften som ett multi-head urvalsproblem (dvs. potentiellt identifiera flera relationer för varje enhet). Vi presenterar en omfattande experimentell installation, för att visa effektiviteten av vår metod med hjälp av datauppsättningar från olika sammanhang (dvs. nyheter, biomedicinska, fastigheter) och språk (dvs. engelska, holländska). Vår modell överträffar de tidigare neurala modeller som använder automatiskt extraherade funktioner, medan den utför inom en rimlig marginal av funktionsbaserade neurala modeller, eller till och med slår dem.
Bekoulis m.fl. REF föreslog en gemensam neural modell som modellerar enhetsigenkänningsuppgiften med hjälp av ett CRF-skikt (Conditional Random Fields) och relationsextraktionsuppgiften som ett multi-head urvalsproblem.
5,112,317
Joint entity recognition and relation extraction as a multi-head selection problem
{'venue': 'Expert Systems with Applications, Volume 114, 30 December 2018, Pages 34-45, ISSN 0957-4174', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,003
Abstract-undersökt förhållandet mellan förändring över tid i svårighetsgrad av depression symptom och ansiktsuttryck. Deprimerade deltagare följdes under behandlingens gång och video spelades in under en serie kliniska intervjuer. Ansiktsuttryck analyserades från videon med hjälp av både manuella och automatiska system. Automatisk och manuell kodning var mycket konsekvent för FACS åtgärder enheter, och visade liknande effekter för förändring över tid i depression svårighetsgrad. För båda systemen, när symptomens svårighetsgrad var hög, gjorde deltagarna fler ansiktsuttryck i samband med förakt, log mindre, och de leenden som inträffade var mer benägna att åtföljas av ansiktsåtgärder i samband med förakt. Dessa resultat överensstämmer med depressionens "sociala riskhypotes". Enligt denna hypotes, när symtomen är allvarliga, deprimerade deltagare dra sig tillbaka från andra människor för att skydda sig mot förväntad avvisande, förakt och social utslagning. När deras symptom bleknar, deltagarna skicka fler signaler som tyder på en vilja att affiliate. Fyndet att automatisk ansiktsuttryck analys var både överensstämmande med manuell kodning och producerade samma mönster av depression effekter tyder på att automatisk ansiktsuttryck analys kan vara redo att användas i beteendemässig och klinisk vetenskap.
I REF tittade författarna på förändringen över tid i svårighetsgrad av depression och ansiktsuttryck.
10,800,354
Social risk and depression: Evidence from manual and automatic facial expression analysis
{'venue': '2013 10th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition (FG)', 'journal': '2013 10th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition (FG)', 'mag_field_of_study': ['Psychology', 'Medicine', 'Computer Science']}
81,004