src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Lokala rum-tid funktioner har nyligen blivit en populär video representation för handlingsigenkänning. Flera metoder för funktionslokalisering och beskrivning har föreslagits i litteraturen och lovande igenkänningsresultat demonstrerades för ett antal aktionsklasser. Jämförelsen av befintliga metoder är dock ofta begränsad med tanke på de olika försöksmiljöer som används. Syftet med detta dokument är att utvärdera och jämföra tidigare föreslagna rum-tid funktioner i en gemensam experimentell installation. I synnerhet överväger vi fyra olika funktionsdetektorer och sex lokala funktionsdeskriptorer och använder en standard påse-of-features SVM metod för åtgärdsigenkänning. Vi undersöker dessa metoders prestanda på totalt 25 insatsklasser fördelade över tre datauppsättningar med varierande svårighet. Bland intressanta slutsatser visar vi att regelbunden provtagning av rum-tid funktioner konsekvent överträffar alla testade rum-tid intresse punkt detektorer för mänskliga åtgärder i realistiska miljöer. Vi visar också en konsekvent rankning för de flesta metoder över olika datauppsättningar och diskuterar deras fördelar och begränsningar. | I ett senare arbete REF visades att tät provtagning av lokala funktioner överträffar glesa intressepunkter. | 6,367,640 | Evaluation of local spatio-temporal features for action recognition | {'venue': 'University of Central Florida, U.S.A', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,159 |
Statistisk maskinöversättning är ganska robust när det gäller valet av inmatning representation. Det kräver bara överensstämmelse mellan utbildning och testning. Som ett resultat av detta finns det ett brett spektrum av möjliga förbearbetningsval för data som används i statistisk maskinöversättning. Detta gäller i ännu högre grad för morfologiskt rika språk som arabiska. I detta dokument studerar vi effekten av olika ord-nivå förbehandlingsprogram för arabiska på kvaliteten på frasbaserad statistisk maskinöversättning. Vi presenterar och utvärderar också olika metoder för att kombinera förbehandlingsprogram som resulterar i förbättrad översättningskvalitet. | REF experimenterade med ett brett spektrum av tokeniseringsprogram för arabisk-engelska översättning. | 2,984,566 | Combination Of Arabic Preprocessing Schemes For Statistical Machine Translation | {'venue': 'International Conference On Computational Linguistics And Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,160 |
Abstract-Vi presenterar här en teknik för tilldelning och bindning för dataväg syntes (DPS) med hjälp av en Genetisk Algorithm (GA) metod. Denna GA använder en okonventionell crossover mekanism som förlitar sig på en kraftriktad databana bindande slutföra algoritm. Datasökvägen syntetiseras med hjälp av några medföljande konstruktionsparametrar. Ett bussbaserat sammankopplingssystem, användning av minnen från flera hamnar och tillhandahållande av multicykling och rörledning är de viktigaste inslagen i detta system. Den metod som presenteras här har tillämpats på standardexempel och de resultat som erhållits är lovande. | Nyligen föreslog Mandal REF en teknik för fördelning av datapatter med hjälp av en genetisk algoritm. | 14,972,608 | GABIND: a GA approach to allocation and binding for the high-level synthesis of data paths | {'venue': 'IEEE Trans. Very Large Scale Integr. Syst.', 'journal': 'IEEE Trans. Very Large Scale Integr. Syst.', 'mag_field_of_study': ['Computer Science']} | 9,161 |
Detta dokument tar upp problemet med att verifiera likvärdighet mellan ett par program som fungerar över databaser med olika scheman. Detta problem är särskilt viktigt i samband med webbapplikationer, som vanligtvis genomgår databas refaktor av antingen prestanda- eller underhållsskäl. Medan webbprogram bör ha samma externt observerbara beteende före och efter schema migration, det finns inga befintliga verktyg för att bevisa likvärdighet av sådana program. Detta dokument tar ett första steg mot att lösa detta problem genom att formalisera likvärdighets- och förfiningsproblemen för databasdrivna tillämpningar. Vi föreslår också en bevismetod baserad på begreppet bisimulationsinvarianter över relationell algebra med uppdateringar och beskriver en teknik för att syntetisera sådana bisimuleringsinvarianter. Vi har implementerat den föreslagna tekniken i ett verktyg som kallas Mediator för att verifiera likvärdighet mellan databasdrivna applikationer skrivna på vårt mellanspråk och utvärdera vårt verktyg på 21 riktmärken extraherade från läroböcker och verkliga webbapplikationer. Våra resultat visar att den föreslagna metoden framgångsrikt kan verifiera 20 av dessa riktmärken. | Mediator REF ] är ett verktyg för att resonera om databasapplikationer med uppdateringar. | 498,664 | Verifying equivalence of database-driven applications | {'venue': 'PACMPL', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,162 |
Vi anser att problemet med att minimera kommunikationen i en databas privata informationssökning protokoll i det fall där längden på de uppgifter som ska överföras är stor. Vi presenterar första rate-optimala protokoll för 1-out-of-n beräkningsmässigt privat informationshämtning (CPIR), oöverträffad överföring (OT) och stark villkorlig oöverträffad överföring (SCOT). Dessa protokoll är baserade på en ny optimal nivå nivå homomorphic krypteringsschema för stora output polynom-storlek grenningsprogram, som kan vara av oberoende intresse. Analysen av det nya systemet är invecklad: den optimala hastigheten uppnås om en viss parameter s är inställd på den enda positiva roten av en grad-(m + 1) polynom, där m är längden på grenningsprogrammet. Vi visar, genom att använda Galois teori, att även när m = 4, detta polynom inte kan lösas i radikaler. Vi använder Newton-Puiseux algoritm för att hitta en Puiseux-serie för s, och baserat på detta, föreslå en till (log m)-tid algoritm för att hitta ett heltal approximation till s. | Slutligen, i REF Kiayias m.fl. presentera ett nytt cPIR-system baserat på ett nummerteoretiskt homomorfiskt krypteringssystem. | 17,102,436 | Optimal Rate Private Information Retrieval from Homomorphic Encryption | {'venue': None, 'journal': 'Proceedings on Privacy Enhancing Technologies', 'mag_field_of_study': ['Computer Science']} | 9,163 |
I detta dokument presenteras en formell kontroll av kontrollsystemens egenskaper på hög nivå med hjälp av Why3-verktyget. Egenskaper som kan verifieras med detta tillvägagångssätt inkluderar bland annat stabilitet, återkopplingsvinst och robusthet. För systemen, modellerade i Simulink, föreslår vi tre huvudsteg för att uppnå verifieringen: att specificera egenskaperna av intresse över signalerna i modellen med hjälp av Simulink block, en automatisk översättning av modellen till Why3, och den automatiska verifieringen av egenskaper med Theorem visare i Why3. Vi presenterar en metod för att specificera egenskaperna i modellen och ett bibliotek med relevanta påståenden block (logiska uttryck), som för närvarande är under utveckling. Funktionaliteten hos blocken i Simulink-modellerna översätts automatiskt till Why3 som "teorier" och verifieringsmål genom vårt verktyg implementerat i MATLAB. Ett bibliotek av teorier i Why3 motsvarande varje stödd block har utvecklats för att underlätta processen för översättning. Målen verifieras automatiskt i Why3 med relevanta teoremprovare. Ett enkelt första ordningen diskret system används för att exemplifiera specifikationen av Simulink modellen, översättningsprocessen från Simulink till Why3 formella logik språk, och verifiering av Lyapunov stabilitet. | I REF presenteras en metod för att verifiera Simulink-modellernas kontrollrelaterade egenskaper. | 14,318,880 | Formal Verification of Control Systems Properties with Theorem Proving | {'venue': 'Proc. IEEE CONTROL (International Conference on Control) 2014, pp. 244 - 249, Loughborough, UK', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,164 |
Att förutsäga affärsprocessernas beteende, såsom det slutliga tillståndet för en löpande process, den återstående tiden till slutförande eller nästa aktivitet i en löpande process, är en viktig aspekt av affärsverksamhetsprocessens ledning. Motiverad av forskning i naturligt språk bearbetning, beskriver denna uppsats en tillämpning av djupt lärande med återkommande neurala nätverk till problemet att förutsäga nästa händelse i en affärsprocess. Detta är både en ny metod i processförutsägelse, som till stor del har förlitat sig på explicita processmodeller, och även en ny tillämpning av djupinlärningsmetoder. Metoden utvärderas på två verkliga dataset och våra resultat överträffar toppmoderna i förutsägelseprecision. Dokumentet innehåller rekommendationer för forskare och praktiker och pekar på områden för framtida tillämpningar av djupinlärning i affärsprocesser. | I REF utbildade författarna LSTM-nätverken för att förutsäga nästa aktivitet. | 3,088,247 | Predicting Process Behaviour using Deep Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,165 |
Vi föreslår några enkla modeller för tillväxten av sociala nätverk, baserade på tre allmänna principer: 1) möten äger rum mellan par av individer i en takt som är hög om ett par har en eller flera ömsesidiga vänner och låg annars; 2) bekanta mellan par av individer som sällan möter förfall med tiden; 3) det finns en övre gräns för antalet vänskaper en individ kan upprätthålla. Med hjälp av datorsimuleringar finner vi att modeller som innehåller alla dessa funktioner reproducerar många av funktionerna i verkliga sociala nätverk, inklusive höga nivåer av klusterbildning eller nätverkstransitivitet och stark samhällsstruktur där individer har fler kopplingar till andra i samhället än till individer från andra samhällen. | Newman och Al. REF studerade tillväxtdynamiken i sociala nätverk mellan ömsesidiga vänner och gav en modell som visade liknande egenskaper som dessa verkliga nätverk. | 5,731,738 | Structure of growing social networks | {'venue': 'Physical review. E, Statistical, nonlinear, and soft matter physics', 'journal': 'Physical review. E, Statistical, nonlinear, and soft matter physics', 'mag_field_of_study': ['Medicine', 'Physics']} | 9,166 |
Med den ökande användningen av processmedvetna informationssystem (PAIS) har stora processmodeller dykt upp. Med tiden måste respektive modeller anpassas till de verkliga affärsprocesserna genom anpassning eller anpassning. Detta innebär en risk för att modellen för uppsägningar införs och att komplexiteten ökar. Om inga kontinuerliga investeringar görs för att hålla modellerna enkla blir förändringarna allt dyrare och felbenägna. Även om refaktoring tekniker används i stor utsträckning inom programvaruteknik för att ta itu med relaterade problem, utgör detta ännu inte toppmodern i affärsprocesshantering. Processdesigners måste antingen refaktor processmodeller för hand eller kan inte tillämpa respektive teknik alls. I detta dokument föreslås en uppsättning beteendebevarande tekniker för att refaktorisera stora processarkiv. Detta gör det möjligt för processdesigners att effektivt hantera modellens komplexitet genom att göra processmodellerna mer begripliga och lättare att underhålla. | Ett liknande tillvägagångssätt diskuteras i REF i samband med omfaktoringsteknik för stora modelldatabaser. | 1,490,157 | M.: Refactoring Process Models in Large Process Repositories | {'venue': 'In Proc. 20th International Conference on Advanced Information Systems Engineering (CAiSE’08', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,167 |
Abstrakt. Trots att formella och informella kvalitetsaspekter är av stor betydelse för modellering av affärsprocesser, rapporteras endast lite empiriskt arbete om processmodellkvalitet och dess påverkansfaktorer. I detta dokument undersöker vi begriplighet som en proxy för kvaliteten på processmodeller och fokuserar på dess relationer med personliga och modellegenskaper. Vi använde ett frågeformulär i klasser vid tre europeiska universitet och genererade flera nya hypoteser från en undersökande dataanalys. Dessutom intervjuade vi utövare för att bekräfta våra resultat. Resultaten visar att deltagarna tenderar att överdriva skillnaderna i modellförståelse, att självbedömning av modellkompetensen verkar vara ogiltig och att antalet bågar i modellerna har ett viktigt inflytande på begripligheten. | Resultaten från Ref visar till exempel att antalet bågar har en viktig inverkan på den övergripande modellens begriplighet. | 14,580,292 | What makes process models understandable | {'venue': 'International Conference on Business Process Management (BPM 2007), volume 4714 of Lecture', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,168 |
Abstrakt. Detta dokument tar upp ett problem som uppstår i omvänd konstruktion av solida modeller från djupkartor. Vi vill identifiera och passa ytor av känd typ där dessa är en bra passform. I detta dokument presenteras en uppsättning metoder för montering av klot, cylindrar, koner och tori till tredimensionella punktdata. Minst-kvartsmontering av ytor andra plan, även av enkel geometrisk typ, har inte studerats. Vår metod har den särskilda fördelen att vara robust i den meningen att eftersom de viktigaste kurvorna på de ytor som monteras minskar (eller blir mer jämlika), de resultat som returneras naturligt kommer närmare och närmare de ytor av 'impler typ', dvs.. Flygplan, cylindrar, koner eller sfärer som bäst beskriver data, till skillnad från andra metoder som kan skilja sig åt när olika parametrar eller deras kombination blir oändliga. | En god introduktion till robust montering av en uppsättning provpunkter av kottar (och andra analytiska ytor) finns i REF. | 16,061,159 | Faithful Least-Squares Fitting of Spheres, Cylinders, Cones and Tori for Reliable Segmentation | {'venue': 'PROC. 5TH EUROPEAN CONF. COMPUTER VISION', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,169 |
Sammanfattning: Detta dokument handlar om partistorlek och schemaläggning för ett enstegs produktionssystem där installationskostnader och tider är sekvensberoende. En stor hink blandade heltal programmering (MIP) modell är formulerad som endast anser e cient sekvenser. En skräddarsydd uppräkningsmetod av den grenbundna typen löser problemfall på ett optimalt och eektivt sätt. Dessutom kommer det att bli tydligt att omläggning kan göras på ett prydligt sätt. | REF-studie ett enstegssystem för tillverkning av en maskin där installationskostnader och -tider är beroende av sekvensen. | 10,638,307 | Lot Sizing and Scheduling with Sequence Dependent Setup Costs and Times and Efficient Rescheduling Opportunities | {'venue': None, 'journal': None, 'mag_field_of_study': ['Economics', 'Engineering', 'Computer Science']} | 9,170 |
Vi fokuserar på flerfaldigt svarsval i ett hämtningsbaserat dialogsystem. I det här dokumentet använder vi den kraftfulla förtränade språkmodellen Bi-riktad Encoder Representationer från Transformer (BERT) för ett multi-turn dialogsystem och föreslår en mycket effektiv post-utbildningsmetod för domänspecifika corpus. Även om BERT lätt antas till olika NLP uppgifter och överträffar tidigare baslinjer för varje uppgift, har det fortfarande begränsningar om en uppgift corpus är alltför fokuserad på en viss domän. Post-utbildning på domänspecifika corpus (t.ex., Ubuntu Corpus) hjälper modellen att träna kontextualiserade representationer och ord som inte visas i allmänna corpus (t.ex. engelska Wikipedia). Experimentella resultat visar att vårt tillvägagångssätt uppnår nya tillstånd av hjärta på två response selection benchmarking datas (dvs Ubuntu Corpus V1, Rådgivning Corpus) prestandaförbättring med 5,9% och 6% på R 10 @1. | Nyligen har domänanpassning också använts för multi-turn response selection i ett hämtningsbaserat dialogsystem av REF. | 199,577,388 | Domain Adaptive Training BERT for Response Selection | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,171 |
Abstrakt. Arbetsbelastningsplacering på servrar har traditionellt drivits av främst prestandamål. I detta arbete undersöker vi design, implementering och utvärdering av en power-aware applikationsplaceringscontroller i samband med en miljö med heterogena virtualiserade serverkluster. Placeringskomponenten i applikationshanteringen middleware tar hänsyn till energi- och migreringskostnaderna utöver prestandavinsten samtidigt som applikationsbehållaren placeras på de fysiska servrarna. Bidraget från detta arbete är tvåfaldigt: för det första presenterar vi flera sätt att fånga upp problemet med kostnadsmedveten applikationsplacering som kan tillämpas på olika inställningar. För varje formulering ger vi detaljer om vilken typ av information som krävs för att lösa problemen, modellantagandena och hur praktiska antagandena är på riktiga servrar. I den andra delen av vår studie presenterar vi pMapper arkitektur och placering algoritmer för att lösa en praktisk formulering av problemet: minimering kraft som omfattas av ett fast prestandakrav. Vi presenterar omfattande teoretiska och experimentella bevis för att fastställa effekten av pMapper. | Kraft och migration kostnadsmedveten applikation placering i virtualiserade system föreslås i REF. | 7,674,151 | pMapper: power and migration cost aware application placement in virtualized systems | {'venue': 'Middleware', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,172 |
ABSTRACT Radioutbredningens öppna natur gör att trådlösa sändningar utsätts för obehöriga användare och blir sårbara för både störnings- och tjuvlyssnande attacker. I industriella miljöer påverkas även trådlösa transmissioner negativt av förekomsten av kraftiga hindermaskiner, metalliska friktionsinducerade störningar och utrustningsbuller. Detta kan resultera i fel på trådlösa sändningar och därmed slösa bort värdefulla energiresurser för industriella trådlösa sensornätverk (IWSN). Detta dokument är motiverat att presentera en översyn av utmaningarna och lösningarna för att förbättra säkerheten och tillförlitligheten i fysiska lager för IWSN. Vi diskuterar först några trådlösa tillförlitlighet förbättring tekniker för att minska bakgrundsstörningar, banförlust, multipat blekning, och länkfel. Sedan ger vi en översikt över trådlös störning och tjuvlyssnande attacker tillsammans med sina motåtgärder, där en störsändare försöker sända en störande radiosignal för att störa den önskade kommunikationen mellan en trådlös sensor och dess handfat, medan en tjuvlyssnare avser att knacka på de konfidentiella sensor-sänk-överföringar. Dessutom utvärderar vi avvägningen mellan säkerhet och tillförlitlighet, som kallas säkerhetstillförlitlighet, i samband med trådlösa sensor-sänk-transmissioner. Slutligen diskuterar vi en rad öppna utmaningar och framtida trender för IWSNs, inklusive energieffektiva säkerhets- och tillförlitlighetsdesigner, gemensamma jamming-andeavesdropping försvarsmekanismer, samt energi skörd för IWSNs. INDEX TERMS Fysiska lager säkerhet, tillförlitlighet, industriella trådlösa sensornätverk, störning, tjuvlyssnande, IWSNs. | Följaktligen, Zhu et al. REF presenterade utmaningarna och lösningarna för att förbättra den fysiska lagersäkerheten för industriella trådlösa sensornätverk (IWSN). | 12,853,466 | Physical-Layer Security and Reliability Challenges for Industrial Wireless Sensor Networks | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 9,173 |
I många tillämpningar är det nödvändigt att fastställa likheten mellan två strängar. Ett allmänt använt begrepp om stränglikhet är redigeringsavståndet: det minsta antalet tillägg, raderingar och substitutioner som krävs för att omvandla den ena strängen till den andra. I detta betänkande tillhandahåller vi en stokastisk modell för strängredigeringsavstånd. Vår stokastiska modell låter oss lära oss en strängredigeringsfunktion från en corpus av exempel. Vi illustrerar nyttan av vårt tillvägagångssätt genom att tillämpa det på det svåra problemet att lära sig uttalet av ord i samtalsspråk. I det här programmet lär vi oss ett strängredigeringsavstånd med en fjärdedel av felfrekvensen för det otränade Levenshtein-avståndet. Vårt tillvägagångssätt är tillämpligt på alla strängklassificeringsproblem som kan lösas med hjälp av en likhetsfunktion mot en databas med märkta prototyper. | Den första stokastiska inlärningsmodellen för strängredigeringsavstånd introduceras av Ristad och Yianilos REF. | 8,844,862 | Learning string edit distance | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,174 |
Många djupa neurala nätverk tränas på naturliga bilder uppvisar ett märkligt fenomen gemensamt: på det första lagret de lär sig funktioner som liknar Gabor filter och färg blobs. Sådana första lager funktioner verkar inte vara specifika för en viss datauppsättning eller uppgift, men allmänt i det att de är tillämpliga på många datauppsättningar och uppgifter. Funktionerna måste så småningom övergå från allmän till specifik av det sista skiktet av nätverket, men denna övergång har inte studerats i stor utsträckning. I detta papper kvantifierar vi experimentellt generalitet kontra specificitet av neuroner i varje lager av ett djupt konvolutionellt neuralt nätverk och rapporterar några överraskande resultat. Överförbarheten påverkas negativt av två olika problem: (1) specialiseringen av högre lagerneuroner till deras ursprungliga uppgift på bekostnad av prestanda på måluppgiften, vilket förväntades, och (2) optimering svårigheter relaterade till delning av nätverk mellan co-anpassade neuroner, som inte förväntades. I ett exempel nätverk tränas på ImageNet, visar vi att någon av dessa två frågor kan dominera, beroende på om funktioner överförs från botten, mitten eller toppen av nätverket. Vi dokumenterar också att överförbarheten av funktioner minskar när avståndet mellan basuppgiften och måluppgiften ökar, men att överföra funktioner även från avlägsna uppgifter kan vara bättre än att använda slumpmässiga funktioner. Ett sista överraskande resultat är att initiering av ett nätverk med överförda funktioner från nästan alla lager kan ge en boost till generalisering som dröjer även efter finjustering till målet dataset. | Övergången från allmänna till specifika konvolutionslager och deras överförbarhet har studerats av Yosinski et al. Hoppa över det. | 362,467 | How transferable are features in deep neural networks? | {'venue': 'Advances in Neural Information Processing Systems 27, pages 3320-3328. Dec. 2014', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,175 |
Som rollen som fotbollsspel analytiker som analyserar fotbollsmatcher och skapar fotboll vinnande strategier betonas, är det nödvändigt att ha hög nivå analys utöver de procedurmässiga sådana som huvudhändelse upptäckt i samband med IT-baserade sändningar fotboll spel forskning community. I detta dokument föreslår vi ett nytt tillvägagångssätt för att generera de fördjupade analysresultaten på hög nivå via realtidstextbaserad fotboll Webcast och textbrytning. Föreslagen metod skapar en metadata som attribut, åtgärd och händelse, bygga index, och sedan generera tillgängliga kunskaper via text mining tekniker såsom förening regel gruvdrift, händelse tillväxt index, och pathfinder nätverksanalys med hjälp av Webcast och domän kunskaper. Vi utförde ett genomförbarhetsförsök på den föreslagna tekniken med Webcast text om Spanien lagets VM-spel 2010. | Jung m.fl. REF föreslog en metod för föreningsregeln gruvdrift, händelsetillväxt index, och pathfinder nätverksanalys för att extrahera team prestandarelaterad kunskap genom att använda textinformation som tillhandahålls av webbsändningar. | 108,766,698 | In-depth Analysis of Soccer Game via Webcast and Text Mining | {'venue': None, 'journal': 'The Journal of the Korea Contents Association', 'mag_field_of_study': ['Engineering']} | 9,176 |
Obemannade luftfartyg ersätter i allt högre grad bemannade system i situationer som är farliga, avlägsna eller svåra för bemannade luftfartyg att komma åt. Dess kontrolluppgifter styrs av datorseendeteknik. Visuella sensorer används robust för stabilisering som primära eller åtminstone sekundära sensorer. Därför är UAV-stabilisering genom attityduppskattning från visuella sensorer ett mycket aktivt forskningsområde. Visionsbaserade tekniker visar att de är effektiva och robusta när det gäller att hantera detta problem. I detta arbete täcks en omfattande översyn av UAV visionsbaserade attityduppskattningsmetoder, med utgångspunkt från horisontbaserade metoder och passerar genom försvinnande punkter, optiskt flöde, och stereoskopiska baserade tekniker. En ny segmenteringsmetod för uppskattning av UAV-attityd baserad på polarisering föreslås. Våra framtida insikter för attityduppskattning från okalibrerade katadioptriska sensorer diskuteras också. | Shabayek m.fl. REF presenterar en omfattande översyn av tillgängliga algoritmer för detektering av horisontlinjeseende och attityduppskattning för UAV. | 3,816,178 | Vision Based UAV Attitude Estimation: Progress and Insights | {'venue': 'Journal of Intelligent & Robotic Systems', 'journal': 'Journal of Intelligent & Robotic Systems', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 9,177 |
I detta dokument behandlas problemet med greppet som en upptäckt i punktmolnen. Vi följer en allmän algoritmisk struktur som först genererar en stor uppsättning 6-DOF grepp kandidater och sedan klassificerar var och en av dem som ett bra eller ett dåligt grepp. Vårt fokus i detta dokument är att förbättra det andra steget genom att använda djupsensorskanningar från stora online-dataset för att träna ett konvolutionellt neuralt nätverk. Vi föreslår två nya presentationer av gripa kandidater, och vi kvantifierar effekten av att använda tidigare kunskap i två former: instans eller kategori kunskap om objektet som ska fångas, och förutbildning nätverket på simulerade djupdata som erhållits från idealiserade CAD-modeller. Vår analys visar att en mer informativ grepp kandidatrepresentation samt förutbildning och förkunskaper avsevärt förbättrar greppdetektion. Vi utvärderar vår strategi på en Baxter Research Robot och visar en genomsnittlig griphastighet på 93% i tät rörmokeri. Detta är en 20-procentig förbättring jämfört med vårt tidigare arbete. | Gualtieri m.fl. REF upptäckta grepp uppstår från djupdata, med hjälp av konvolutionella neurala nätverk utbildade på simulerade data. | 2,825,705 | High precision grasp pose detection in dense clutter | {'venue': '2016 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'journal': '2016 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'mag_field_of_study': ['Computer Science', 'Engineering']} | 9,178 |
Abduktivt resonemang är en slutsats till den mest rimliga förklaringen. Till exempel, om Jenny hittar sitt hus i en röra när hon återvänder från jobbet, och minns att hon lämnade ett fönster öppet, kan hon gissa att en tjuv bröt sig in i hennes hus och orsakade röran, som den mest rimliga förklaringen. Medan bortförande har länge ansetts vara kärnan i hur människor tolkar och läser mellan raderna på naturligt språk Hobbs et al. (1988), Det har varit relativt lite NLP forskning till stöd för abductive naturligt språk inference. Vi presenterar den första studien som undersöker genomförbarheten av språkbaserat bortförande resonemang. Vi konceptualiserar en ny uppgift av Abductive NLI och introducerar en utmaning dataset, ART, som består av över 20k commonsense berättande sammanhang och 200k förklaringar, formulerad som flera val frågor för enkel automatisk utvärdering. Vi etablerar omfattande basal prestanda på denna uppgift baserat på toppmoderna NLI och språkmodeller, vilket leder till 68,9% noggrannhet, långt under mänsklig prestanda (91,4%). Vår analys leder till nya insikter i de typer av resonemang som djupa förträngda språkmodeller misslyckas med att utföra-trots deras starka prestanda på den relaterade men i grunden olika uppgiften att innebära NLI-pekande till intressanta vägar för framtida forskning. | På senare tid har Bhagavatula et al REF ) infört uppgiften att bortföra NLI där den bortförande resonemangsuppgiften är inramad som frågesvar. | 201,058,651 | Abductive Commonsense Reasoning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,180 |
Abstrakt. RDF(S) och OWL 2 stöder för närvarande endast statiska ontologier. I praktiken förändras dock ofta sanningarna i uttalandena med tiden, och semantiska webbapplikationer måste ofta representera sådana förändringar och resonera om dem. I detta dokument presenterar vi en logikbaserad metod för att representera giltighetstid i RDF och OWL. Till skillnad från de befintliga förslagen är vårt tillvägagångssätt tillämpligt på förbindelser som inte är deterministiska, såsom de direkta semantiken eller RDF-baserade semantiken i OWL 2. Vi utökar även SPARQL till tidsbundna RDF-grafer och presenterar en algoritm för frågeutvärdering. Slutligen presenterar vi en optimering av vår algoritm som är tillämplig på involveringsrelationer som kännetecknas av en uppsättning deterministiska regler, sådana RDF(S) och OWL 2 RL/RDF-ingrepp. | Motik REF presenterar en logikbaserad metod för att representera giltig tid i RDF och OWL. | 2,564,186 | Representing and Querying Validity Time in RDF and OWL: A Logic-based Approach | {'venue': 'Web Semantics: Science, Services and Agents on the World Wide Web', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,181 |
I detta arbete presenterar vi ämnesdiversifiering, en ny metod för att balansera och diversifiera personliga rekommendationslistor för att återspegla användarens fullständiga spektrum av intressen. Även om den är skadlig för genomsnittlig noggrannhet, visar vi att vår metod förbättrar användarnöjdheten med rekommendationslistor, särskilt för listor som genereras med hjälp av den gemensamma objektbaserade filtreringsalgoritmen. Vårt arbete bygger på tidigare forskning om recommendator systems, att titta på egenskaper rekommendationslistor som enheter i sin egen rätt snarare än att specifikt fokusera på noggrannheten hos enskilda rekommendationer. Vi introducerar den intra-lista likhet metriska för att bedöma den aktuella mångfalden av rekommendationslistor och ämnesdiversifiering metod för att minska den intra-lista likhet. Vi utvärderar vår metod med hjälp av bokrecommend data, inklusive offline analys på 361, 349 betyg och en online studie som omfattar mer än 2, 100 försökspersoner. | Ziegler m.fl. ämnesdiversifiering REF : Denna teknik är utformad för att "balansera och diversifiera personliga rekommendationer listor för att återspegla användarens fullständiga spektrum av intressen" och faller in i post-filtrering lösningar som det tar rekommenderade poster i input för att omranka och extrahera en diversifierad delmängd av objekt. | 655,375 | Improving recommendation lists through topic diversification | {'venue': "WWW '05", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,182 |
Den förtroendebaserade dataaggregation systemet är säker och det ger både integritet sekretess och äkthet för homogena och heterogena nätverk och detta system utvärdera det skadliga beteendet hos noderna. Dessa dataaggregationssystem ger bättre säkerhet jämfört med traditionell aggregering eftersom klusterhuvuden direkt kan aggregera chiffertexterna utan dekryptering. I denna design används krypterings- och signaturtekniker och även basstationen kan återställa alla avkänningsdata även dessa data har aggregerats. Basstationen kan utföra alla aggregeringsfunktioner på dem. Utan att kompromissa några noder en angripare kan avbryta nätverkssystemet. Det hierarkiska förtroendehanteringsprotokollet upptäcker det skadliga beteendet hos noderna. Det är baserat på fyra förtroendekomponenter intimitet, ärlighet, energi, osjälviskhet noderna. Det upprätthåller två nivåer av förtroende SN-nivå förtroende och CH-nivå förtroende | Det är Amrutha Mohanan. K, et al Ref har föreslagit en krypterings- och signaturteknik och även basstationen kan återställa alla avkänningsdata även dessa data har aggregerats. | 7,032,354 | Trust based Data Aggregation in Wireless Sensor Networks | {'venue': None, 'journal': 'International Journal of Computer Applications', 'mag_field_of_study': ['Computer Science']} | 9,183 |
Abstract-Ett antal problem i nätverksdrift och teknik kräver nya metoder för trafikanalys. De flesta befintliga trafikanalysmetoder är i grunden tidsbundna, men det finns ett tydligt behov av att analysera trafiken över flera nätverkslänkar - det vill säga för rumslig trafikanalys. I detta dokument ger vi exempel på problem som kan lösas genom rumslig trafikanalys. Vi föreslår sedan en formell strategi för rumslig trafikanalys baserad på våget transform. Vårt tillvägagångssätt (graph wavelets) generaliserar den traditionella wavelet transform så att det kan tillämpas på dataelement som är anslutna via en godtycklig graf topologi. Vi utforskar de nödvändiga och önskvärda egenskaperna hos detta tillvägagångssätt och överväger några av dess möjliga förverkliganden. Vi tillämpar sedan grafvågor på mätningar från ett operativsystem. Våra resultat visar att grafvågor är mycket användbara för våra motiverande problem; till exempel kan de användas för att bilda högt sammanfattade vyer av ett helt näts trafikbelastning, för att få insikt i ett näts globala trafikrespons på ett länkfel, och för att lokalisera omfattningen av en felhändelse inom nätverket. | Crovella och Kolaczyk REF introducerade wavelets på grafer för analys av nätverkstrafik. | 874,996 | Graph wavelets for spatial traffic analysis | {'venue': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'journal': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'mag_field_of_study': ['Computer Science']} | 9,184 |
I detta dokument diskuteras en metod för införande av ett probabilistiskt inferenssystem baserat på en utökad relationsdatamodell. Denna modell ger ett enhetligt tillvägagångssätt för en mängd olika tillämpningar såsom dynamisk pro gramming, lösa glesa linjära ekvationer och begränsning förökning. I detta arbete representeras sannolikhetsmodellen som en generaliserad relationsdatabas. Subse Quent probabilistiska förfrågningar kan behandlas som standard relationsförfrågningar. Konventionella system för databashantering kan lätt införas för att införa ett sådant system med ungefärliga resonemang. Probabilistiska modeller [4, 9, 10] används för att göra beslut under osäkerhet. Inputen till en probabilistisk modell är vanligtvis ett Bayesianskt nätverk [10]. Den kan också bestå av en uppsättning möjligheter som definierar ett Markovnätverk [4]. I detta dokument utgår vi ifrån att den proba bilistiska modellen beskrivs av ett Markov-nätverk. För denna modell kan förökningsmetoden [5, 6, 7, 12, 13] med fördel användas för att omvandla potentialerna till marginella fördelningar. Det finns en annan viktig anledning att karakterisera en probabilistisk modell av ett Markov nätverk, eftersom det har visat sig att ett sådant nätverk kan representeras som en generaliserad relationsdatabas (14, 15, 16]. Det vill säga, den probabilistiska modellen kan omvandlas till en likvärdig (utökad) relationell datamodell. Mer specifikt kan marginalen som motsvarar varje politisk fråga ses som en relation i relationsdatabasen. Dessutom bildar databassystemet som härrör från ett markovnätverk en acyklisk dependency [15], som har många önskvärda egenskaper [1, 8] i databastillämpningar. Eftersom den probabilistiska modellen nu representeras av en relativ datamodell, kan en begäran om sannolikhet uttryckt som en villkorlig sannolikhet omvandlas på motsvarande sätt till en standardförfrågan som ska utföras av databashanteringssystemet. Naturligtvis kan alla frågeoptimering tekniker användas direkt för att behandla denna fråga inklusive datastruktur modification. Dessa omvandlingar gör det således möjligt för oss att dra full nytta av sökoptimeraren och andra per formance förbättringsmöjligheter som finns i traditionella relationsdatabaser. Detta dokument, en uppföljare till presentationen i IPMU-konferensen [15], rapporterar om de tekniska detaljerna i samband med utformningen av ett probabilistiskt inferenssystem genom att omvandla ett Markov-nätverk till en relationsdatabas. Vår tidning är organiserad enligt följande. I avsnitt 2, för fullständighet, ser vi över en enhetlig relationell datamodell för både probabilistiska resonemang och databashanteringssystem. I avsnitt 3 visar vi att en faktoriserad sannolikhetsfördelning kan uttryckas som ett generellt acykliskt föreningsberoende. Metoden för att genomföra ett probabilistiskt slutledningssystem beskrivs i avsnitt 4. Först beskriver vi hur en relationsdatabas konstrueras för en given probabilistisk modell. Vi visar sedan att behandlingen av en begäran om bevisupptagning är likvärdig med behandlingen av en standard relationsfråga. Vi avslutar med att påpeka att det utvidgade relationsdatabassystemet faktiskt kan modellera ett antal till synes olika men nära relaterade tillämpningar [12]. Innan vi introducerar vår datamodell måste vi definiera några grundläggande begrepp som är relevanta för vår diskussion såsom: hypergrafer, faktoriserade distributioner och marginalisering. Då visar vi hur under vissa förhållanden en faktoriserad gemensam sannolikhetsfördelning kan uttryckas | Denna översättning av klickfunktionerna i ett Markov-nät till en allmän relationsdatabas är i huvudsak densamma som i REF. | 8,288,689 | A Method for Implementing a Probabilistic Model as a Relational Database | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,185 |
De flesta uppgifter i naturligt språk bearbetning kan kastas i frågesvar (QA) problem över språkinmatning. Vi introducerar det dynamiska minnesnätverket (DMN), en neural nätverksarkitektur som bearbetar inmatningssekvenser och frågor, bildar tillfälliga minnen och genererar relevanta svar. Frågor utlöser en iterativ uppmärksamhetsprocess som gör det möjligt för modellen att fästa sin uppmärksamhet på indata och resultatet av tidigare iterationer. Dessa resultat resoneras sedan över i en hierarkisk återkommande sekvensmodell för att generera svar. DMN kan tränas end-to-end och får toppmoderna resultat på flera typer av uppgifter och dataset: frågesvar (Facebook's bAbI dataset), textklassificering för känsloanalys (Stanford Sentiment Treebank) och sekvensmodellering för del-of-peech taggning (WSJ-PTB). Utbildningen för dessa olika uppgifter bygger uteslutande på utbildade ordvektor representationer och input-frågesvar trioler. | REF introducerar dynamiska minnesnätverk, som de visar nådde state-of-theart prestanda i en mängd olika NLP-uppgifter. | 2,319,779 | Ask Me Anything: Dynamic Memory Networks for Natural Language Processing | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,186 |
Abstract-Vi föreslår klippningsmetoder som kan använda komplexa geometrier för volymklippning. Clipping tester utnyttja per-fragment verksamhet på grafik hårdvara för att uppnå höga bildhastigheter. I kombination med texturbaserad volymåtergivning gör dessa tekniker det möjligt för användaren att interaktivt välja och utforska regioner i datamängden. Vi presenterar djupbaserade clipping tekniker som analyserar djupstrukturen i gräns representationen av clip geometri för att avgöra vilka delar av volymen måste klippas. I ett annat tillvägagångssätt, en voxelized clip objekt används för att identifiera klippta regioner. Dessutom beaktas kombinationen av volymklippning och volymskuggning. En optisk modell introduceras för att sammanfoga aspekter av ytbaserad och volymbaserad belysning för att uppnå en konsekvent skuggning av klippytan. Det visas hur denna modell effektivt kan införlivas i ovannämnda urklippsteknik. | Weiskopf m.fl. REF föreslog flera interaktiva klipptekniker som kan använda komplexa klippgeometrier. | 32,368,704 | Interactive clipping techniques for texture-based volume visualization and volume shading | {'venue': 'IEEE Trans. Vis. Comput. Graph.', 'journal': 'IEEE Trans. Vis. Comput. Graph.', 'mag_field_of_study': ['Computer Science']} | 9,187 |
I webbmiljön, särskilt för e-handelswebbplatser, blir användaridentifieringen en stor utmaning för inträdeskontroll på högtrafikplatser. Som tidigare visats av flera författare [5, 2], när en webbserver är överbelastad finns det en betydande förlust av dataflöde när vi jämför färdiga sessioner och antalet svar per sekund; längre sessioner är oftast de som slutar i försäljning men också den mest känsliga för att ladda misslyckanden. Även om det finns en del arbete på sessionsbaserad antagningskontroll [2, 13], maximerar detta tillvägagångssätt inte intäkterna eftersom det behandlar alla icke-loggade sessioner på samma sätt. I det här dokumentet presenterar vi en ny metod för att lära sig att prioritera användare med högre inköps intentioner. För detta använder vi traditionella maskininlärning tekniker och andra order Markov-chain modeller; vi testar vår strategi för åtkomstloggar som erhållits från en high-traffic online resebyrå. Vi kan träna ett system för att uppskatta sannolikheten för eventuella användarens inköp intentioner enligt dess tidiga navigering klick och annan statisk information. Förutsägelserna kan användas av antagningskontrollsystem för att prioritera sessioner eller neka dem om inga resurser finns tillgängliga, vilket förbättrar försäljningsgenomströmningen per tidsenhet. | En arkitektur för antagningskontroll på e-handelswebbplatser som prioriterar användarsessioner baserat på förutsägelser om användarens avsikter att köpa en produkt föreslås i REF. | 16,510,264 | Web Customer Modeling for Automated Session Prioritization on High Traffic Sites | {'venue': 'Proceedings of the 11th International Conference on User Modeling. Corfu', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,188 |
Nyligen har mycket forskning fokuserat på händelsehistorisk generation, som syftar till att producera en koncis, global och temporal händelsesammanfattning från en samling artiklar. I allmänhet innehåller varje händelse flera delevenemang och storyn bör bestå av sammanfattningarna av alla delhändelser. Olika sub-evenemang har dock olika del-hel relation till den stora händelsen, vilket är viktigt för att motsvara användarnas intressen men sällan beaktas i tidigare arbete. För att skilja mellan olika typer av sub-händelser föreslår vi en mix-event-aspekt-modell som modellerar olika sub-event i lokala och globala aspekter. Genom att kombinera dessa lokala/globala aspekter med summeringskrav tillsammans använder vi en optimeringsmetod för att generera komponentsammanfattningarna längs tidslinjen. Vi utvecklar experimentella system på 6 distinkt olika dataset. Utvärderings- och jämförelseresultat visar hur effektiv vår föreslagna metod är. | På samma sätt införde REF en gemensam modell för mix-event-aspect med hjälp av en generativ metod. | 14,451,105 | Optimized Event Storyline Generation based on Mixture-Event-Aspect Model | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,189 |
I den här artikeln undersöker vi distribuerade beräkningar i dynamiska nätverk där nätverkets topologi ändras från rund till rund. Vi anser att en värsta fall modell där kommunikationslänkarna för varje runda väljs av en motståndare, och noder vet inte vilka deras grannar för den aktuella omgången är innan de sänder sina meddelanden. Modellen fångar upp mobila nätverk och trådlösa nätverk, där rörlighet och störningar gör kommunikation oförutsägbar. I motsats till mycket av det befintliga arbetet med dynamiska nät utgår vi inte från att nätverket så småningom slutar att förändras; vi kräver korrekthet och uppsägning även i nät som ständigt förändras. Vi introducerar en stabilitetsfastighet som kallas T-interval konnektivitet (för T ≥ 1), där det anges att för varje T på varandra följande rundor finns en stabil ansluten spännviddsdel. För T = 1 betyder detta att grafen är ansluten i varje v, men ändras godtyckligt mellan rundorna. Vi visar att i 1-interval anslutna grafer är det möjligt för noder att bestämma storleken på nätverket och beräkna alla beräkningsbara funktioner av deras initiala ingångar i O(n 2 ) rundor med meddelanden av storlek O(log n + d), där d är storleken på indata till en enda nod. Vidare, om grafen är T - interval ansluten för T > 1, kan beräkningen påskyndas med en faktor av T, och alla funktioner kan beräknas i O (n + n 2 /T ) rundor med meddelanden av storlek O (log n + d). Vi ger också två lägre gränser på token spridning problem, vilket kräver noderna för att sprida k bitar av information till alla noder i nätverket. Den T-interval anslutna dynamiska grafmodellen är en ny modell, som vi tror öppnar nya vägar för forskning i teorin om distribuerade datorer i trådlösa, mobila och dynamiska nätverk. | Ett annat tillvägagångssätt för modellering av dynamiska nät har föreslagits i REF: T-interval konnektivitet garanterar en gemensam subgraf i kommunikationsgraferna för varje T på varandra följande rundor. | 384,790 | Distributed computation in dynamic networks | {'venue': "STOC '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,190 |
Abstract-Performing the inference steg av djupt lärande i resursbegränsade miljöer, såsom inbyggda enheter, är utmanande. Framgång kräver optimering på både programvaru- och hårdvarunivå. Låg precision aritmetiska och specifikt låg precision fast-punkt nummersystem har blivit standard för att utföra djup inlärning inference. Representerande icke-uniforma data och distribuerade parametrar (t.ex. Vikter) genom att använda jämnt fördelade fasta punktvärden är fortfarande en stor nackdel när man använder detta nummersystem. Nyligen föreslogs systemet med positnummer, som representerar siffror på ett icke-uniformt sätt. Därför är vi motiverade att i detta dokument undersöka möjligheten att använda positnummersystemet för att representera tyngderna i de djupa konvolutionella neurala nätverken. Vi tillämpar dock inte några kvantiseringsmetoder och därför kräver inte nätverksvikterna omskolning. Resultaten av denna undersökning visar att med hjälp av positnummersystemet överträffade det fasta punktnummersystemet i fråga om noggrannhet och minnesanvändning. | Den första DNN-arkitekturen med positnummersystemet föreslogs av Langroudi et al. Hoppa över det. | 46,897,842 | Deep Learning Inference on Embedded Devices: Fixed-Point vs Posit | {'venue': '2018 1st Workshop on Energy Efficient Machine Learning and Cognitive Computing for Embedded Applications (EMC2)', 'journal': '2018 1st Workshop on Energy Efficient Machine Learning and Cognitive Computing for Embedded Applications (EMC2)', 'mag_field_of_study': ['Computer Science']} | 9,191 |
Abstract-Under de senaste åren, inbyggda dynamiska slumpmässiga åtkomstminne (eDRAM) teknik har införts i sista nivån cachs på grund av dess låga läckage energiförbrukning och hög densitet. Det faktum att eDRAM erbjuder kortare åtkomsttid än statisk RAM-teknik (SRAM) har dock förhindrat att den ingår i högre nivåer av cachehierarkin. I detta dokument föreslås att man blandar SRAM- och eDRAM-banker inom datauppsättningen för andra nivåns (L2) cache. Huvudmålet är att uppnå den bästa kompromissen mellan prestanda, energi och område. I detta syfte har två huvudriktningar följts. För det första undersöker detta dokument den optimala andelen banker för varje teknik. För det andra är cache controllern omdesignad för att hantera prestanda och energi. Resultat hanteras genom att hålla de mest sannolika tillgängliga blocken i snabba SRAM-banker. Dessutom förbättras energibesparingen ytterligare genom att onödiga destruktiva avläsningar av eDRAM-block undviks. Experimentella resultat visar att jämfört med en konventionell SRAM L2 cache, en hybrid metod som kräver liknande eller ännu lägre område hastigheter prestanda i genomsnitt med 5,9 procent, medan den totala energibesparingar är med 32 procent. För en 45 nm-teknologinod bekräftar produkten energifördröjning att en hybridcache är en bättre design än den konventionella SRAM-cachen oavsett antalet eDRAM-banker, och också bättre än en konventionell eDRAM-cache när antalet SRAM-banker är en åttondel av det totala antalet cachebanker. | I REF, både SRAM och eDRAM-teknik används i andra nivån cache för att erbjuda områdesbesparingar och minskad energiförbrukning jämfört med SRAM-baserad L2 design medan prestandan ökas med 5,9 procent i genomsnitt. | 931,204 | Design of Hybrid Second-Level Caches | {'venue': 'IEEE Transactions on Computers', 'journal': 'IEEE Transactions on Computers', 'mag_field_of_study': ['Computer Science']} | 9,192 |
Sammanfattning Genomgången av lagen om icke-diskriminering av genetisk information (GINA) hyllades som en central prestation som förväntades lugna både patienters och forskningsdeltagares rädsla för potentiellt missbruk av genetisk information. Sex år senare är dock patient- och leverantörsmedvetenheten om rättsligt skydd på både federal och statlig nivå fortfarande nedslående låg, vilket begränsar deras potentiella effektivitet. Den ökande efterfrågan på genetisk testning kommer att öka antalet individer och familjer som kan dra nytta av att få korrekt information om den integritet och det antidiskriminerande skydd som GINA och andra lagar utvidgar. I den här artikeln beskriver vi rättsskydd som är tillämpliga på personer som söker genetisk rådgivning, granskar litteraturen om patienter och leverantörer av rädsla för genetisk diskriminering och undersöker deras medvetenhet om och förståelse för befintliga lagar, och sammanfattar hur genetiska rådgivare för närvarande diskuterar genetisk diskriminering. Vi lägger sedan fram tre fall av genetisk rådgivning för att illustrera frågor om genetisk diskriminering och tillhandahålla relevant information om tillämpligt rättsligt skydd. Genetiska rådgivare har en aldrig tidigare skådad möjlighet, liksom det professionella ansvaret, att sprida korrekt kunskap om befintliga rättsliga skydd till sina patienter. De kan stärka sin effektivitet i denna roll genom att uppnå större kunskap om nuvarande skydd, bland annat genom att kunna identifiera specifika åtgärder som kan bidra till att skydda genetisk information. | Prins m.fl. beskriver tre praktiska fall av genetisk rådgivning som illustrerar genetisk diskriminering REF. | 15,995,096 | Genetic Information, Non-Discrimination, and Privacy Protections in Genetic Counseling Practice | {'venue': 'Journal of Genetic Counseling', 'journal': 'Journal of Genetic Counseling', 'mag_field_of_study': ['Medicine']} | 9,193 |
Abstrakt. Vi presenterar tekniker som gör det möjligt att minska styrkan samtidigt som partiell redundans elimineras inom ramen för SSAPRE. Genom att dela egenskaperna inneboende i SSAPRE, den resulterande hållfasthetsreduktion algoritm uppvisar många intressanta attribut. Vi jämför olika aspekter av den nya algoritmen för hållfasthetsreduktion med tidigare algoritmer för hållfasthetsminskning. Vi skisserar och diskuterar också vårt genomförande av den närbesläktade linjära funktionsprovsoptimeringen inom samma ramverk. | REF använde SSAPRE-ramen för att utföra hållfasthetsreduktion och linjär funktionsprovning. | 16,533,964 | Strength Reduction via SSAPRE | {'venue': 'CC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,194 |
I detta dokument fokuserar vi på utmaningen att automatiskt omvandla en valkrets trädbank (källa trädbank) för att passa standarden för en annan valkrets trädbank (mål trädbank). Vi formaliserar konverteringsproblemet som ett välgrundat avkodningsförfarande: information från ursprungliga annoteringar i en källa trädbank införlivas i avkodningsfasen av en parser utbildad på en mål trädbank under parsern tilldela parse träd till meningar i källan trädbank. Experiment på två kinesiska trädbankar visar betydande förbättringar i omvandling noggrannhet jämfört med baslinjesystem, särskilt när utbildningsdata som används för att bygga parsern är liten i storlek. | I REF föreslås att indelningsstrukturer införs som tolkningsbegränsningar i avkodningsfasen för en SCY-liknande parser. | 9,457,590 | Automatic Treebank Conversion via Informed Decoding | {'venue': 'COLING - POSTERS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,195 |
Detta dokument ger en beskrivning och utvärdering av ett generiskt namngiven-enhetsigenkänningssystem (NER) för svenska som tillämpas på elektroniska versioner av svenska litterära klassiker från 1800-talet. Vi diskuterar de utmaningar som dessa texter innebär och de nödvändiga anpassningar som införts i NER-systemet för att uppnå korrekta resultat, användbara både för metadatagenerering, men också för att förbättra sök- och webbförmågan hos Litteraturbanken, ett pågående kulturarvsprojekt som syftar till att digitalisera betydande verk inom svensk litteratur. | För det svenska språket föreslog REF ett system för erkännande av namngivna personer anpassat till svensk litteratur från 1800-talet. | 1,075,199 | Naming the Past: Named Entity and Animacy Recognition in 19th Century Swedish Literature | {'venue': 'Workshop on Language Technology for Cultural Heritage Data (LaTeCH 2007)', 'journal': None, 'mag_field_of_study': ['History', 'Computer Science']} | 9,196 |
Abstrakt. För att förbättra förvaltningen av upphovsrätten på Internet, det så kallade Digital Rights Management, finns det ett behov av ett gemensamt språk för upphovsrättsrepresentation. De nuvarande strategierna bygger på rent syntaktiska lösningar, dvs. en grammatik som definierar ett rättighetsuttrycksspråk. Dessa språk är svåra att tillämpa på grund av bristen på explicita semantik som underlättar genomförandet. Dessutom är de enkla ur rättslig synvinkel eftersom de bara är avsedda att modellera de användarlicenser som tillhandahålls av innehållsleverantörer till slutanvändare. De bortser därför från det upphovsrättsliga ramverk som ligger bakom och hela värdekedjan från upphovsmän till slutanvändare. Vårt förslag är att använda ett semantiskt tillvägagångssätt baserat på semantiska webb ontologier. Vi beskriver utvecklingen av en upphovsrättsbaserad ontologi för att omsätta detta tillvägagångssätt i praktiken. Den modellerar upphovsrättens kärnkoncept för skapande, rättigheter och de grundläggande typer av åtgärder som fungerar på innehåll. Sammantaget gör det möjligt att bygga upp ett upphovsrättsligt ramverk för hela värdekedjan. Den uppsättning åtgärder som gäller innehåll är våra mindre byggstenar för att hantera komplexiteten i upphovsrättens värdekedjor och uttalanden och samtidigt garantera en hög grad av interoperabilitet och flexibilitet. Den resulterande ramen för upphovsrättsmodellering är flexibel och komplett nog för att modellera många upphovsrättsscenarier, inte bara sådana som har att göra med ekonomiskt utnyttjande av innehåll. Ontologin innehåller också moraliska rättigheter, så det är möjligt att modellera denna typ av situationer som det visas i den medföljande exempelmodellen för ett tillbakadragandescenario. Slutligen leder ontologidesignen och urvalet av verktyg till ett enkelt genomförande. Beskrivning Logic reasters används för licenskontroll och hämtning. Rättigheter modelleras som handlingsklasser, handlingsmönster modelleras också som klasser och detsamma görs för konkreta handlingar. Sedan, för att kontrollera om någon rättighet eller licens beviljar en åtgärd minskas för att kontrollera klassens subkonsumtion, vilket är en direkt funktion av dessa skälare. | En övergripande semantisk strategi för förvaltning av digitala rättigheter baserad på ontologier föreslås i REF. | 12,700,052 | A web ontologies framework for digital rights management | {'venue': 'Artificial Intelligence and Law', 'journal': 'Artificial Intelligence and Law', 'mag_field_of_study': ['Computer Science']} | 9,197 |
Abstract-Naturligt språk gränssnitt för robot kontroll strävar efter att hitta den bästa sekvensen av åtgärder som återspeglar det beteende som avses av instruktionen. Detta är svårt på grund av mångfalden av språk, olika miljöer och heterogena uppgifter. Tidigare arbeten har visat att probabilistiska grafiska modeller konstruerade ur det naturliga språkets parsestruktur kan användas för att identifiera rörelser som närmast liknar verbfraser. Sådana metoder dukar emellertid snabbt under för att beräkna flaskhalsar som orsakas av konstruktion och söka i utrymmet för möjliga åtgärder. Planeringsbegränsningar, som definierar målregioner och separerar tillåtna och oacceptabla stater i en miljömodell, utgör ett intressant alternativ för att representera betydelsen av verbfraser. I detta dokument presenterar vi en ny modell som kallas Distributed Correspondence Graph (DCG) för att härleda de mest sannolika uppsättningen av planeringsbegränsningar från instruktioner i naturligt språk. En bana planerare använder sedan dessa planering begränsningar för att hitta en sekvens av åtgärder som liknar instruktionen. Genom att skilja problemet med att identifiera den åtgärd som språket kodat in i enskilda steg av planeringsrestriktion och rörelseplanering kan vi undvika beräkningskostnader i samband med generering och utvärdering av många banor. Vi presenterar experimentella resultat från jämförande experiment som visar på förbättrad effektivitet i naturligt språk förståelse utan förlust av noggrannhet. | För att effektivt konvertera ostrukturerat naturligt språk till symboler som representerar utrymmena för kommentarer och beteenden, använder vi Distributed Correspondens Graph (DCG) modell REF. | 15,011,253 | A natural language planner interface for mobile manipulators | {'venue': '2014 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2014 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Computer Science']} | 9,198 |
Abstract-Vi presenterar en effektiv vägplanerare för smarta rullstolar baserat på harmoniska potentiella fält. Medan användningen av harmoniska fält alltid kan garantera att hitta en befintlig väg, de är extremt beräkningsintensiva och en tillräckligt detaljerad karta över miljön kan leda till en omöjlig lösning för vägen. Dessutom, eftersom vår målapplikation är för navigering av en smart rullstol, för personer med allvarliga funktionshinder, den väg som tillhandahålls av det harmoniska fältet är ofta för skarp och behöver jämnas ut. För att ta itu med det första problemet föreslår vi en parallell algoritm som implementeras med hjälp av Graphics Processor Units (GPU) på plattformen Compute Unified Device Architecture (CUDA). Och för det andra problemet har vi utvecklat en gummibandsmodell som ger extra krafter som kan läggas till de harmoniska fältens dragningskrafter. Denna modell förutsätter att stigen är en elastisk linje, ett gummiband, som förbinder käll- och destinationspunkterna. Detta gummiband simulerar de interna spänningskrafterna som försöker dra åt linjen. Som resultatavsnittet visar har både den ursprungliga vägen från det harmoniska fältet ensam och den väg som slätas av gummibandet modellen ungefär samma längd, men den första vägen innehåller många stötar, skarpa vinklar, och sicksackar, medan den andra ger en mycket bekvämare resa för passagerare i rullstol. Antingen utförs man i realtid, så att den föreslagna metoden kan användas för verklig navigering av smarta rullstolar. | I REF föreslogs en robust metod med hjälp av en gummibandsmodell för att jämna ut banan och minska antalet skarpa vinklar som erhållits enbart genom användning av harmoniska potentiella fält. | 766,838 | A real-time path planner for a smart wheelchair using harmonic potentials and a rubber band model | {'venue': '2010 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'journal': '2010 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'mag_field_of_study': ['Computer Science']} | 9,199 |
Abstract-I detta dokument utvecklar vi ett nytt ramverk för att känna av och återvinna strukturerade signaler. I motsats till compressive sensing (CS) system som använder linjära mätningar, glesa representationer och beräkningskomplexa konvexa/grå algoritmer, introducerar vi ett djupt lärande ramverk som stöder både linjära och milt icke-linjära mätningar, som lär sig en strukturerad representation från träningsdata, och som effektivt beräknar en signalskattning. I synnerhet använder vi en staplad denoiserande autoencoder (SDA), som en oövervakad funktioninlärare. SDA gör det möjligt för oss att fånga statistiska beroenden mellan de olika elementen i vissa signaler och förbättra signalåterställningsprestandan jämfört med CS-metoden. | Mousavi m.fl. I REF föreslås först att man tillämpar en staplad denoiserande autoencoder (SDA) för att lära sig representationen från träningsdata och för att rekonstruera testdata från deras CS-mätningar. | 7,239,967 | A Deep Learning Approach to Structured Signal Recovery | {'venue': 'In Proceeding of 2015 53rd Annual Allerton Conference on Communication, Control, and Computing (Allerton)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,200 |
: Illustration av problemet och vårt förhållningssätt: givet två bilder, x med objekt och y med bakgrund, generera två bilder:x med bakgrund från den första bilden restaureras efter att klippa ut objektet och med objektet klistras in på den andra bakgrunden. Bilder på denna siffra är verkliga exempel som produceras av vår algoritm. Vi presenterar ett nytt tillvägagångssätt för bildmanipulation och förståelse genom att samtidigt lära sig att segmentera objektmasker, klistra in objekt till en annan bakgrundsbild och ta bort dem från originalbilder. För detta ändamål utvecklar vi en ny generativ modell för kompositionsbildgenerering, SEIGAN (Segment-EnhanceInpaint Generative Adversarial Network), som lär sig dessa tre operationer tillsammans i en kontradiktorisk arkitektur med ytterligare cykelkonsistensförluster. För att träna behöver SEIGAN endast begränsa lådan övervakning och kräver inte parning eller mark sanning masker. SEIGAN producerar bättre framtagna bilder (utvärderade av mänskliga bedömare) än andra metoder och producerar högkvalitativa segmenteringsmasker, förbättrar över andra kontradiktoriskt utbildade metoder och närmar sig resultaten av fullt övervakad utbildning. | När de förses med bakgrundsbilder och bilder med objekt lär sig REF att segmentera genom att förutsäga masker och klistra in patchar från objektdomänen på bakgrundsdomänen som begränsas av en kontradiktorisk och en cykelkonsistensförlust. | 53,715,173 | SEIGAN: Towards Compositional Image Generation by Simultaneously Learning to Segment, Enhance, and Inpaint | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,201 |
Simuleringar kan bidra till att öka förtroendet för systemkonstruktioner, men de ger nästan inga formella garantier. I detta dokument presenterar vi en simuleringsbaserad verifieringsram för inbyggda system som beskrivs av icke-linjära, switchade system. I vårt ramverk krävs det att användarna antecknar dynamiken i varje kontrollläge för det system som byts ut genom något som vi kallar en diskrepansfunktion som formellt mäter karaktären av linjekonvergens/divergens av systemet. Diskretion funktioner generalisera andra mått på banan konvergens och divergens som Contraction Metrics och Incremental Lyapunov funktioner. Genom att utnyttja sådana kommentarer presenterar vi ett sunt och relativt komplett verifieringsförfarande för robust säkra/osäkra system. Vi har byggt ett verktyg baserat på det ramverk som är integrerat i den populära modellen Simulink/Stateflow. Experiment med vårt prototypverktyg visar att metoden (a) överträffar andra verifieringsverktyg på standard linjära och icke-linjära referensvärden, (b) skalor rimligen till större dimensionella system och till längre tidshorisonter, och (c) gäller modeller med olika banor och okända parametrar. | I REF presenteras först en simuleringsbaserad verifieringsram för ickelinjära omkopplade system, där användarna är skyldiga att kommentera dynamiken i varje kontrollläge genom en diskrepansfunktion som formellt mäter karaktären på systemets kurskonvergens/divergens. | 15,667,429 | Verification of annotated models from executions | {'venue': '2013 Proceedings of the International Conference on Embedded Software (EMSOFT)', 'journal': '2013 Proceedings of the International Conference on Embedded Software (EMSOFT)', 'mag_field_of_study': ['Computer Science']} | 9,202 |
Abstract-Vi ser över problemet med att identifiera länkmått från end-to-end vägmätningar i praktiska IP-nätverk där kortaste vägen routing är normen. Tidigare lösningar bygger på explicita routingtekniker (t.ex. källrouting eller MPLS) för att konstruera oberoende mätvägar för effektiv kopplingsmetrisk identifiering. De flesta IP-nätverk använder sig dock fortfarande av ett paradigm med kortast möjliga ruttdragning, medan de flesta routingföretagen inte stöder den explicita routingen. I detta dokument studeras således sambandet mellan metriska identifieringsproblem under kortast möjliga vägdragningsbegränsningar. För att unikt identifiera länkmåtten måste vi placera tillräckligt antal monitorer i nätverket så att det finns m (antalet länkar) linjära oberoende kortaste vägar mellan monitorerna. I det här dokumentet formulerar vi först problemet som ett blandat heltal linjär programmering problem, och sedan för att göra problemet dragbart i stora nätverk, föreslår vi en Monitor Placement and Measurement Path Selection (MP-MPS) algoritm som följer kortaste vägen routing begränsningar. Omfattande simuleringar på slumpmässiga och verkliga nätverk visar att MP-MPS får nära optimala lösningar i små nätverk, och MP-MPS betydligt överträffar en baslinjelösning i stora nätverk. | Således i REF, vi tar itu med end-toend sökväg baserat länk metrisk identifiering problem under den kortaste vägen begränsning. | 6,772,223 | Practical Approach to Identifying Additive Link Metrics with Shortest Path Routing | {'venue': '2015 IEEE Global Communications Conference (GLOBECOM)', 'journal': '2015 IEEE Global Communications Conference (GLOBECOM)', 'mag_field_of_study': ['Computer Science']} | 9,203 |
Abstract-The Internet of Things (IoT) paradigm står för praktiskt taget sammankopplade objekt som är identifierbara och utrustade med avkänning, dator och kommunikationskapacitet. Implementering av tjänster och applikationer över IoT-arkitekturen kan dra nytta av cloud computing-konceptet. Sensing-as-a-Service (S 2 aaS) är en molninspirerad servicemodell som möjliggör tillgång till sakernas internet. I detta dokument presenterar vi ett ramverk där sakernas internet kan öka allmänhetens säkerhet genom crowd management via sensortjänster som tillhandahålls av smarta telefoner utrustade med olika typer av sensorer. För att säkerställa pålitlighet i den presenterade ramen, föreslår vi ett ryktesbaserat S 2 aaS-system, nämligen Trustworthy Sensing for Crowd Management (TSCM) för front-end tillgång till sakernas internet. TSCM samlar in avkänningsdata baserat på en molnmodell och ett auktionsförfarande som väljer mobila enheter för särskilda avkänningsuppgifter och bestämmer betalningarna till användarna av de mobila enheter som tillhandahåller data. Prestandautvärdering av TSCM visar att inverkan av skadliga användare i crowdsourced data kan degraderas med 75% medan pålitligheten hos en skadlig användare konvergerar till ett värde under 40% efter få auktioner. Dessutom visar vi att TSCM kan förbättra den offentliga säkerhetsmyndighetens nytta upp till 85 %. Index Terms-Auction teori, cloud computing, crowd management, Internet of Things (IoT), allmän säkerhet, Sensing-as-aService (S 2 aaS), smart telefonanalys, sociala nätverk. | Kantarci och Mouftah Ref föreslog till exempel ett ryktesbaserat system för analys som en tjänst för att säkerställa datatillförlitlighet i crowdsourcing management för MCS-system. | 13,809,820 | Trustworthy Sensing for Public Safety in Cloud-Centric Internet of Things | {'venue': 'IEEE Internet of Things Journal', 'journal': 'IEEE Internet of Things Journal', 'mag_field_of_study': ['Computer Science']} | 9,204 |
Mobile edge computing (MEC) framträder nyligen som en lovande lösning för att avlasta resursbegränsade mobila enheter från beräkningsintensiva uppgifter, vilket gör det möjligt för enheter att avlasta arbetsbelastningar till närliggande MEC-servrar och förbättra kvaliteten på beräkningsupplevelsen. Trots detta, genom att överväga ett MEC-system bestående av flera mobila användare med stokastiska uppgifter ankomster och trådlösa kanaler i detta papper, utformningen av beräkning offloading politik är utmanande att minimera den långsiktiga genomsnittliga beräkningskostnaden i termer av strömförbrukning och buffring fördröjning. En djupt förstärkande inlärning (DRL) baserad decentraliserad dynamisk beräkning offloading strategi undersöks för att bygga ett skalbart MEC-system med begränsad feedback. Särskilt antas en kontinuerlig åtgärd rymdbaserad DRL-strategi som kallas djup deterministisk policygradient (DDPG) för att lära sig effektiv beräkning av avlastningspolitiken oberoende av varje mobil användare. På så sätt kan befogenheterna för både lokalt genomförande och avlastning av uppgifter fördelas på ett anpassningsbart sätt genom de inlärda policyerna från varje användares lokala observation av MEC-systemet. Numeriska resultat illustreras för att visa att effektiva strategier kan läras ut hos varje användare, och prestanda av den föreslagna DDPG-baserade decentraliserade strategin överträffar det konventionella djupa Q-nätverket (DQN) baserade diskreta effektstyrningsstrategi och några andra giriga strategier med minskade beräkningskostnader. Dessutom analyseras även effektfördröjningen för både DDPG-baserade och DQN-baserade strategier. | Författarna i REF tillämpar djupt förstärkande lärande för att få en effektiv avlastningspolitik för beräkning oberoende av varje mobil användare. | 56,176,862 | Decentralized Computation Offloading for Multi-User Mobile Edge Computing: A Deep Reinforcement Learning Approach | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Engineering', 'Mathematics']} | 9,205 |
Abstract-Problemet med slumptalsgenerering från en okorrelerad slumpmässig källa (av okänd sannolikhetsfördelning) går tillbaka till von Neumanns arbete 1951. Elias (1972) generaliserade von Neumanns plan och visade hur man uppnår optimal effektivitet i opartisk slumpmässig bitsgenerering. Vad är därför en naturlig fråga, om källorna är korrelerade? Både Elias och Samuelson föreslog metoder för att generera opartiska slumpmässiga bitar i fallet med korrelerade källor (av okänd sannolikhetsfördelning), specifikt, de ansåg ändliga Markov kedjor. De föreslagna metoderna är emellertid inte effektiva eller har genomförandesvårigheter. Blum (1986) utarbetade en algoritm för att effektivt generera slumpmässiga bitar från grad-2 finita Markov-kedjor i förväntad linjär tid, men hans vackra metod är fortfarande långt ifrån optimal på informationseffektivitet. I den här artikeln generaliserar vi Blums algoritm till godtycklig grad ändliga Markovkedjor och kombinerar den med Elias metod för effektiv generering av opartiska bitar. Som ett resultat av detta tillhandahåller vi den första kända algoritmen som genererar opartiska slumpmässiga bitar från en godtycklig finit Markov-kedja, fungerar i förväntad linjär tid och uppnår den informationsteoretiska övre gränsen för effektivitet. | I REF tillhandahöll författarna den första kända algoritmen som genererar opartiska slumpmässiga bitar från en godtycklig finit Markov-kedja, som fungerar i förväntad linjär tid och uppnår den informationsteoretiska övre gränsen för effektivitet. | 1,895,743 | Efficient Generation of Random Bits From Finite State Markov Chains | {'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,206 |
För två på varandra följande bilder i en video, identifierar vi vilka bildpunkter i den första ramen blir ockluded i den andra. En sådan allmän detektering av ocklusionsregioner är svår och viktig eftersom en-till-ett-korrespondens av avbildade scenpunkter behövs för många spårnings-, videosegmenterings- och rekonstruktionsalgoritmer. Vår hypotes är att en effektiv utbildad ocklusionsdetektor kan genereras på grundval av i) ett brett spektrum av visuella egenskaper, och ii) representativa men syntetiska träningssekvenser. Genom att använda en Random Forest-baserad ram för funktionsval och utbildning, fann vi att den föreslagna funktionen uppsättningen var tillräcklig för att ofta tilldela en hög sannolikhet för ocklusion till bara de pixlar som verkligen blev ocluded. Våra omfattande experiment på många sekvenser stöder detta fynd, och även om noggrannheten fortfarande är scenberoende, kan den föreslagna klassificeringen vara ett användbart förbehandlingssteg för att utnyttja timlig information i video. | Humayun m.fl. REF avgör ocklusioner post-hoc genom att utbilda en klassificerare på ett brett spektrum av visuella egenskaper och förkomputerat optiskt flöde. | 1,954,152 | Learning to find occlusion regions | {'venue': 'CVPR 2011', 'journal': 'CVPR 2011', 'mag_field_of_study': ['Computer Science']} | 9,207 |
Under det senaste halvåret har konvolutionella neurala nätverk (CNN) segrat över semantisk segmentering, vilket är en central uppgift för olika framväxande industriella tillämpningar såsom autonom körning och medicinsk avbildning. Men att utbilda CNN kräver en enorm mängd data, vilket är svårt att samla in och mödosamt att kommentera. De senaste framstegen inom datorgrafik gör det möjligt att utbilda CNN-modeller på fotorealistiska syntetiska data med datorgenererade kommentarer. Trots detta minskar domänobalansen mellan de verkliga bilderna och de syntetiska uppgifterna avsevärt modellernas prestanda. Därför föreslår vi en läroplansbaserad inlärningsmetod för att minimera domänklyftan i semantisk segmentering. Den läroplansdomänanpassning löser enkla uppgifter först för att dra några nödvändiga egenskaper om måldomänen; i synnerhet, den första uppgiften är att lära sig globala etikettdistributioner över bilder och lokala distributioner över landmärke superpixlar. Dessa är lätta att uppskatta eftersom bilder av stadstrafik scener har starka idiosynkrasier (t.ex. storlek och rumsliga förhållanden byggnader, gator, bilar, etc.). Vi tränar sedan segmenteringsnätet på ett sådant sätt att nätverksprognoserna i måldomänen följer de infererade egenskaperna. I experiment överträffar vår metod betydligt baslinjerna och det enda kända tillvägagångssättet till samma problem. | Curriculum domänanpassning REF å andra sidan föreslår läroplansstil lärande strategi där den enkla uppgiften att uppskatta globala märkning distributioner över bilder och lokala distributioner över landmärke superpixlar lärs först. | 11,824,004 | Curriculum Domain Adaptation for Semantic Segmentation of Urban Scenes | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 9,208 |
Abstract-I detta papper studerar vi två fjärde ordningens kumulantbaserade tekniker för uppskattning av blandningsmatrisen i underdefinierad oberoende komponentanalys. Den första metoden är baserad på en samtidig matris diagonalisering. Den andra bygger på en samtidig off-diagonalisering. Antalet källor som kan tillåtas är ungefär kvadratiskt i antalet observationer. För båda metoderna anges uttryckliga uttryck för det maximala antalet källor. Simuleringar illustrerar teknikens prestanda. Index Terms-Cumulant, högre orderstatistik, högre order tensor, oberoende komponentanalys (ICA), parallell faktoranalys, samtidig diagonalisering, underbestämd blandning. | I icke-EEG-inställningar visades att FOOBI kan identifiera ett antal källor som är ungefär kvadratiska i antalet sensorer REF. | 16,824,541 | Fourth-Order Cumulant-Based Blind Identification of Underdetermined Mixtures | {'venue': 'IEEE Transactions on Signal Processing', 'journal': 'IEEE Transactions on Signal Processing', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,209 |
En betydande svaghet i de flesta nuvarande djupa konvolutionella neurala nätverk är behovet av att utbilda dem med hjälp av stora mängder manuellt märkta data. I detta arbete föreslår vi en oövervakad ram för att lära sig ett djupt konvolutionellt neuralt nätverk för enkelseende djup förutsägelse, utan att kräva ett förträningsstadium eller kommenterade mark sanningen djup. Vi uppnår detta genom att utbilda nätverket på ett sätt som liknar en autoencoder. Vid träningstiden överväger vi ett par bilder, källa och mål, med liten, känd kamerarörelse mellan de två såsom ett stereopar. Vi utbildar den konvolutionella kodaren för uppgiften att förutsäga djupkartan för källbilden. För att göra det genererar vi uttryckligen en omvänd warp av målbilden med hjälp av det förutsagda djupet och kända inter-view förskjutning, för att rekonstruera källbilden; det fotometriska felet i återuppbyggnaden är återuppbyggnadsförlusten för kodaren. Förvärvet av dessa träningsdata är betydligt enklare än för likvärdiga system, kräver ingen manuell annotering, eller kalibrering av djupsensor till kamera. Vi visar att vårt nätverk utbildat på mindre än hälften av KITTI-datasetet (utan ytterligare förstärkning) ger jämförbar prestanda jämfört med den senaste teknikens övervakade metoder för ensidig djupuppskattning. | Verket av Garg et al. REF är det första, avgörande steget i denna riktning och föreslår ett nätverk för monokulär djupuppskattning genom att vid utbildningstid använda sig av återuppbyggnadsförlust tillsammans med faktiska stereopar som övervakning. | 299,085 | Unsupervised CNN for Single View Depth Estimation: Geometry to the Rescue | {'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,210 |
Abstrakt. Samarbeta skriva och redigera använder vanligtvis annoteringar för att samordna edition uppgifter, kommentera innehållet, lägga till relevanta referenser, eller klargöra förvirrande innehåll. Trots att wikis är bland de mest använda hypertext-system för att utföra sådana samarbetsaktiviteter, har de föga stöd för kommentarer. I detta dokument föreslår vi att man använder rumsliga hypertextlager som en lösning för hantering av kommentarer i wikis. Vi har utökat ShyWiki, en rumslig hypertext wiki-miljö, med multilayer Superimposed Information funktioner. Dessutom presenterar vi resultaten av en studie som visar värdet av rumsliga hypertextlager för att lokalisera, organisera och gruppera kommentarer i intressegrupper under ett wikigränssnitt. | Sols m.fl. I REF föreslås att rumsliga hypertextlager används som lösning för hantering av kommentarer i wikis. | 18,957,603 | Multilayer superimposed information for collaborative annotation in wikis | {'venue': 'OTM Conferences', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,211 |
Abstract-This paper rapporterar om problemet med kartbaserad visuell lokalisering i stadsmiljöer för autonoma fordon. Självkörande bilar har blivit verklighet på vägarna och kommer att bli en konsumentprodukt inom en snar framtid. En av de viktigaste vägspärrarna till autonoma fordon är den oöverkomliga kostnaden för de sensorsviter som krävs för lokalisering. Den vanligaste sensorn på dessa plattformar, en tredimensionell (3D) ljusdetektion och spännvidd (LIDAR) scanner, genererar täta punktmoln med mått på ytreflektivitet-som andra state-of-the-art localization metoder har visat kan centimeter-nivå noggrannhet. Alternativt försöker vi uppnå jämförbar lokaliseringsnoggrannhet med betydligt billigare, varukameror. Vi föreslår att lokalisera en enda monokulär kamera inom en 3D föregående markkarta, genererad av en undersökning fordon utrustad med 3D LIDAR scanners. För att göra det utnyttjar vi en grafikbearbetningsenhet för att generera flera syntetiska vyer av vår trosmiljö. Vi försöker sedan maximera den normaliserade ömsesidiga informationen mellan våra verkliga kameramätningar och dessa syntetiska vyer. Resultaten visas för två olika datauppsättningar, en 3.0 km och en 1,5 km bana, där vi också jämför mot toppmoderna i LIDAR kartbaserad lokalisering. | REF föreslår att man använder en enda monokulär kamera inom en 3D föregående markkarta. | 797,892 | Visual localization within LIDAR maps for automated urban driving | {'venue': '2014 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'journal': '2014 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'mag_field_of_study': ['Computer Science']} | 9,212 |
Nästan alla vetenskaps- och ingenjörsfält använder sökalgoritmer, som automatiskt utforskar ett sökområde för att hitta högpresterande lösningar: kemister söker genom molekyler för att upptäcka nya läkemedel; ingenjörer söker efter starkare, billigare, säkrare konstruktioner, forskare söker efter modeller som bäst förklarar data, etc. Målet med sökalgoritmer har traditionellt varit att returnera den enskilda lösningen med högsta prestanda i ett sökområde. Här beskriver vi en ny, fundamentalt annorlunda typ av algoritm som är mer användbar eftersom den ger en helhetsbild av hur högpresterande lösningar distribueras i ett sökområde. Det skapar en karta över högpresterande lösningar vid varje punkt i ett utrymme som definieras av dimensioner av variation som en användare får välja. Detta flerdimensionella arkiv av fenotypiska Eliter (MAP-Elites) algoritm belyser sökytor, så att forskare kan förstå hur intressanta attribut av lösningar kombineras för att påverka prestanda, antingen positivt eller, lika av intresse, negativt. Till exempel, ett läkemedelsföretag kan vilja förstå hur prestandaförändringar som storleken på molekyler och deras kostnad-till-produce varierar. MAP-Elites producerar en stor mångfald av högpresterande, men kvalitativt olika lösningar, som kan vara till större hjälp än en enda, högpresterande lösning. Intressant, eftersom MAP-Elites utforskar mer av sökområdet, tenderar den också att hitta en bättre övergripande lösning än toppmoderna sökalgoritmer. Vi demonstrerar fördelarna med denna nya algoritm i tre olika problemområden som sträcker sig från att producera modulära neurala nätverk till att designa simulerade och riktiga mjuka robotar. Eftersom MAPElites (1) belyser förhållandet mellan prestanda och dimensioner av intresse för lösningar, (2) returnerar en uppsättning högpresterande, men ändå olika lösningar, och (3) förbättrar state-of-the-art för att hitta en enda, bästa lösning, kommer det att katalysera framsteg inom alla vetenskaps- och ingenjörsfält. Författarens anmärkning: Detta dokument är ett preliminärt utkast till ett dokument som introducerar MAP-Elites algoritm och utforskar dess möjligheter. Normalt skulle vi inte posta ett så tidigt utkast med endast preliminära experimentella data, men många människor i samhället har hört talas om MAP-Elites, använder det i sina egna papper, och har bett oss om en uppsats som beskriver det så att de kan citera det, hjälpa dem att genomföra MAP-Elites, och som beskriver de experiment vi redan har genomfört med det. Vi vill alltså dela med oss av både detaljerna i denna algoritm och vad vi har lärt oss av våra preliminära experiment. Alla experiment i denna tidning kommer att göras om innan den slutliga versionen av tidningen publiceras, och uppgifterna kan därmed komma att ändras. Varje område inom vetenskap och teknik använder sig av sökalgoritmer, även kallade optimeringsalgoritmer, som automatiskt försöker hitta en högkvalitativ lösning eller uppsättning högkvalitativa lösningar bland ett stort utrymme av möjliga lösningar 1, 2. Sådana algoritmer hittar ofta lösningar som överträffar de designade Fig. 1................................................................ MAP-Elites algoritm söker i ett högdimensionellt utrymme för att hitta den högst presterande lösningen vid varje punkt i ett lågdimensionellt funktionsutrymme, där användaren får välja dimensioner av variation av intresse som definierar det låga dimensionsutrymmet. Vi kallar denna typ av algoritm en "belysningsalgoritm", eftersom det belyser lämpligheten i varje område av funktionen utrymme, inklusive kompromisser mellan prestanda och funktioner av intresse. Till exempel kunde MAP-Elites söka i utrymmet för alla möjliga robotkonstruktioner (ett mycket stort utrymme) för att hitta den snabbaste roboten (ett prestandakriterium) för varje kombination av längd och vikt. av mänskliga ingenjörer 3 : de har utformat antenner som NASA flög till rymden 4, fann patenterbara elektroniska kretsmönster 3, automatiserad vetenskaplig upptäckt 5, och skapade artificiell intelligens för robotar [6] [7] [8] [9] [10] [11] [12] [12] [13] [14] [15]. På grund av deras utbredda användning ger förbättrade sökalgoritmer betydande fördelar för samhället. De flesta sökalgoritmer fokuserar på att hitta en eller en liten uppsättning högkvalitativa lösningar i ett sökområde. Vad som utgör hög kvalitet bestäms av användaren, som anger ett eller några mål som lösningen bör poängsätta högt på. Till exempel, en användare kan vilja lösningar som är högpresterande och låg kostnad, där var och en av dessa desiderata är kvantifierbar mäts antingen med en ekvation eller simulator. Traditionella sökalgoritmer inkluderar klättring av kullar, simulerad glödgning, evolutionära algoritmer, lutningsstigning/nedstigning, Bayesian optimering och multiobjektiva optimeringsalgoritmer 1, 2. Den senare återger en uppsättning lösningar som utgör de bästa kompromisserna mellan mål 16. En delmängd av optimeringsproblem är utmanande eftersom de kräver sökning efter optima i en funktion eller system som antingen är icke-differentiable eller inte kan uttryckas matematiskt, typiskt eftersom ett fysiskt system eller en komplex simulering krävs. Sådana problem kräver "svarta box" optimeringsalgoritmer, som söker efter högpresterande lösningar beväpnade endast med förmågan att bestämma prestandan hos en lösning, men utan tillgång till den utvärderingsfunktion som bestämmer denna prestanda. Vid sådana problem kan man inte använda optimeringsmetoder som kräver att man beräknar gradienten för funktionen, såsom lutningsstigning/uppstigning. En ökänd utmaning i svart box optimering är närvaron av lokala optima (även kallad lokala minima) 1, 2. Ett problem med de flesta sökalgoritmer i denna klass är att de försöker följa en väg som kommer att leda till den bästa globala lösningen genom att förlita sig på heurismen att slumpmässiga förändringar till bra lösningar leder till bättre lösningar. Detta tillvägagångssätt fungerar dock inte för mycket vilseledande problem, eftersom man i sådana problem måste korsa lågpresterande dalar för att hitta den globala optiman, eller bara för att hitta bättre optima 2. Eftersom evolutionära algoritmer är en av de mest framgångsrika- | MAP-Elites REF-algoritm liknar begreppsmässigt vår, författarna försöker hitta kvalitetslösningar i olika dimensioner. | 14,759,751 | Illuminating search spaces by mapping elites | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Biology']} | 9,213 |
Modellering av nätverk, särskilt generativa modeller, har visat sig ge en uppsjö av information om de underliggande nätverksstrukturerna, liksom många andra fördelar bakom deras konstruktion. Intresset för bättre förståelse och modellering av nätverk har ökat avsevärt, och det stora flertalet av det befintliga arbetet har varit för icke-signerade nätverk. Många nätverk kan dock ha positiva och negativa länkar (eller signerade nätverk), särskilt i sociala medier på nätet. Det framgår tydligt av det senaste arbetet att signerade nätverk presenterar unika egenskaper och principer från osignerade nätverk på grund av den ökade komplexiteten, som innebär enorma utmaningar för befintliga osignerade nätverksmodeller. Därför undersöker vi i detta dokument problemet med modellering av signerade nätverk. I synnerhet tillhandahåller vi en principiell strategi för att fånga viktiga egenskaper och principer hos undertecknade nätverk och föreslår en ny signerad nätverksmodell som styrs av strukturell balansteori. Empiriska experiment på tre realtidstecknade nätverk visar hur effektiv den föreslagna modellen är. | Derr m.fl. REF använder också balansteori för att styra fånga viktiga egenskaper hos de signerade nätverken och modellera den. | 97,418 | Signed Network Modeling Based on Structural Balance Theory | {'venue': "CIKM '18", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']} | 9,214 |
Abstract-Problemet med att matcha en kriminalteknisk skiss till ett galleri av muggbilder behandlas i denna tidning. Tidigare forskning inom skissmatchning erbjöd endast lösningar för att matcha mycket exakta skisser som ritades samtidigt som man tittade på ämnet (tittade skisser). Kriminaltekniska skisser skiljer sig från sedda skisser i att de ritas av en polis skiss konstnär med hjälp av beskrivningen av ämnet som tillhandahålls av ett ögonvittne. För att identifiera kriminaltekniska skisser presenterar vi ett ramverk som kallas lokal funktionsbaserad diskriminantanalys (LFDA). I LFDA representerar vi individuellt både skisser och foton med SIFT-funktionsdeskriptorer och flerskaliga lokala binära mönster (MLBP). Flera diskriminanta projektioner används sedan på partitionerade vektorer för den funktionsbaserade representationen för minsta avståndsmatchning. Vi använder denna metod för att matcha en datauppsättning på 159 kriminaltekniska skisser mot ett muggfotogalleri som innehåller 10.159 bilder. Jämfört med ett ledande kommersiellt ansiktsigenkänningssystem erbjuder LFDA betydande förbättringar i matchningen av kriminaltekniska skisser till motsvarande ansiktsbilder. Vi kunde ytterligare förbättra matchningsprestandan med hjälp av ras- och genusinformation för att minska målgalleriets storlek. Ytterligare experiment visar att det föreslagna ramverket leder till toppmoderna noggrannheter vid matchning av sedda skisser. | Klare och Jain REF publicerade en lokal funktion baserad Diskriminant Analysis (LFDA) metod för att matcha kriminaltekniska skisser till muggfoton. | 15,597,758 | Matching Forensic Sketches to Mug Shot Photos | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 9,215 |
Vårt arbete föreslår en ny ram för djupt lärande för att uppskatta folkmassans densitet från statiska bilder av mycket täta folkmassor. Vi använder en kombination av djupa och grunda, helt konvolutionella nätverk för att förutsäga densitet kartan för en given publik bild. En sådan kombination används för att effektivt fånga upp både den semantiska informationen på hög nivå (ansikts-/kroppsdetektorer) och de lågnivåfunktioner (blob-detektorer), som är nödvändiga för att man ska kunna räkna i stor skala. Eftersom de flesta crowd dataset har begränsade träningsprover (<100 bilder) och djupinlärningsbaserade metoder kräver stora mängder träningsdata, utför vi flerskalig dataförstärkning. Att förstärka utbildningsproverna på ett sådant sätt hjälper till att vägleda CNN att lära sig skala invarianta representationer. Vår metod är testad på den utmanande UCF CC 50 dataset, och visade sig överträffa toppmoderna metoder. | CrowdNet REF använder kombinationen av grunda och djupa nätverk för att förvärva flerskalig information i täthet karta approximation för crowd counting. | 697,405 | CrowdNet: A Deep Convolutional Network for Dense Crowd Counting | {'venue': "MM '16", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,216 |
Mål: Kvalitetssäkring av programvara är en formell process för att utvärdera och dokumentera kvaliteten på arbetsprodukterna under varje steg av programvaruutvecklingens livscykel. Bruket att tillämpa programvarumått på operativa faktorer och att upprätthålla faktorer är en komplex uppgift. Framgångsrik kvalitetssäkring av programvara är i hög grad beroende av programvarumått. Den behöver koppla ihop kvalitetsmodell och programvarumått genom kvalitetsfaktorer för att kunna erbjuda mätmetod för kvalitetssäkring av programvara. Bidragen från detta papper bygga en lämplig metod för programkvalitetsmått tillämpning i kvalitet livscykel med kvalitetssäkring av programvara. Design: Syftet metod definierar vissa programvarumått i faktorerna och diskuterade flera program kvalitetssäkring modell och vissa kvalitetsfaktorer mäta metod. Metodologi: Detta papper löser kundvärdering problem är: Bygga en ram av kombination av kvalitetskriterier för programvara. Beskriver programvarumått. Bygga programvara kvalitetsmått ansökan i kvalitet livscykel med kvalitetssäkring av programvara. Resultat: Från den lämpliga metoden för programkvalitetsmått tillämpning i kvalitetslivscykel med kvalitetssäkring av programvara, varje aktivitet i programvarans livscykel, det finns en eller flera QA kvalitetsmått fokus på att säkerställa kvaliteten på processen och den resulterande produkten. Framtida forskning är nödvändigt att utöka och förbättra metoden för att förlänga mätvärden som har validerats på ett projekt, med våra kriterier, giltiga kvalitetsmått på framtida programvaruprojekt. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | Lee REF föreslog ett ramverk för att lösa kundvärderingsproblem. | 60,583,920 | Software Quality Factors and Software Quality Metrics to Enhance Software Quality Assurance | {'venue': None, 'journal': 'British Journal of Applied Science and Technology', 'mag_field_of_study': ['Computer Science']} | 9,217 |
Domänanpassning är ett viktigt problem i behandling av naturligt språk (NLP) på grund av bristen på märkta data i nya domäner. I det här dokumentet studerar vi problemet med domänanpassning utifrån instansviktningsperspektivet. Vi analyserar och karakteriserar formellt problemet med domänanpassning från en distributionsvy, och visar att det finns två olika behov av anpassning, motsvarande de olika fördelningarna av instanser och klassificeringsfunktioner i källan och måldomänerna. Därefter föreslår vi en allmän ram för viktning av domänanpassning. Våra empiriska resultat av tre NLP-uppgifter visar att det är effektivt att införliva och utnyttja mer information från måldomänen genom instansviktning. | När det gäller det senare har ett system för viktning av generiska instans föreslagits för domänanpassning REF. | 15,036,406 | Instance Weighting for Domain Adaptation in NLP | {'venue': '45th Annual Meeting of the Association of Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,218 |
Vi inför ett nytt slumpmässigt system för förhandsdistribution för att säkra heterogena trådlösa sensornätverk. Var och en av n sensorerna i nätverket klassificeras i r klasser enligt vissa sannolikhetsfördelning μ = {μ 1,. ..., μ r }.................................................................................. Före utplaceringen tilldelas en klass-i-sensor K i kryptografiska tangenter som väljs jämnt slumpmässigt från en gemensam pool av P-nycklar. När de väl är utplacerade kan ett par sensorer kommunicera säkert om och endast om de har en nyckel gemensamt. Vi modellerar kommunikationstopologin för detta nätverk genom en nydefinierad inhomogen slumpmässig nyckelgraf. Vi etablerar skalning villkor på parametrarna P och {K 1,. ., K r } så att denna graf i) har inga isolerade noder; och ii) är ansluten, båda med hög sannolikhet. Resultaten ges i form av noll-en lagar med antalet sensorer n växande obundet stora; kritiska skalningar identifieras och visas sammanfalla för båda graf egenskaper. Våra resultat visas för att komplettera och förbättra de som ges av Godehardt et al. och Zhao et al. För samma modell, nedan kallad den allmänna slumpmässiga skärningskurvan. | I REF, noll-en lagar för egenskapen att grafen inte har några isolerade noder och egenskapen att grafen är ansluten fastställdes för den inhomogena slumpmässiga nyckelgrafen K(n, μ μ, K K K, P ) under fullt sikt antagande. | 15,914,985 | Zero-one laws for connectivity in inhomogeneous random key graphs | {'venue': 'IEEE Transactions on Information Theory 62(8):4559-4574, August 2016', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,219 |
Vi anser att en pickup och leverans fordon routing problem som ofta möter i real-world logistik verksamhet. Problemet inbegriper en uppsättning praktiska komplikationer som har fått liten uppmärksamhet i fordonsritualen. I detta problem, det finns flera bärare och flera fordonstyper tillgängliga för att täcka en uppsättning av pickup och leveransorder, som var och en har flera pickup tid fönster och flera leveranstider fönster. Beställningar och lastbärare/fordonstyper måste uppfylla en uppsättning kompatibilitetsbegränsningar som specificerar vilka order som inte kan omfattas av vilka lastbärare/fordonstyper och vilka order som inte kan levereras tillsammans. Beställnings- och lossningssekvensen måste uppfylla de krav på företräde som kräver att en order inte kan lossas förrän alla order som lastas i lastbilen senare än denna order lossas. Varje fordonsresa skall uppfylla de regler för förarens arbete som föreskrivs av transportministeriet och som anger en förares lagliga arbetstider. Kostnaden för en resa bestäms av flera faktorer, inklusive en fast avgift, total körsträcka, total väntetid och total uppehållstid för föraren. Vi föreslår kolonngenereringsbaserade lösningar på detta komplexa problem. Problemet PPDP är formulerad som en uppsättning partitionering typ formulering som innehåller ett exponentiellt antal kolumner. Vi tillämpar standard kolonngenerering förfarande för att lösa den linjära avslappningen av denna uppsättning partitionering typ formulering där den resulterande master problem är ett linjärt program och lösas mycket effektivt av en LP lösare, medan de resulterande subproblem är beräkningsbart intractable och löst av snabb heuristics. Ett heltal lösning erhålls genom att använda en IP-lösare för att lösa en begränsad version av den ursprungliga uppsättning partitionering typ formulering som endast innehåller kolumnerna som genereras för att lösa linjär avkoppling. Metoderna utvärderas baserat på lägre gränser som erhålls genom att lösa linjär avslappning till optimalitet genom att använda en exakt dynamisk programmeringsalgoritm för att lösa underproblemen exakt. Det visas att tillvägagångssätten kan generera nära optimala lösningar snabbt för slumpmässigt genererade fall med upp till 200 order. För större slumpmässigt genererade fall med upp till 500 order, visas det att beräkningstider som krävs för dessa metoder är godtagbara. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | REF tillämpade kolonn generering baserade lösningar för att lösa en pickup och leverans fordon routing problem som innebär en uppsättning praktiska komplikationer, såsom heterogena fordon, last-in-first-out lastning och lossning, pickup och leverans tid fönster, och arbetstid begränsningar av USA: s Department of Transport. | 13,211,624 | Solving a Practical Pickup and Delivery Problem | {'venue': 'Transportation Science', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,220 |
En betrodd sökväg är en skyddad kanal som garanterar sekretess och äkthet för dataöverföringar mellan en användares inmatning/utmatningsenhet (I/O) och ett program som den användaren litar på. Vi hävdar att de nuvarande råvarusystemen, trots sin obestridliga nödvändighet, inte stöder en pålitlig väg med någon större säkerhet. Detta dokument presenterar en hypervisor-baserad design som möjliggör en pålitlig väg för att kringgå ett opålitligt operativsystem, applikationer, och I/O-enheter, med en minimal Trusted Computing Base (TCB). Vi föreslår också konkreta I/O arkitektoniska förändringar som kommer att förenkla framtida betrodda-pat systemdesign. Vårt system gör det möjligt för användare att verifiera tillstånd och konfigurationer för en eller flera betrodda vägar med hjälp av en enkel, hemlig, handhållen enhet. Vi implementerar en enkel användarorienterad pålitlig väg som en fallstudie. | Zhou m.fl. REF beskriver ett tillvägagångssätt för att säkra dataöverföringen mellan en användares I/O-enhet och ett program som användaren litar på. | 14,140,647 | Building Verifiable Trusted Path on Commodity x86 Computers | {'venue': '2012 IEEE Symposium on Security and Privacy', 'journal': '2012 IEEE Symposium on Security and Privacy', 'mag_field_of_study': ['Computer Science']} | 9,221 |
Artikel (publicerad version) http://sro.sussex.ac.uk Tuncer, N, Madzvamuse, A och Meir, A J (2015) Projicerade finita element för reaktionsdiffusionssystem på stationära slutna ytor. Tillämpad numerisk matematik, Denna version är tillgänglig från Sussex Research Online: http://sro.sussex.ac.uk/id/eprint/54034/ Detta dokument görs tillgängligt i enlighet med förlagets policyer och kan skilja sig från den publicerade versionen eller från versionen av skivan. Om du vill citera denna punkt uppmanas du att konsultera förlagets version. Se webbadressen ovan för information om åtkomst till den publicerade versionen. Sussex Research Online är ett digitalt arkiv för universitetets forskningsresultat. Upphovsrätt och alla moraliska rättigheter till den version av tidningen som presenteras här tillhör de enskilda upphovsmännen och/eller andra upphovsrättsinnehavare. I den mån det är rimligt och praktiskt möjligt har det material som tillhandahålls i SRO kontrollerats för stödberättigande innan det görs tillgängligt. Kopior av fulltextobjekt i allmänhet kan reproduceras, visas eller utföras och ges till tredje part i något format eller medium för personlig forskning eller studier, utbildning, eller icke-vinstdrivande ändamål utan föregående tillstånd eller kostnad, förutsatt att författare, titel och fullständiga bibliografiska detaljer krediteras, en hyperlänk och/eller URL ges för den ursprungliga metadata-sidan och innehållet ändras inte på något sätt. I detta papper presenterar vi en robust, effektiv och exakt finita element metod för att lösa reaktionsdiffusionssystem på stationära sfäriska ytor (dessa är ytor som är deformationer av sfären såsom ellipsoider, hantlar och hjärtformade ytor) med potentiella tillämpningar inom områdena utvecklingsbiologi, cancerforskning, sårläkning, vävnadsregenerering och cellmotilitet bland många andra där sådana modeller rutinmässigt används. Vår metod är inspirerad av den radiellt projicerade finita elementmetoden som introducerades i [39]. (Därav namnet 'projicerad' finita elementmetoden.) Fördelarna med den projicerade finita elementmetoden är att den är lätt att implementera och att den ger en överensstämmelse finita element diskretization som är "logiskt" rektangulär. För att demonstrera robustheten, tillämpligheten och generaliteten hos denna numeriska metod presenterar vi lösningar av reaktionsdiffusionssystem på olika sfäroida ytor. Vi visar att den metod som presenteras i detta dokument bevarar positiviteten hos lösningarna av reaktionsdiffusionsekvationer som i allmänhet inte gäller för Galerkins typmetoder. Vi drar slutsatsen att ytgeometrin spelar en central roll i mönsterbildningen. För en fast uppsättning av modellparametervärden, ger olika ytor upphov till olika mönstergenerering sekvenser av antingen fläckar eller ränder eller en kombination (observeras som cirkulära spot-stripe mönster). Dessa resultat visar tydligt behovet av detaljerade teoretiska analytiska studier för att belysa hur ytgeometri och krökning påverkar mönsterbildningen på komplexa ytor. | Nyligen har REF infört en projicerad Finite Elements Metod för att studera mönsterbildning av RD-system på ytor som kan approximeras analytiskt och senare kartlagt med Lipschitz kontinuitet på en sfär. | 17,526,102 | Projected finite elements for reaction-diffusion systems on stationary closed surfaces | {'venue': None, 'journal': 'Applied Numerical Mathematics', 'mag_field_of_study': ['Mathematics']} | 9,222 |
Vi presenterar grupp equivariant kapselnätverk, en ram för att införa garanterad equivariance och invariance egenskaper till kapseln nätverk idé. Vårt arbete kan delas in i två bidrag. För det första presenterar vi en allmän routing genom avtal algoritm definieras på delar av en grupp och visar att likformighet av utdata utgör vektorer, liksom invarians av utdata aktiveringar, hålla under vissa villkor. För det andra kopplar vi samman de resulterande equivarianta kapselnäten med arbete från området för gruppkonvolutionella nätverk. Genom denna anslutning ger vi intuitioner om hur båda metoderna relaterar och kan kombinera styrkan i båda tillvägagångssätten i en djup neural nätverksarkitektur. Det resulterande ramverket möjliggör sparsam utvärdering av koncernens konvolutionsoperatör, ger kontroll över specifika likformighets- och variationsegenskaper, och kan använda routing genom överenskommelse i stället för poolning. Dessutom är det möjligt att ge tolkningsbara och likvärdiga representation vektorer som utgång kapslar, som löses bevis på objektet existens från dess pose. | Lensen m.fl. REF föreslog en generisk routingalgoritm som definierar den tillförlitliga variabiliteten och invariansen för kapselnätverket och visade den lika variansen för utmatningen utgör vektorn och utmatningsaktiveringen. | 49,188,713 | Group Equivariant Capsule Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,223 |
Med den rika uppsättning inbyggda sensorer installerade i smartphones och det stora antalet mobila användare, bevittnar vi uppkomsten av många innovativa kommersiella mobila crowdsensing applikationer som kombinerar kraften i mobil teknik med crowdsourcing för att leverera tidskänslig och platsberoende information till sina kunder. Motiverade av dessa verkliga applikationer, anser vi problemet med uppgiftsval för heterogena användare med olika ursprungliga platser, rörelsekostnader, rörelsehastigheter och ryktesnivåer. Att beräkna det sociala överskottet maximering uppgift allokering visar sig vara ett NP-hård problem. Därför fokuserar vi på det distribuerade fallet och föreslår en asynkron och distribuerad aktivitetsvalalgoritm (ADTS) för att hjälpa användarna att planera sina aktivitetsval på egen hand. Vi bevisar konvergensen av algoritmen, och ytterligare karakteriserar beräkningstiden för användarnas uppdateringar i algoritmen. Simuleringsresultat tyder på att ADTS-systemet uppnår Jains högsta rättviseindex och täckning jämfört med flera referensalgoritmer, samtidigt som det ger liknande fördelar för användaren till ett girigt centraliserat riktmärke. Slutligen illustrerar vi hur mobila användare samordnar sig enligt ADTS-systemet baserat på några praktiska rörelsetidsdata från Google Maps. | Cheung m.fl. Ref fokuserar på problemet med distribuerad tidskänslig och platsberoende uppgiftsval. | 2,596,533 | Distributed Time-Sensitive Task Selection in Mobile Crowdsensing | {'venue': "MobiHoc '15", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,224 |
Smarta stadstekniker framträder som en möjlig lösning för att ta itu med gemensamma problem i stora stadskärnor genom att använda stadens resurser på ett effektivt sätt och tillhandahålla tjänster av hög kvalitet för medborgarna. Trots de olika framstegen inom teknik för mellanprogram för att stödja framtida smarta städer finns det ännu inga allmänt accepterade plattformar. De flesta av de befintliga lösningarna ger inte den flexibilitet som krävs för att delas mellan städerna. Dessutom leder en omfattande användning och utveckling av programvara utan öppen källkod till interoperabilitetsproblem och begränsar samarbetet mellan forsknings- och utvecklingsgrupper. I detta dokument undersöker vi användningen av en mikroservicearkitektur för att ta itu med viktiga praktiska utmaningar i smarta stadsplattformar. Vi presenterar InterSCity, en mikroservicebaserad smart stadsplattform med öppen källkod som syftar till att stödja samverkande, nya smarta stadsforsknings-, utvecklings- och lanseringsinitiativ. Vi diskuterar hur mikroservicen möjliggör en flexibel, extensibel och löst sammankopplad arkitektur och presenterar experimentella resultat som visar skalbarheten hos den föreslagna plattformen. | Användningen av en mikroservicearkitektur utformad för att ta itu med de viktigaste praktiska utmaningarna i smarta stadsplattformar som kallas InterSCity presenteras i ett annat dokument REF. | 4,843,366 | InterSCity: A Scalable Microservice-based Open Source Platform for Smart Cities | {'venue': 'SMARTGREENS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,225 |
Programvarans produktivitet är en viktig nyckel av kvalitetsfaktorer för programvara. Produktivitetsmåttet har blivit ett verktyg för chefer eftersom det används för att jämföra prestanda mellan olika företag (benchmarking) och för att jämföra effektiviteten hos olika utvecklare i samma företag. Det gör det därför möjligt att göra strategisk planering och beslutsfattande baserat på en sådan mätning. En mängd internationella standardiseringsorgan som IEEE och ISO samt forskare inom programvaruteknik har föreslagit en uppsättning faktorer som påverkar programproduktivitetsattributet, och även en uppsättning åtgärder för att utvärdera det. Det finns dock ingen unik modell som integrerar all programvara produktivitet bästa praxis. Syftet med detta dokument är att kartlägga tillgängliga internationella standarder och forskningsarbete om programvaruproduktivitet och ta reda på de viktigaste skillnaderna för att föreslå en standardbaserad modell. Denna modell kommer att omfatta den uppsättning kvalitet attribut som kan användas för att återspegla programvarans produktivitet, och en uppsättning åtgärder som gör det möjligt att utvärdera programutvecklarens produktivitet. | REF presenterade en studie om harmonisering av internationella standarder för programvaruproduktivitet. | 12,996,082 | Software Productivity: Harmonization in ISO/IEEE Software Engineering Standards | {'venue': 'JSW', 'journal': 'JSW', 'mag_field_of_study': ['Computer Science']} | 9,226 |
Vi introducerar en ny uppifrån-och-ner-pipeline för att upptäcka scentext. Vi föreslår en roman Cascaded Convolutional Text Network (CCTN) som förenar två skräddarsydda konvolutionella nätverk för grov-till-fin text lokalisering. CCTN snabbt detekterar textregioner ungefär från en bild med låg upplösning, och lokaliserar sedan exakt textrader från varje förstorad region. Vi kastar tidigare teckenbaserad upptäckt i direkt text regionuppskattning, undvika flera bottomup efter bearbetning steg. Den uppvisar överraskande robusthet och diskriminerande kraft genom att betrakta hela textregionen som detektionsobjekt som ger stark semantisk information. Vi anpassar convolutional nätverk genom att utveckla rektangel konvolutioner och flera i-nätverk fusioner. Detta gör det möjligt att hantera flerformig och flerskalig text på ett effektivt sätt. Dessutom är CCTN beräkningseffektivt genom att dela konvolutionella beräkningar, och hög nivå egenskap gör det möjligt att vara invariant till olika språk och flera orienteringar. Den uppnår 0,84 och 0,86 F-åtgärder för ICDAR 2011 och ICDAR 2013, vilket ger betydande förbättringar jämfört med de senaste resultaten [23, 1]. | Han och Al. REF föreslog en Cascaded Convolutional Text Network (CCTN) som kombinerar två skräddarsydda convolutional nätverk för grov-till-fine text lokalisering. | 7,501,698 | Accurate Text Localization in Natural Image with Cascaded Convolutional Text Network | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,227 |
Detta arbete presenterar utvecklingen av en beräkningsalgoritm som används för att förbättra värmebeteendet i den sekundära kylzonen av stålbillets och blommor som produceras genom kontinuerlig gjutning. En matematisk värmeöverföringsmodell fungerar integrerad med en neural nätverksbaserad algoritm (NNBA) kopplad till en kunskapsbas av gränsförhållanden för operativa parametrar och metallurgiska begränsningar. I den förbättrade strategin väljs en uppsättning kylförhållanden (i den sekundära kylzonen) och metallurgiska kriterier som fastställts för att uppnå hög produktkvalitet, vilka är relaterade till ett mer homogent termiskt beteende under stelning. Inledningsvis valideras resultaten av simuleringar som utförs med hjälp av den matematiska modellen mot experimentella industridata, och god enighet observeras, under alla omständigheter granskas, vilket gör det möjligt att fastställa nominella värmeöverföringsförhållanden med metoden för omvänd värmeledning. Genom att använda den numeriska modell som är kopplad till ett NNBA-resultat har man tagit fram en uppsättning gjutningsförhållanden som har gjort det möjligt att uppnå bättre yttemperaturprofil och metallurgisk längd vid kontinuerlig gjutning av SAE 1007 billets och SAE 1025. | Arbetet i REF föreslår en ytlig neural nätverk-baserad metod för att representera förhållandet mellan temperatur och sekundära kylförhållanden i en kontinuerlig gjutningsprocess. | 14,858,874 | A solidification heat transfer model and a neural network based algorithm applied to the continuous casting of steel billets and blooms | {'venue': None, 'journal': 'Modelling and Simulation in Materials Science and Engineering', 'mag_field_of_study': ['Materials Science']} | 9,228 |
Abstract-Forskare belyser slutanvändarnas engagemang i systemdesign som ett viktigt koncept för att utveckla användbara och användbara lösningar. Slutanvändarens engagemang i programvaruteknik är dock fortfarande en öppen fråga. Nya paradigm som tjänsteorienterad databehandling stärker behovet av ett mer aktivt engagemang från slutanvändarnas sida för att tillhandahålla system som är anpassade till enskilda slutanvändares behov. Vårt arbete bygger på att majoriteten av slutanvändarna är förtrogna med mobila enheter och använder allt fler mobila applikationer. Ett mobilt verktyg som möjliggör att slutanvändarnas krav framkallas kan bara vara ett av många program som installeras på slutanvändarnas mobila enheter. I detta dokument presenterar vi en ram för slutanvändarnas engagemang i kravutveckling som motiverar vår forskning. Det viktigaste bidraget från vår forskning är ett verktygsbaserat kravuppmanande tillvägagångssätt som gör det möjligt för slutanvändare att dokumentera behov på plats. Dessutom presenterar vi de första utvärderingsresultaten för att belysa genomförbarheten av krav på slutanvändare på plats. | Forskare lyfter fram behovet av användarstyrda metoder, som uppmuntrar användare att aktivt driva sina behov till programvaruutvecklare, och gör det därför möjligt för ett stort antal intressenter att engagera sig i krav som framkallar Ref. | 2,824,623 | Using Mobile RE Tools to Give End-Users Their Own Voice | {'venue': '2010 18th IEEE International Requirements Engineering Conference', 'journal': '2010 18th IEEE International Requirements Engineering Conference', 'mag_field_of_study': ['Computer Science']} | 9,229 |
Problemet med att använda bilder av objekt fångas under idealiska bildförhållanden (här kallas in vitro) för att känna igen objekt i naturliga miljöer (in situ) är ett framväxande område av intresse för datorseende och mönsterigenkänning. Exempel på uppgifter i denna riktning är hjälpmedel för synsystem för blinda och objektigenkänning för mobila robotar; spridningen av bilddatabaser på webben kommer att leda till fler exempel inom en snar framtid. Trots dess betydelse finns det fortfarande ett behov av en fritt tillgänglig databas för att underlätta studier av denna typ av utbildning/testdikotomi. I detta arbete är ett av våra bidrag en ny multimediadatabas med 120 livsmedelsprodukter, GroZi-120. För varje produkt finns två olika inspelningar tillgängliga: in vitro-bilder hämtade från webben och in situ-bilder hämtade från videokamera som samlats in i en livsmedelsbutik. Som ytterligare ett bidrag presenterar vi resultaten av att tillämpa tre vanligt använda objektigenkänning / detektion algoritmer (färg histogram matchning, SIFT matchning, och förstärkt Haar-liknande funktioner) till datasetet. Slutligen analyserar vi framgångarna och misslyckandena med dessa algoritmer mot produkttyp och bildförhållanden, både när det gäller igenkänningsgrad och lokaliseringsnoggrannhet, för att föreslå vägar framåt för ytterligare forskning inom detta område. | • Grozi-120 REF är en datauppsättning som föreslås för livsmedelsigenkänning i naturlig miljö. | 14,545,702 | Recognizing Groceries in situ Using in vitro Training Data | {'venue': '2007 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2007 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 9,230 |
Abstract-This paper presenterar en omfattande litteraturöversikt om tillämpningar av ekonomiska modeller och prissättningsmodeller för resurshantering i molnnätverk. För att uppnå hållbara vinstfördelar, kostnadsminskningar och flexibilitet i tillhandahållandet av molnresurser, kräver resurshantering i molnnätverk anpassningsbara och robusta konstruktioner för att ta itu med många frågor, t.ex. resursfördelning, bandbreddsreservation, begäran allokering och fördelning av arbetsbelastning. Ekonomiska modeller och prissättningsmodeller har fått mycket uppmärksamhet eftersom de kan leda till önskvärda resultat när det gäller social välfärd, rättvisa, sannfärdighet, vinst, användarnöjdhet och resursutnyttjande. I detta dokument granskas tillämpningar av de ekonomiska och prisbaserade modellerna för att utveckla adaptiva algoritmer och protokoll för resurshantering i molnnätverk. Dessutom undersöker vi en mängd olika incitamentsmekanismer genom att använda prissättningsstrategierna för att dela resurser i avancerade datorsystem. Dessutom överväger vi att använda prissättningsmodeller i molnbaserade programvarudefinierade trådlösa nätverk. Slutligen lyfter vi fram viktiga utmaningar, öppna frågor och framtida forskningsinriktningar för att tillämpa ekonomiska modeller och prissättningsmodeller på molnnätverk. Index Terms-Cloud nätverk, resurshantering, prissättningsmodeller, ekonomiska modeller. | En färsk undersökning REF granskar prissättningsmodeller för resurshantering i molnnätverk. | 18,750,590 | Resource Management in Cloud Networking Using Economic Analysis and Pricing Models: A Survey | {'venue': 'IEEE Communications Surveys & Tutorials', 'journal': 'IEEE Communications Surveys & Tutorials', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,231 |
Abstract-Coverage är ett grundläggande problem i Wireless Sensor Networks (WSNs). Befintliga studier om detta ämne fokuserar på 2D ideal plan täckning och 3D full rymd täckning. 3D-ytan på ett målinriktat intresseområde är komplex i många tillämpningar i verkligheten, och ändå ger befintliga studier om täckning inte några praktiska resultat. I detta dokument föreslår vi en ny täckningsmodell som kallas yttäckning. I yttäckning är målfältet en komplex yta i 3D-utrymme och sensorer kan endast användas på ytan. Vi visar att befintlig 2D-plantäckning endast är ett specialfall av yttäckning. Simuleringar visar att befintliga system för distribution av sensorer för ett 2D-plan inte kan tillämpas direkt på fall av yttäckning. I detta dokument inriktar vi oss på två problem där man antar att fall av yttäckning är sanna. En, under stokastisk driftsättning, hur många sensorer behövs för att nå en viss förväntad täckningsgrad? För det andra, om det går att planera utplacering av sensorer, vilken är den optimala utplaceringsstrategin med garanterad full täckning med minst antal sensorer? Vi visar att det senare problemet är NP-komplett och föreslår tre approximationsalgoritmer. Vi bevisar vidare att dessa algoritmer har ett påvisbart approximationsförhållande. Vi genomför också omfattande simuleringar för att utvärdera de föreslagna algoritmernas prestanda. | I REF föreslog författarna yttäckningsmodellen och härledde den förväntade täckningsgraden under stokastisk spridning på 3D-ytan. | 14,400,348 | Surface Coverage in Wireless Sensor Networks | {'venue': 'IEEE INFOCOM 2009', 'journal': 'IEEE INFOCOM 2009', 'mag_field_of_study': ['Computer Science']} | 9,232 |
Kognitiv radio (CR) kan utnyttjas för att minska problemet med spektrumbrist i Internet of Things (IoT) applikationer medan trådlös energi skörd (WEH) kan bidra till att minska laddning/byte batterier för sakernas internet och CR-nätverk. I detta syfte föreslår vi att Weh används för CR-nätverk där CR-enheter inte bara kan avkänna tillgängliga radiofrekvenser i samarbete utan också skörda den trådlösa energi som överförs av en åtkomstpunkt. Ännu viktigare är att vi utformar ett optimeringsramverk som fångar upp en grundläggande avvägning mellan energieffektivitet (EE) och spektral effektivitet i nätverket. I synnerhet formulerar vi ett blandat heltal icke-linjär programmering problem som maximerar EE samtidigt som hänsyn tas till användarbuffert beläggning, datahastighet rättvisa, energi kausalitet begränsningar, och interferens begränsningar. Vi bevisar vidare att den föreslagna optimeringsramen är ett NP-hard problem. Därför föreslår vi en låg komplexitet heuristisk algoritm, för att lösa problemet med resursallokering och optimering av energiutvinning. Den föreslagna algoritmen visas vara kapabel att uppnå nära optimal lösning med hög noggrannhet samtidigt med polynom komplexitet. Effektiviteten i vårt förslag valideras genom väl utformade simuleringar. Index Terms-Energieffektivisering (EE), nätverksoptimering, resursfördelning, trådlös energiskörd (WEH). | Shahini m.fl. REF föreslog energieffektivitetsmaximering problem för kognitiv radio (CR)baserade IoT-nätverk genom att ta hänsyn till användarbuffert beläggning och datahastighet rättvisa. | 49,659,751 | Energy Efficient Resource Allocation in EH-Enabled CR Networks for IoT | {'venue': 'IEEE Internet of Things Journal', 'journal': 'IEEE Internet of Things Journal', 'mag_field_of_study': ['Computer Science']} | 9,233 |
I detta dokument överväger vi en online-optimeringsprocess, där de objektiva funktionerna inte är konvexa (eller konkava) utan istället tillhör en bred klass av kontinuerliga submodulära funktioner. Vi föreslår först en variant av Frank-Wolfe algoritm som har tillgång till den fulla lutningen av de objektiva funktionerna. Vi visar att det uppnår en ånger gräns för O ( ε T ) (där T är horisonten av online optimeringsproblem) mot en (1 − 1/e)-uppskattning till den bästa möjliga lösningen i efterhand. I många scenarier finns det dock bara en opartisk uppskattning av lutningarna. För sådana inställningar, föreslår vi sedan en online stokastisk lutning uppstigning algoritm som också uppnår en ånger bundet av O ( ❌ T ) beklagar, om än mot en svagare 1/2-uppskattning till den bästa möjliga lösningen i efterhand. Vi generaliserar också våra resultat till γ-svag submodulära funktioner och bevisar samma sublinjära ångergränser. Slutligen demonstrerar vi effektiviteten av våra algoritmer på några problematiker, inklusive icke-konvexa/icke-konkav kvadratiska program, multilinjära förlängningar av submodulära set-funktioner och D-optimal design. | Chen och Al. REF har övervägt online-problemet med att maximera monotona DR-submodulära funktioner och gett en (1 −1/e)-approximation med ångra O( ε T ) när funktionerna är släta. | 3,362,858 | Online Continuous Submodular Maximization | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,234 |
Sammanfattning av denna webbsida: Vi introducerar CARLA, en simulator med öppen källkod för autonom körforskning. CARLA har utvecklats från grunden för att stödja utveckling, utbildning och validering av autonoma stadskörningssystem. Förutom kod och protokoll med öppen källkod tillhandahåller CARLA öppna digitala tillgångar (stadslayouter, byggnader, fordon) som skapades för detta ändamål och kan användas fritt. Simuleringsplattformen stöder flexibel specifikation av sensorsviter och miljöförhållanden. Vi använder CARLA för att studera prestandan hos tre tillvägagångssätt för autonom körning: en klassisk modulär pipeline, en endto-end-modell tränad via imitationslärande, och en end-to-end-modell tränad via förstärkningslärande. Tillvägagångssätten utvärderas i kontrollerade scenarier med ökande svårigheter, och deras prestanda undersöks med hjälp av mätvärden som tillhandahålls av CARLA, vilket illustrerar plattformens nytta för autonom körforskning. | CARLA REF ger en virtuell värld för autonoma körsystem. | 5,550,767 | CARLA: An Open Urban Driving Simulator | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,235 |
Occlusion är ett av de mest utmanande problemen i djupuppskattning. Tidigare arbete har modellerat singelockluderocklusionen i ljusfält och fått bra resultat, men det är fortfarande svårt att få exakt djup för multiockluderocklusion. I det här dokumentet utforskar vi multiokluderocklusionsmodellen i ljusfält, och härleder ockluderkonsistensen mellan det rumsliga och vinkelutrymme som används som vägledning för att välja de oavslutade vyerna för varje kandidatocklusionspunkt. Därefter byggs en antiocklusionsenergifunktion för att regularisera djupkartan. De experimentella resultaten av offentliga ljusfältsdata har visat fördelarna med den föreslagna algoritmen jämfört med andra toppmoderna algoritmer för djupuppskattning av ljusfält, särskilt i multi-ocluderområden. | Zhu m.fl. REF konstruerade en multiocluder ocklusionsmodell och införde en oktuderkonsistens för att välja oavslutade vyer. | 2,811,708 | Occlusion-Model Guided Anti-Occlusion Depth Estimation in Light Field | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,236 |
Multi-instance lärande och semi-övervakat lärande är olika grenar av maskininlärning. De tidigare försöken att lära sig av ett träningsset består av märkta väskor som var och en innehåller många omärkta fall; de senare försöker utnyttja rikliga omärkta fall när de lär sig med ett litet antal märkta exempel. I detta dokument etablerar vi en bro mellan dessa två grenar genom att visa att lärande med flera sinnen kan ses som ett specialfall av halvövervakat lärande. Baserat på detta erkännande, föreslår vi MissSVM-algoritm som adresserar multi-instance lärande med hjälp av en särskild semiövervakad stöd vektor maskin. Experiment visar att det är möjligt att lösa multi-instance-problem med tanke på halvövervakat lärande, och MissSVM-algoritmen är konkurrenskraftig med toppmoderna multiinstance-lärandealgoritmer. | Vissa hade försökt behandla MIL som ett specialfall av halvövervakat lärande, t.ex. MissSVM REF. | 15,076,400 | On the relation between multi-instance learning and semi-supervised learning | {'venue': "ICML '07", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,237 |
Abstrakt. Detta dokument fokuserar på försvarsmekanismer för skriptattacker, det största hotet mot webbapplikationer idag. Man tror att indatavalidering (eller filtrering) effektivt kan förhindra XSS-attacker på serversidan. I detta dokument diskuterar vi flera senaste verkliga XSS-attacker och analyserar orsakerna till misslyckandet med filtreringsmekanismerna för att försvara dessa attacker. Vi drar slutsatsen att även filtrering är användbart som en första nivå av försvar mot XSS attacker, är det ineffektivt att förhindra flera fall av angrepp, särskilt när användarens inmatning innehåller innehållsrika HTML. Vi föreslår sedan XSS-GUARD, ett nytt ramverk som är utformat för att vara en förebyggande mekanism mot XSS attacker på serversidan. XSS-GUARD fungerar genom att dynamiskt lära sig den uppsättning skript som ett webbprogram avser att skapa för alla HTML-förfrågningar. Vårt tillvägagångssätt inkluderar också en robust mekanism för att identifiera skript på serversidan och tar bort alla skript i utmatningen som inte är avsedd av webbapplikationen. Vi diskuterar omfattande experimentella resultat som visar motståndskraften hos XSS-GUARD för att förhindra ett antal verkliga XSS-exploateringar. | Bisht m.fl. REF, föreslå att ta bort någon server sida skript i utmatningen av ett webbprogram, när skriptet inte ursprungligen infogas av programmet själv. | 5,886,121 | XSS-GUARD : Precise Dynamic Prevention of Cross-Site Scripting Attacks | {'venue': 'DIMVA', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,238 |
Programvaruingenjörer som är nya i ett projekt är ofta fast sortera genom hundratals klasser för att hitta de få klasser som erbjuder en betydande inblick i de inre funktionerna i programvaruprojektet. För att stimulera denna process föreslår vi en teknik som kan identifiera de viktigaste klasserna i ett system, eller de viktigaste klasserna i det systemet. Programvaruingenjörer kan använda dessa klasser för att fokusera sitt förståelsearbete när de börjar arbeta med ett nytt programvaruprojekt. Dessa nyckelklasser kännetecknas typiskt med att ha en hel del "kontroll" inom programmet. För att hitta dessa styrklasser presenterar vi en detektionsmetod som bygger på dynamisk koppling och webmining. Vi demonstrerar potentialen i vår teknik med hjälp av två mjukvarusystem med öppen källkod, som har en rik dokumentationsuppsättning. Under fallstudierna använder vi dynamiskt samlad kopplingsinformation och varierar mellan ett antal kopplingsmått. Fallstudierna visar att vi kan hämta 90 procent av de klasser som bedöms som viktiga av systemens orginalansvariga, samtidigt som vi bibehåller en precisionsnivå på omkring 50 procent. | Det arbete som lagts fram av Zaidman i REF identifierar nyckelklasserna i programvara med hjälp av dynamisk koppling och webmining-teknik. | 8,523,515 | Automatic identification of key classes in a software system using webmining techniques | {'venue': 'Journal of Software Maintenance & Evolution, 20(6):387–417. (Cited on', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,239 |
Abstrakt. Flöde i plana grafer har studerats ingående, och mycket effektiva algoritmer har utvecklats för att beräkna max-flöden, min-cuts och cirkulationer. Intima kopplingar mellan lösningar till de planara cirkulationsproblemen och med "konsistenta" potentiella funktioner i den dubbla grafen visas. Det visas också att uppsättningen av integrerade cirkulationer i en planar graf mycket naturligt bildar en distributiv lattice vars maximala motsvarar den kortaste vägen träd i den dubbla grafen. Ytterligare karakteriseras lattice i termer av enkelriktade cykler med avseende på ett särskilt ansikte som kallas roten ansikte. Det visas hur man kompakt kodar hela lattice och det visas också att uppsättningen av lösningar på min-kostnads flöde problem bildar en sublattice i den presenterade lattice. | Khuller, Naor och Klein REF konstaterade att uppsättningen integrerade cirkulationer i en planar graf bildar en distributiv lattice, och lösningar till den minsta kostnaden cirkulationsproblem bildar en sublattice. | 144,950 | THE LATTICE STRUCTURE OF FLOW IN PLANAR GRAPHS | {'venue': 'SIAM J. Discrete Math.', 'journal': 'SIAM J. Discrete Math.', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,240 |
I detta arbete tar vi upp utvecklingen av en smart personlig assistent som kan förutse en användares informationsbehov baserat på en ny typ av sammanhang: personens verksamhet kan härledas från hennes incheckningsuppgifter på ett platsbaserat socialt nätverk. Vårt huvudsakliga bidrag är en metod som omvandlar en incheckningsaktivitet till ett informationsbehov, som i sin tur behandlas med ett lämpligt informationskort. Denna uppgift är utmanande på grund av det stora antalet möjliga aktiviteter och relaterade informationsbehov, som måste hanteras i en mobil instrumentpanel som är begränsad i storlek. Vår strategi beaktar varje möjlig aktivitet som kan följa efter den sista (och redan färdiga) aktiviteten, och väljer de översta informationskorten så att de maximerar sannolikheten för att tillgodose användarens informationsbehov för alla möjliga framtida scenarier. De föreslagna modellerna innehåller också kunskap om informationsbehovens temporaldynamik. Med hjälp av en kombination av historiska check-in data och manuella bedömningar som samlas in via crowdsourcing, visar vi experimentellt effektiviteten i vår strategi. | Ett ännu nyare exempel är Benetka et al. REF som tar upp problemet med att identifiera, rangordna och förutse en användares informationsbehov, baserat på användarnas senaste verksamhet. | 15,937,840 | Anticipating Information Needs Based on Check-in Activity | {'venue': "WSDM '17", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,241 |
I detta dokument föreslår vi en ny ram som förenar resultaten av tre uppgifter (IE) -enhet nämner, relationer och händelser som ett informationsnätverk representation, och extraherar dem alla med hjälp av en enda gemensam modell baserad på strukturerade förutsägelser. Denna nya formulering gör det möjligt för olika delar av informationsnätverket att interagera fullt ut med varandra. Många förbindelser kan nu till exempel betraktas som händelsetillstånd. Vårt tillvägagångssätt leder till betydande förbättringar jämfört med traditionella pipelinebaserade tillvägagångssätt, och gör betydande framsteg när det gäller att ta fram argument för händelser i toppform. | För att använda mer information från meningen föreslog REF att man skulle ta fram uppgifter om företag, relationer och händelser i ACE-uppgiften baserat på den enhetliga strukturen. | 15,552,794 | Constructing Information Networks Using One Single Model | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,242 |
I detta dokument presenteras Sakbot, ett system för att flytta objektdetektering i trafikövervaknings- och videoövervakningsprogram. Systemet är utrustat med robusta och effektiva detektionsmetoder, som främst är den statistiska och kunskapsbaserade bakgrundsuppdateringen och användningen av HSV-färginformation för skuggdämpning. Spårning tillhandahålls av en symbolisk resonemangsmodul som möjliggör flexibel objektspårning över en mängd olika program. Detta system är effektivt i många olika situationer, både när det gäller utseendet på scenen och syftet med ansökan. | Cucchiara m.fl. REF presenterade Sakbot, ett system för att flytta objektdetektering och spårning. | 10,698,929 | The Sakbot System for Moving Object Detection and Tracking | {'venue': 'Video-Based Surveillance Systems', 'journal': 'Video-Based Surveillance Systems', 'mag_field_of_study': ['Computer Science']} | 9,243 |
Detta papper presenterar ett system för bildtolkning, eller märkning av varje pixel i en bild med sin semantiska kategori, som syftar till att uppnå bred täckning över hundratals objektkategorier, många av dem glest prov. Systemet kombinerar region-nivå funktioner med per-exemplar skjutfönster detektorer. Per-exemplar detektorer är bättre lämpade för vår tolkningsuppgift än traditionella begränsande box detektorer: de presterar bra på klasser med liten träningsdata och hög intraklassvariation, och de tillåter att objektmasker överförs till testbilden för pixel-nivå segmentering. Det föreslagna systemet uppnår toppmodern noggrannhet på tre utmanande datauppsättningar, varav den största innehåller 45,676 bilder och 232 etiketter. | Tighe m.fl. REF kombinerade semantisk segmentering med per-exemplar skjutfönster. | 1,769,943 | Finding Things: Image Parsing with Regions and Per-Exemplar Detectors | {'venue': '2013 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2013 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 9,244 |
Problemförklaring: Det har nyligen funnits intresse för utbildningsdatabaser som innehåller en mängd värdefulla men ibland dolda data som kan användas för att hjälpa mindre framgångsrika studenter att förbättra sina akademiska prestationer. Utvinningen av dold information från dessa databaser implementerar ofta aspekter av den pedagogiska datautvinningsteorin (EDM), som syftar till att studera tillgängliga data för att belysa mer värdefull, dold information. Datakluster, klassificering och regressionsmetoder som K-means klustring, neurala nätverk (NN), extrem inlärningsmaskin (ELM), och stöd vektor maskiner (SVM) kan användas för att förutsäga aspekter av utbildningsdata. EDM-utgångar kan i slutändan identifiera vilka studenter som kommer att behöva ytterligare hjälp för att förbättra sina betygsmedelvärden (GPA) vid examen. Denna studie syftar till att implementera flera förutsägelser tekniker i data mining för att hjälpa läroanstalter med att förutsäga sina studenters GPA vid examen. Om studenterna förväntas ha låga GPA vid examen, då extra insatser kan göras för att förbättra deras akademiska prestanda och, i sin tur, GPA. Metoder: NN, SVM och ELM algoritmer tillämpas på data från datautbildning och undervisningsteknik studenter för att förutsäga deras GPA vid examen. En jämförande analys av resultaten tyder på att SVM-tekniken gav mer exakta förutsägelser med en hastighet på 97,98 %. Däremot gav ELM-metoden den näst mest exakta prognostiseringsfrekvensen (94,92 %) som utvärderades på grundval av korrelationskoefficientkriteriet. NN rapporterade den minst korrekta prognostiseringsfrekvensen (93,76 %). Användningen av datautvinningsmetoder har nyligen utökats för en rad olika utbildningsändamål. De åtgärder som föreskrivs i denna förordning är förenliga med yttrandet från ständiga kommittén för växter, djur, livsmedel och foder. | Tekin REF föreslog modellen för att förutsäga studentens betygsmedelvärde vid examen. | 11,307,185 | Early Prediction of Students' Grade Point Averages at Graduation: A Data Mining Approach. | {'venue': None, 'journal': 'Eurasian Journal of Educational Research', 'mag_field_of_study': ['Computer Science']} | 9,245 |
Variantional inference är en paraplyterm för algoritmer som kastar Bayesian inference som optimering. Klassiskt, variantal inference använder Kullback-Leibler divergens för att definiera optimeringen. Även om denna skillnad har använts i stor utsträckning, kan den efterföljande approximationen lida av oönskade statistiska egenskaper. För att komma till rätta med detta granskar vi på nytt variabla slutsatser från dess rötter som ett optimeringsproblem. Vi använder operatörer, eller funktioner funktioner, för att utforma olika mål. Som ett exempel, vi utformar ett varierat mål med en Langevin-Stein operatör. Vi utvecklar en svart låda algoritm, operatör variationsinferens ( ), för att optimera alla operatörsmål. Det är viktigt att operatörerna gör det möjligt för oss att göra tydliga statistiska och beräkningsmässiga avvägningar för olika slutsatser. Vi kan karakterisera olika egenskaper av variationsmål, såsom mål som tillåter data subsampling-tillåta slutsatser att skala till massiva data-samt mål som tillåter variationsprogram-en rik klass av bakre approximationer som inte kräver en dragbar densitet. Vi illustrerar fördelarna med en blandningsmodell och en generativ bildmodell. | Ett exempel är operatörens variabla slutsats REF som använder Langevin-Stein-operatören för att utforma ett nytt variationsmål. | 736,758 | Operator Variational Inference | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,246 |
Abstrakt. Vi anser två relaterade problem, Minimum Bounded Degree Matroid Basis problem och Minimum Bounded Degree Submodular Flow problem. Det första problemet är en generalisering av problemet Minimum Bounded Degree Spanning Tree: vi får en matris och en hypergraf på sin markuppsättning med lägre och övre gränser f (e) ≤ g (e) för varje hyperkant e. Uppgiften är att hitta en lägsta kostnadsbas som innehåller minst f (e) och som mest g (e) element från varje hyperkant e. I det andra problemet har vi ett submodulärt flöde problem, en lägre gräns f (v) och en övre gräns g (v) för varje nod v, och uppgiften är att hitta en minsta kostnad 0-1 submodulärt flöde med ytterligare begränsning att summan av inkommande och utgående flöde vid varje nod v är mellan f (v) och g (v). Båda dessa problem är NP-hårda (även genomförbarhetsproblemen är NP-fullständiga), men vi visar att de kan approximeras i följande mening. Låt opt vara värdet av den optimala lösningen. För det första problemet ger vi en algoritm som finner en grund B av kostnad inte mer än opt sådan att f (e) − 2Δ + 1 ≤ och B för e till ≤ g(e) + 2Δ − 1 för varje hyperged e, där Δ är den maximala graden av hypergrafen. Om det bara finns övre gränser (eller bara nedre gränser), kan överträdelsen minskas till Δ − 1. För det andra problemet kan vi hitta en 0-1 submodulär flöde av kostnad på de flesta väljer där summan av inkommande och utgående flöde vid varje nod v är mellan f (v) − 1 och g(v) + 1. Dessa resultat kan tillämpas för att få approximationsalgoritmer för olika kombinatoriska optimeringsproblem med gradbegränsningar, inklusive problemet med minimalt korsande spanning träd, problemet med minsta gränsade grad spanning träd union, problemet med minimal gränsade grad directed cut cover och problemet med minimal gränsade grad graforientering. | Den minsta korsningen matroid bas problemet infördes i REF, där författarna använde iterativ avslappning för att få (1) (1, b + på - 1)-tillnärmning när det bara finns övre gränser på grad, och (2) (1, b + 2 till - 1)-tillnärmning i närvaro av både övre och lägsta grad-bundet. | 1,802,684 | Degree bounded matroids and submodular flows | {'venue': 'In IPCO', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,247 |
Abstract-De flesta av de verkliga utplacerade peer-to-peer streaming system antar pull-baserade streaming protokoll. I detta dokument visar vi att, förutom enkelhet och robusthet, med lämpliga parameterinställningar, när serverns bandbredd är över flera gånger av den råa streaminghastigheten, vilket är rimligt för praktiska live streaming system, är enkla pull-baserade P2P streaming protokoll nästan optimal när det gäller peer uppladdning kapacitet och systemgenomströmning även utan intelligent schemaläggning och bandbredd mätning. Vi indikerar också att om denna nära optimalitet kan uppnås beror på parametrarna i pull-baserade protokoll, server bandbredd och gruppstorlek. Sedan presenterar vi vår matematiska analys för att få djupare insikt i denna egenskap av pull-baserade strömmande protokoll. Å andra sidan, optimaliteten av dra-baserat protokoll kommer från en kostnadsavsättning mellan kontroll overhead och fördröjning, dvs protokollet har antingen stor kontroll overhead eller stor fördröjning. För att bryta bytet föreslår vi ett pull-push-hybridprotokoll. Den grundläggande idén är att betrakta pull-baserat protokoll som en mycket effektiv bandbreddaware multicast routing protokoll och trycka ner paket längs träden som bildas av pull-baserat protokoll. Både simulering och verkliga experiment visar att detta protokoll inte bara är ännu mer effektivt i genomströmning än pull-baserat protokoll men också har mycket lägre fördröjning och mycket mindre overhead. Och för att uppnå nästan optimal kapacitet i kamrat kapacitet utan churn, kan servern bandbredd som behövs vara ytterligare avslappnad. Dessutom är det föreslagna protokollet helt implementerat i vårt utplacerade GridMedia-system och har rekordet att stödja över 220.000 användare samtidigt på nätet. | Författarna i REF studerade enkla pull-baserade peer-to-peer streaming system. | 13,863,623 | Understanding the Power of Pull-Based Streaming Protocol: Can We Do Better? | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']} | 9,248 |
Abstract-Många fjärrsensoriska program producerar stora uppsättningar av bilder, såsom hyperspektral bilder eller tidsindexerade bildsekvenser. Vi utforskar metoder för att visa sådana bilduppsättningar genom att linjärt projicera dem på basfunktioner utformade för de röda, gröna och blå (RGB) primaries av en standard tristimulus display, för det mänskliga visuella systemet, och för signal-till-brus förhållandet mellan datauppsättningen, skapa en enda färgbild. Att projicera data på tre basfunktioner minskar informationen men gör att varje datapunkt kan återges med en enda färg. Huvudsakliga komponenter analys är kanske den vanligaste linjära projiceringsmetod, men det är data adaptiv och därmed ger inkonsekventa visualiseringar som kan vara svårt att tolka. Istället fokuserar vi på att utforma fasta funktioner baserade på optimeringskriterier i den perceptuella färgrymden CIELab och den standardiserade enheten colorspace sRGB. Detta tillvägagångssätt ger visualiseringar med rik mening som användarna lätt kan extrahera. Exempel på visualiseringar visas för passiv radarvideo och Airborne Visible/Infrared Imaging Spektrometer hyperspectral imagery. Dessutom visar vi hur probabilistisk klassificeringsinformation kan lagras ovanpå visualiseringen för att skapa en skräddarsydd icke-linjär representation av en bilduppsättning. | För att undvika databeroendet av PCA-baserade metoder, Jacobson et al. REF införde linjär projektion på fasta funktioner, som bygger på vissa optimeringskriterier för en standardenhets färgrymd (sRGB) och perceptuellt färgutrymme (CIELab). | 8,745,587 | Linear Fusion of Image Sets for Display | {'venue': 'IEEE Transactions on Geoscience and Remote Sensing', 'journal': 'IEEE Transactions on Geoscience and Remote Sensing', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,249 |
För att integrera medicinska bilder och bildbehandling spelar bildsegmenteringen en viktig roll. Bildsegmentering är en verksamhet som separerar bilden i olika segment. Det finns flera bildsegmenteringsalgoritmer som för närvarande finns tillgängliga. I detta dokument har tre segmenteringsalgoritmer implementerats och diskuterats: Active Contour utan kanter, Localized region Based active contour and Distance Regularized Level Set. För att upptäcka sköldkörtelsjukdomar används olika avbildningsmetoder: MRT, Scintigrafi, SPECT och Ultraljud. Av dessa har Ultrasound Imaging och Scintigraphy diskuterats i denna tidning. Segmenteringsalgoritmerna har implementerats på dessa två metoder för att segmentera sköldkörteln. | Sköldkörtel segmentering i 2D US och scintigrafi bilder med hjälp av aktiv kontur utan kanter (ACWE), lokaliserad region baserad aktiv kontur och avstånd regulariserad nivå som föreslogs av Kaur och Jindal REF. | 2,984,340 | Comparison of Thyroid Segmentation Algorithms in Ultrasound and Scintigraphy Images | {'venue': None, 'journal': 'International Journal of Computer Applications', 'mag_field_of_study': ['Computer Science']} | 9,250 |
I detta dokument föreslår vi ett robust och kontrollerbart system för hemliga omröstningar med flera myndigheter som uppfyller kraven för storskaliga allmänna val. Detta system använder en unikt blind tröskel signatur för att få blinda tröskel elektroniska röster så att alla väljare kan avstå från att rösta efter registreringsfasen. Den använder också tröskeln kryptosystem för att garantera rättvisa mellan kandidaternas kampanjer och för att tillhandahålla en mekanism för att se till att alla väljare kan göra en öppen invändning mot stämmern om hans röst inte har offentliggjorts. I detta system är beräkningarna bland väljarna oberoende och väljarna behöver bara skicka ett anonymt budskap till disken efter registreringsfasen. Detta system bevarar integriteten för en väljare från disken, administratörer, scrutiners och andra väljare. Fullständighet, robusthet och verifiabilitet i röstningsprocessen säkerställs och därför kan ingen producera en falsk räkning eller korrumpera eller störa valet. | Juang m.fl. I REF föreslogs ett robust och kontrollerbart system för hemliga omröstningar med flera myndigheter som uppfyller kraven för storskaliga allmänna val. | 14,877,654 | A Verifiable Multi-authority Secret Election Allowing Abstention From Voting | {'venue': 'International Computer Symposium', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,251 |
Abstract-This paper undersöker prissättning av Internet konnektivitetstjänster i samband med ett monopol ISP som säljer bredbandsaccess till konsumenter. Vi studerar först den optimala kombinationen av fasta och användningsbaserade accesspriskomponenter för maximering av ISP intäkter, med förbehåll för en kapacitetsbegränsning på datahastighet efterfrågan. Därefter överväger vi tidsvarierande konsumentverktyg för bredbandsdatahastigheter som kan resultera i en ojämn efterfrågan på datafrekvens över tid. Praktiska överväganden begränsar möjligheten att ändra priserna över tiden för att jämna ut den begärda datahastigheten. Trots sådana begränsningar i prissättningen, visar vår analys att Internetleverantören kan behålla intäkterna genom att sätta en låg användaravgift och släppa paket av konsumenter krävde uppgifter som överstiger kapaciteten. Lagstiftningen om hantering av överbelastning av Internetleverantörer avskräcker från sådan "teknisk" praxis och främjar ekonomiska strategier. Vi karakteriserar förlusten i ISP intäkter från en ekonomi baserad strategi. Lagstiftningskraven innebär ytterligare begränsningar av prisdiskrimineringen för konsumenterna, och vi får inkomstbortfallet för Internetleverantören från sådana begränsningar. Vi utvecklar sedan delvis återhämtning av intäktsförluster genom icke-linjär prissättning som inte uttryckligen diskriminerar konsumenter. Även om fastställandet av tillträdespriset i slutändan baseras på ytterligare överväganden som inte omfattas av detta dokument, kan analysen här fungera som ett riktmärke för att strukturera tillträdespriset i bredbandsnät. I detta dokument undersöks vilka effekter tillträdespriserna har på metoderna för hantering av överbelastning och intäkterna från en Internetleverantör med monopol, som driver en enda flaskhalslänk med fast kapacitet. Även om Internetdata flyter längs flera länkar på en rutt mellan källa och destination, är slutanvändaranslutningen vanligtvis den mest begränsade för kapacitet, och den största bidragsgivaren till konnektivitetspriset. Fördelningen av konsumentdata kan avgöras genom socialt optimala priser på en konkurrensutsatt marknad å ena sidan, eller de intäkter som maximerar priserna på en monopolmarknad för Internetleverantörer å andra sidan. Analysen i detta dokument undersöker det senare och utgör ett riktmärke: det mest gynnsamma resultatet för Internetleverantören och möjligen det minst gynnsamma resultatet för konsumenterna. Analysen kommer att tjäna som grund för att förstå prissättningen av delade accesslänkar i trådnät och trådlöst bredband. Analysen har särskild betydelse för prissättningen av trådlöst bredband, eftersom konsumenterna kräver högkvalitativa trådbaserade tillämpningar och innehåll över relativt lågt trådlöst bredband. Tillgångspris är vanligtvis i form av en schablonsats som är oberoende av användning, ett användningsbaserat pris, eller någon kombination av de två prissättningssystemen [1], [2]. Vi kvantifierar att en betydande del av ISP-monopolets intäkter kommer från ett fast pris om konsumenternas priskänslighet är låg och genom användningspriset om konsumenternas priskänslighet är hög. Plattprissättning anses i allmänhet vara det bästa valet för konsumenterna [3], men vår analys visar att plattprissättning kan leda till en betydande förlust av konsumenternas nettonytta, särskilt när konsumenterna har låg priskänslighet. Konsumenternas efterfrågan på data förändras över timmarna på dagen och dagarna i veckan, vilket resulterar i toppanvändning av nätverk som kan vara betydligt hög jämfört med genomsnittlig användning. Tillgång Internetleverantörer möter en obalans mellan deras intäkter från genomsnittlig användning och kostnader till följd av toppanvändning av nätverk. Överväganden om fakturering och enkel prissättning avskräcker från frekventa prisförändringar över tid [3]. Denna begränsning av ISP:s förmåga att hantera högsta aggregerade efterfrågan genom prisvariationer kan leda till potentiella intäktsförluster. Vår analys visar att Internetleverantören, trots bristen på flexibilitet när det gäller att ändra konsumenternas tidsberoende konsumtion genom prisvariationer, kan behålla intäkterna genom hantering av överbelastningar genom att släppa konsumentpaket som kräver uppgifter som överstiger den tillgängliga kapaciteten. Vi kvantifierar intuitionen att intäktshållandet kan uppnås genom en kombination av låg användaravgift som säkerställer tillräcklig konsumentefterfrågan hela tiden, och en hög fast avgift som fångar den återstående konsumentens nettonytta från de serverade datapriserna. Internetleverantörer står dock inför regleringsmässiga hinder [4], [5], inklusive "nätneutralitet" [6], som inte uppmuntrar till hantering av överbelastning genom att selektivt släppa konsumentpaket som kräver uppgifter. I det nya FCC-meddelandet [4] föreslås ett utkast till språk för att kodifiera en princip som skulle kräva en Internetleverantör för bredband för att behandla lagligt innehåll, tillämpningar och tjänster på ett icke-diskriminerande sätt. I ett relaterat beslut erkänner CRTC [5] att "ekonomisk praxis är de mest öppna metoderna för trafikstyrning på Internet". Kommittén noterar vidare att sådana ekonomiska metoder för hantering av överbelastning "matcha konsumenternas användning med villighet att betala, vilket ger användarna kontroll och gör det möjligt för marknadskrafterna att arbeta". Detta tyder på ett alternativt tillvägagångssätt för ISP: fastställa tillräckligt höga tillträdespriser som säkerställer att den totala toppefterfrågan inte överstiger den tillgängliga kapaciteten. I detta fall leder avsaknaden av flexibilitet när det gäller att ändra konsumtionen av konsumentdata genom prisvariationer till en intäktsförlust. Vi visar att intäktsförlusten beror på ISP:s oförmåga att anpassa användningspriset för att maximera kapacitetsanvändningen och kvantifiera beroendet av intäktsförlusten på konsumenternas priskänslighet genom att visa att förlusten är högre om konsumenterna är mycket priskänsliga. Vi studerar prissättningen av en mindre än bästa ansträngning 978-1-4244-5837-0/10/$26.00 | Hande m.fl. REF kännetecknade den ekonomiska förlusten på grund av Internetleverantörernas oförmåga eller ovilja att prissätta bredbandstillgången baserat på tidpunkten för användningen. | 9,090,703 | Pricing under Constraints in Access Networks: Revenue Maximization and Congestion Management | {'venue': '2010 Proceedings IEEE INFOCOM', 'journal': '2010 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']} | 9,252 |
Det huvudsakliga tillvägagångssättet för ett Wi-Fi inomhus positioneringssystem är baserat på de mottagna signalstyrka (RSS) mätningar, och fingeravtrycksmetoden används för att bestämma användarens position genom att matcha RSS-värden med den förhandsgranskade RSS-databasen. Att bygga en RSS fingeravtrycksdatabas är viktigt för ett RSS-baserat inomhuspositioneringssystem, och att bygga en sådan RSS fingeravtrycksdatabas kräver mycket tid och ansträngning. I takt med att inomhusmiljön blir större ökar arbetskraften. För att ge bättre inomhuspositioneringstjänster och minska det arbete som krävs för att etablera positioneringssystemet samtidigt behövs ett inomhuspositioneringssystem med en lämplig rumslig interpoleringsmetod. Dessutom är fördelen med RSS-metoden att signalstyrkan sönderfaller när överföringsavståndet ökar, och denna signalförökningsegenskaper tillämpas på en interpolerad databas med Kriging-algoritmen i detta dokument. Med hjälp av fördelningen av referenspunkter (RP) vid uppmätta punkter kan signalförökningsmodellen för Wi-Fi-anslutningspunkten (AP) i byggnaden byggas och uttryckas som en funktion. Funktionen, som den rumsliga strukturen i miljön, kan snabbt skapa RSS-databasen i olika inomhusmiljöer. Således, i detta papper, ett Wi-Fi inomhus positioneringssystem baserat på Kriging fingeravtryck metod utvecklas. Som visas i experimentresultaten, med en 72,2% sannolikhet, felet i den utvidgade RSS-databasen med Kriging är mindre än 3 dBm jämfört med den undersökta RSS-databasen. Viktigt är att positioneringsfelet för det utvecklade Wi-Fi inomhuspositioneringssystemet med Krigging minskas med 17,9 % i genomsnitt än utan Krigging. ÖPPET ANSLUTNINGSensorer 2015, 15 21378 | I REF, enligt fördelningen av referenspunkter (RP) med avseende på varje Wi-Fi Access Point (AP), är signalutbredning modellen konstruerad som en funktion av rumslig struktur, som kan användas för att konstruera fingeravtrycksdatabasen snabbt. | 14,311,803 | Received Signal Strength Database Interpolation by Kriging for a Wi-Fi Indoor Positioning System | {'venue': 'Sensors', 'journal': 'Sensors', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 9,253 |
ABSTRACT Med den snabba utvecklingen av intelligenta transporter, olika applikationer som har millisekund fördröjningskrav visas i fordons heterogena nätet. Att lasta av dessa delay-sensitive applikationer i kantknutpunkter är en trend och utvecklingsriktning. Med ökningen av antalet fordonstillämpningar gör de konventionella metoderna för fördelning av belastningen på kantknutor att arbetsbelastningen blir obalanserad, vilket leder till att vissa kantknutpunkter överbelastas, vilket leder till att svarstiden för motsvarande tillämpning blir för lång för att uppfylla låga fördröjningskrav. I detta dokument, vi tar itu med problemet med kantknutlast och föreslår en multipat överföring arbetsbelastning balansering optimering system, som använder multipat överföring i kanten dator arkitektur som transportprotokoll stöd för kommunikation mellan fordonen och kant noderna och realtid virtuell maskin (VM) migration sker mellan kant noderna. För det första tilldelas ansökan den kantknutpunkt som ligger närmast varje fordon. När belastningen på kanten noden överstiger sin kapacitet, systemet iterativt väljer ansökan med den längsta svarstiden. Andra. Om dess svarstid överstiger den svarstid som förs över till molndatacentret, tilldelas det molndatacentret för bearbetning; om inte, är det omplacerat till standbykanten för att minimera sin svarstid tills alla fordonsapplikationer inte kan hitta en bättre kantnod. Därefter allokeras datorresurser till varje kantknutpunkt, och resurser av olika storlekar allokeras till olika typer av virtuella maskiner i varje kantknutpunkt genom konvex optimering. Slutligen visar de omfattande simuleringsresultaten att multipaternas system för balansering av överföringsbelastningen effektivt kan minska den genomsnittliga svarstiden för fordonstillämpningar jämfört med befintliga system. INDEX TERMS Vehicular heterogent nätverk, mobila edge computing, multipat överföring, arbetsbörda allokering. | Litteratur REF föreslog ett MEC-baserat multipat överföringsbelastningsutjämningssystem. | 201,814,598 | Multipath Transmission Workload Balancing Optimization Scheme Based on Mobile Edge Computing in Vehicular Heterogeneous Network | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 9,254 |
Marknaderna för frilansande online har vuxit snabbt under de senaste åren. I teorin erbjuder dessa webbplatser arbetstagarna förmågan att tjäna pengar utan de skyldigheter och potentiella sociala fördomar som är förknippade med traditionella sysselsättningsramar. I den här artikeln studerar vi om två framstående online frilansmarknader-TaskRabbit och Fiverre påverkas av ras- och könsfördomar. Från dessa två plattformar samlar vi in 13 500 arbetsprofiler och samlar information om arbetstagares kön, ras, kundrecensioner, betyg och positioner i sökrankningar. På båda marknadsplatserna finner vi tecken på partiskhet: vi finner att det upplevda könet och rasen i hög grad korreleras med arbetstagarnas utvärderingar, vilket skulle kunna skada de sysselsättningsmöjligheter som erbjuds arbetstagarna. Vi hoppas att vår studie underblåser mer forskning om förekomsten och konsekvenserna av diskriminering i onlinemiljöer. | Om producenternas rättvisa, Hannák m.fl. REF studerade ras- och könsfördomar på frilansmarknader. | 4,868,043 | Bias in Online Freelance Marketplaces: Evidence from TaskRabbit and Fiverr | {'venue': "CSCW '17", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,255 |
Den snabba spridningen av smartphones under de senaste åren har kommit hand i hand med och imponerande tillväxt i antalet och sofistikering av skadliga appar som riktar smartphone-användare. Tillgången till återanvändningsorienterade utvecklingsmetoder och automatiserade produktionsverktyg för malware gör det mycket enkelt att producera nya exemplar. Som ett resultat, marknadsoperatörer och malware analytiker blir alltmer överväldigad av mängden nyupptäckta prover som måste analyseras. Denna situation har stimulerat forskning i intelligenta instrument för att automatisera delar av malware analysprocessen. I detta papper introducerar vi Dendroid, ett system som bygger på textbrytning och informationssökning tekniker för denna uppgift. Vår strategi är motiverad av en statistisk analys av kodstrukturerna som finns i en datauppsättning av Android OS malware familjer, som avslöjar vissa parallellismer med klassiska problem i dessa domäner. Vi anpassar sedan standard Vector Space Model och omformulerar den modelleringsprocess som följs i tillämpningar för textbrytning. Detta gör att vi kan mäta likhet mellan malware prover, som sedan används för att automatiskt klassificera dem i familjer. Vi undersöker också tillämpningen av hierarkisk klusterering över funktionen vektorer som erhållits för varje malware familj. De resulterande dendogrammen liknar de så kallade fylogenetiska träden för biologiska arter, vilket gör det möjligt för oss att gissa om evolutionära relationer mellan familjer. Våra experimentella resultat tyder på att tillvägagångssättet är anmärkningsvärt exakt och hanterar effektivt med stora databaser av malware instanser. | Dendroid REF föreslog ett tillvägagångssätt baserat på textbrytning för att automatiskt klassificera malware prover och analysera familjer baserat på de styrflöde strukturer som finns i dem. | 14,617,835 | Dendroid: A text mining approach to analyzing and classifying code structures in Android malware families | {'venue': 'Expert Syst. Appl.', 'journal': 'Expert Syst. Appl.', 'mag_field_of_study': ['Computer Science']} | 9,256 |
Att utnyttja tidsberoendet bland videoramar eller subshots är mycket viktigt för uppgiften videosammanfattning. Praktiskt taget är RNN bra på modellering av tidsberoende och har uppnått överväldigande prestanda i många videobaserade uppgifter, t.ex. videotextning och klassificering. RNN kan dock inte hantera videosammanfattningsuppgiften, eftersom traditionella RNN, inklusive LSTM, endast kan hantera korta videor, medan videorna i summeringsuppgiften vanligtvis är i längre varaktighet. För att ta itu med detta problem föreslår vi ett hierarkiskt återkommande neuralt nätverk för videosammanfattning, kallat H-RNN i detta dokument. Specifikt har den två lager, där det första lagret används för att koda korta video subshots klipp från den ursprungliga videon, och det slutliga dolda tillståndet för varje subshot är inmatning till det andra lagret för att beräkna dess förtroende att vara en viktig subshot. Jämfört med traditionella RNN, H-RNN är mer lämplig för video summering, eftersom det kan utnyttja lång tidsberoende bland ramar, under tiden, beräkningsoperationerna minskas avsevärt. Resultaten från två populära datauppsättningar, inklusive den kombinerade datauppsättningen och VTW-datauppsättningen, har visat att den föreslagna H-RNN överträffar toppmoderna data. djupinlärning, videosammanfattning, hierarkiskt återkommande neuralt nätverk | REF föreslår en 2-lagers LSTM-arkitektur där det första lagret extraherar och kodar data om videostrukturen och det andra lagret använder dessa data för att definiera videons nyckelfragment. | 6,157,770 | Hierarchical Recurrent Neural Network for Video Summarization | {'venue': "MM '17", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,257 |
Att söka efter ett mål är ett centralt och omfattande problem inom datavetenskapen. I klassiska sökproblem, kostnaden för en sökfunktion är helt enkelt antalet frågor som görs till ett orakel som vet position målet. I många robotproblem, liksom i problem från andra områden, vill vi ta ut en kostnad som står i proportion till avståndet mellan frågor (t.ex. den tid som krävs för att resa mellan två frågepunkter). Med denna kostnadsfunktion i åtanke, det abstrakta problemet som kallas w-lane ko-pat problem utformades. Det finns kända optimala deterministiska algoritmer för kopatproblemet, och vi ger de första randomiserade algoritmerna i detta papper. Vi visar att vår algoritm är optimal för två vägar (w = 2), och ger bevis för att den verkligen är optimal för större värden på w. De randomiserade algoritmerna ger förväntad prestanda som är nästan dubbelt så bra som möjligt med en deterministisk algoritm. | REF studier randomiserade strategier för stjärnsökning (som också kallas "ko-pat problem", motiverat av en ko söker efter närmaste betesmark.) | 8,466,770 | Searching in an unknown environment: an optimal randomized algorithm for the cow-path problem | {'venue': "SODA '93", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,258 |
Abstract-In byggnadsautomation är komfort en viktig aspekt, och realtidsmätning av komfort är notoriskt komplicerat. I den här artikeln har vi utvecklat ett trådlöst, smart komfortanalyssystem. De viktiga parametrarna för att utforma den rådande mätningen av komfortsystem, såsom portabilitet, strömförbrukning, tillförlitlighet och systemkostnader, övervägdes. För att uppnå målen utvecklades kommunikationsmodulen, sensornoden och diskbänksnoden utifrån IEEE1451-standarden. Elektrokemiska sensorer och halvledarsensorer övervägdes för utvecklingen av sensormatrisen, och resultaten av båda teknikerna jämfördes. Sensorn och diskbänk noderna implementerades med hjälp av ATMega88 microcontroller. Microsoft Visual Studio 2013 förhandsvisning användes för att skapa den grafiska användargränssnitt i C#. Givarna kalibrerades efter signalbehandlingskretsen för att säkerställa att sensorns standardnoggrannhet uppnåddes. I detta dokument presenteras detaljerade designlösningar på problem som fanns i litteraturen. Index Terms-IEEE1451 standard, sensor nod, termisk komfort, grafiskt användargränssnitt, smart sensor, grön byggnad. | Författarna i REF, utvecklade det trådlösa smarta komfortanalyssystemet baserat på IEEE 1451 standard för övervakning av byggnadens värme- och inomhusluftkvalitet. | 43,755,699 | An Energy-Efficient Smart Comfort Sensing System Based on the IEEE 1451 Standard for Green Buildings | {'venue': 'IEEE Sensors Journal', 'journal': 'IEEE Sensors Journal', 'mag_field_of_study': ['Engineering']} | 9,259 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.