src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Detta dokument tar upp problemet med hantering av rumsliga avvikelser på grund av förändringar i kameravyn eller variationer i mänskliga funktioner i personomidentifiering. Vi introducerar först ett booster-baserat tillvägagångssätt för att lära sig en korrespondens struktur som indikerar patch-wise matchande sannolikheter mellan bilder från ett mål kamerapar. Den lärda korrespondensstrukturen kan inte bara fånga det rumsliga korrespondensmönstret mellan kamerorna, utan också hantera synvinkeln eller mänsklig-pose variation i enskilda bilder. Vi introducerar ytterligare en global matchningsprocess. Det integrerar en global matchningsbegränsning över den lärda korrespondensstrukturen för att utesluta korsvisa avvikelser under bildlappsmatchningsprocessen och därmed uppnå en mer tillförlitlig matchningspoäng mellan bilder. Experimentella resultat på olika datauppsättningar visar hur effektivt vårt tillvägagångssätt är. | Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF införde ett booster-baserat tillvägagångssätt för att lära sig en korrespondensstruktur som indikerar de lappvis matchande sannolikheterna mellan bilder från ett målkamerapar. | 2,637,687 | Person Re-Identification with Correspondence Structure Learning | {'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 12,633 |
Vi introducerar factored language models (FLMs) och generalized parallell backoff (GPB). En FLM representerar ord som buntar av funktioner (t.ex. morfologiska klasser, stammar, datadrivna kluster, etc.).), och framkallar en sannolikhetsmodell som täcker sekvenser av buntar snarare än bara ord. GPB utvidgar standardbackoff till allmänna villkorade sannolikhetstabeller där variabler kan vara heterogena typer, där det inte finns någon uppenbar naturlig (temporal) backoff-ordning och där flera dynamiska backoff-strategier är tillåtna. Dessa metoder genomfördes under workshopen i JHU 2002 som tillägg till verktygslådan för språkmodellering i SRI. Detta papper ger inledande perplexitet resultat på både CallHome Arabiska och på Penn Treebank Wall Street Journal artiklar. Signifikant kan FLM med GPB producera bigrams med signifikant lägre perplexitet, ibland lägre än högt optimerade trigram vid baseline. I ett multi-pass taligenkänning sammanhang, där bigrams används för att skapa första-pass bigram lattices eller N-bästa listor, dessa resultat är mycket relevanta. | Generativa faktoriserade språkmodeller föreslås av REF. | 8,457,271 | Factored Language Models And Generalized Parallel Backoff | {'venue': 'Human Language Technology Conference And Meeting Of The North American Association For Computational Linguistics - Short Papers', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,634 |
Abstract-I IEEE 802.15.4 protokollet medium access control (MAC) för trådlösa sensornätverk, en sensor nod måste associera med en koordinator innan den börjar skicka eller ta emot data. Sensornoden väljer oftast den närmaste koordinatorn att umgås med. Denna metod är dock inte lämplig för en ständigt rörlig sensor nod eftersom det kommer att sluta byta koordinatorer alltför ofta på grund av kort anslutningstid. IEEE 802.15.4 har en förenklad och otillräcklig metod för att välja en samordnare i detta sammanhang. I detta dokument introducerar vi en metod för att öka den mobila sensorn knutanslutningstiden med dess samordnare i IEEE 802.15.4 beacon-aktiverat läge. Vår metod är baserad på tidsstämpeln för de fyrar som tas emot från de närliggande samordnarna och filtrerar svaga fyrsignaler. Genom att välja den koordinator som har skickat den senast mottagna fyren med god signalkvalitet ökar vi den rörliga nodkonnektivitetstiden med koordinatorn. Vår teknik resulterar i betydande förbättring genom att minska antalet gånger den rörliga noden växlar samordnare. Detta ökar genomströmningen och minskar slöseriet med makt i frekventa associationer. | I REF presenteras ett system för att öka samordnarens konnektivitetstid med mobila noder för IEEE 802.15.4 beaconabled-nätverk. | 18,335,859 | Improving Mobile Sensor Connectivity Time in the IEEE 802.15.4 Networks | {'venue': '2008 Australasian Telecommunication Networks and Applications Conference', 'journal': '2008 Australasian Telecommunication Networks and Applications Conference', 'mag_field_of_study': ['Computer Science']} | 12,635 |
Abstract -IEEE 802.22 Kognitiva radionät (CRN) använder en tvåstegs tyst period mekanism baserad på en obligatorisk snabb Sensing och en valfri Fine Sensing scen för Dynamic Spectrum Access (DSA) under varje super ram. Tillvägagångssättet med tvåstegsspektrumanalys innebär dock en möjlighet för skadliga användare där de kan starta en smart Deial of Service (DoS) attack genom att sända en mycket kort störningssignal under den snabba avkänningsfasen och på så sätt tvinga CRN att utföra finavkänning, vilket slösar spektrummöjligheter för ärliga Sekundära Användare (SU). I detta dokument presenterar vi "DS3": En dynamisk och smart spektrumanalysalgoritm, som minimerar effekterna av störning och buller på DSA:s snabba avkänningsfas. Det förbättrar systemets effektivitet genom att hitta en balans mellan spektrumutnyttjande av SU:er och fördröjning i upptäckten av primära användares (PU) närvaro på spektrumet, med hjälp av en dynamisk finavkännande beslutsalgoritm med minimala omkostnader. | I REF, Amjad, M.F., etc. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. påpekar att tvåstegsspektrumanalys innebär en möjlighet för skadliga användare där de kan starta en smart Förnekelse av tjänsten (DoS) attack genom att sända en mycket kort störningssignal under den snabba avkänningsfasen. | 14,882,793 | DS3: A Dynamic and Smart Spectrum Sensing Technique for Cognitive Radio Networks under denial of service attack | {'venue': '2013 IEEE Global Communications Conference (GLOBECOM)', 'journal': '2013 IEEE Global Communications Conference (GLOBECOM)', 'mag_field_of_study': ['Computer Science']} | 12,636 |
Sammanfattning av denna webbsida: Verktyg för felsökning och profilering kan ändra körningsflödet eller timingen, kan inducera heisenbugs och är därmed marginellt användbara för felsökning av tidskritiska system. Programvara spårning, hur långt det än kan vara, beror på att konsumera värdefulla datorresurser. I denna studie, författarna analyserar state-of-the-art hårdvara-tracing stöd, som tillhandahålls i moderna Intel processorer och föreslå en ny teknik som använder processorn hårdvara för spårning utan kodinstrumentering eller spårpunkter. De visar nyttan av sitt tillvägagångssätt med bidrag inom tre områden -syscall latency profilering, instruktion profilering och programvara-tracer påverkan upptäckt. De visar på förbättringar i prestanda och detaljrikedomen hos data som samlats in med hårdvarustöd, jämfört med traditionell programvara endast spårning och profilering. Prestandaeffekten på målsystemet, mätt som tid överliggande, är i genomsnitt 2-3 %, och det värsta fallet är 22 %. De definierar också ett sätt att mäta och kvantifiera tidsupplösningen från hårdvaruspårare för spårhändelser, och observera effekten av finjustering av hårdvaruspårning för optimalt utnyttjande. Jämfört med andra spårämnen i kernel, observerade de att hårdvarubaserad spårning har en mycket minskad overhead, samtidigt uppnå större precision. De andra spårningsmetoderna är dessutom ineffektiva i vissa spårningsscenarier. Moderna system blir alltmer komplexa att felsöka och diagnostisera. En av de viktigaste faktorerna är den ökande komplexiteten och de begränsningar i realtid som begränsar användningen av traditionella felsökningsmetoder i sådana scenarier. Kortare uppgiftsfrister innebär att den trogna reproduktionen av kodutförande kan vara mycket utmanande. Man har beräknat att utvecklare spenderar cirka 50–75 % av sin tid på att felsöka applikationer till en betydande penningkostnad [1]. I många scenarier blir heisenbuggar [2] nästan omöjliga att upptäcka. Långgående system kan ha buggar som visar faktiska konsekvenser mycket senare än förväntat, antingen på grund av att uppgifter planeras ut eller hårdvara avbryter orsakar förseningar. Viktiga parametrar som behöver analyseras när man gör en grundorsaksanalys för ett problem inkluderar identifiering av kostsamma instruktioner under utförandet, upptäckt av fel i inbäddade kommunikationsprotokoll och analys av instruktionsprofiler som ger en korrekt representation av vilka instruktioner som förbrukar den mest centrala bearbetningsenheten (CPU) tiden. Sådana latenta frågor kan endast registreras troget med hjälp av spårningsmetoder. Tillsammans med korrekt profilering ger spårning en välbehövlig respit till utvecklare för prestandaanalys i sådana scenarier. Vi fokuserar i detta dokument på två viktiga gemensamma frågor i nuvarande system: effektiv upptäckt/spårning av maskinvarulatens och korrekt profilering av syscalls och instruktioner, med en förmåga att upptäcka programkontrollflödet mer exakt än med nuvarande programstrategier. Vi diskuterar vår nya analysmetod, som använder villkorlig hårdvaruspårning i samband med traditionell programvaruspårning för att korrekt profilera latensorsaker. Spåret kan avkodas offline för att hämta rätt kontrollflöde, data även vid instruktion granularitet, utan någon extern påverkan på styrflödet. Eftersom programvaruspårning kan leda till förändringar i kontrollflödet, med vårt system kan vi ytterligare upptäcka orsaken till latens som induceras av programspårarna själva, på programvaran under observation, till nanosecond range noggrannhet. Ren programvara profilering och spårning verktyg förbrukar redan begränsade och välbehövliga resurser på produktionssystem. Under årens lopp har hårdvaruspårning framträtt som en kraftfull teknik för spårning, eftersom det ger en detaljerad och exakt bild av systemet med nästan noll overhead. I IEEE Nexus 5001 standard [3] definieras fyra klasser av spårnings- och felsökningsmetoder för inbyggda system. Klass 1 handlar om grundläggande felsökningsåtgärder | En detaljerad studie av hårdvarustödd spårning och profilering med Intel PT har nyligen presenterats i REF. | 52,199,997 | Hardware-assisted instruction profiling and latency detection | {'venue': None, 'journal': 'The Journal of Engineering', 'mag_field_of_study': ['Computer Science']} | 12,637 |
I detta dokument presenterar vi en ny 2D-3D gångspårare avsedd för tillämpningar i autonoma fordon. Systemet fungerar enligt en spårningsprincip och kan spåra flera fotgängare i komplexa stadstrafiksituationer. Genom att använda en beteenderörelsemodell och en icke-parametrisk fördelning som tillståndsmodell, kan vi exakt spåra oförutsägbara fotgängare rörelse i närvaro av tung ocklusion. Spårning utförs självständigt, på bilden och markplanet, i globala, rörelse kompenserade koordinater. Vi använder Camera och LiDAR datafusion för att lösa föreningsproblemet där den optimala lösningen hittas genom att matcha 2D och 3D upptäckter till spår med hjälp av en gemensam log-likelihood observation modell. Varje partikelfilter i 2D-3D uppdaterar sedan deras tillstånd från tillhörande observationer och en beteenderörelsemodell. Varje partikel rör sig självständigt efter de rörelseparametrar för fotgängare som vi lärde oss offline från en kommenterad träningsdatauppsättning. Temporal stabilitet i tillståndsvariablerna uppnås genom att modellera varje spår som en Markov beslutsprocess med probabilistiska tillstånd övergångsegenskaper. Ett nytt spårhanteringssystem hanterar sedan åtgärder på hög nivå såsom skapande av spår, radering och interaktion. Med hjälp av en probabilistisk spår poäng spårhanteraren kan gallra falska och tvetydiga upptäckter samtidigt uppdatera spår med upptäckter från faktiska fotgängare. Vårt system är implementerat på en GPU och utnyttjar den massiva parallelliserbara karaktären av partikelfilter. På grund av den Markovianska karaktären hos vår spår representation, uppnår systemet realtid prestanda fungerar med ett minimalt minnesavtryck. Uttömmande och oberoende utvärdering av vår tracker utfördes av KITI-riktmärkesservern, där den testades mot en mängd olika okända fall av fotgängarspårning. På detta realistiska riktmärke överträffar vi alla publicerade fotgängarspårare i en mängd olika spårningsmått. | Dimitrievski m.fl. I REF föreslås en spårare för fotgängare som säkrar kamera- och LiDAR-detekteringer för att lösa databindningssteget i deras spårnings-för-detekteringsmetod. | 58,947,952 | Behavioral Pedestrian Tracking Using a Camera and LiDAR Sensors on a Moving Vehicle | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 12,638 |
Jämfört med ansiktsrörelseigenkänning på kategorisk modell kan den dimensionella känsloigenkänningen beskriva många känslor i den verkliga världen mer exakt. De flesta tidigare verk med uppskattning av dimensionella känslor beaktade endast laboratoriedata och använda video-, tal- eller andra multimodala funktioner. Effekten av dessa metoder som tillämpas på statiska bilder i den verkliga världen är okänd. I detta dokument föreslås två nivåers uppmärksamhet med tvåstegs flerstegslärande (2Att-2Mt) ram för bedömning av ansiktskänslor på endast statiska bilder. För det första utvinns och förstärks särdragen i motsvarande region(positionsnivåns egenskaper) automatiskt med hjälp av en mekanism för uppmärksamhet på första nivån. I följande, Vi använder Bi-directive Recurrent Neural Network(Bi-RNN) med självuppmärksamhet (andra nivån uppmärksamhet) för att fullt ut utnyttja relationsfunktionerna i olika lager (lager-nivå funktioner) adaptivt. På grund av den inneboende komplexiteten i erkännandet av dimensionella känslor föreslår vi en flerstegsstruktur för lärande i två steg för att utnyttja kategoriska representationer för att förbättra dimensionsrepresentationerna och uppskatta valence och upphetsning samtidigt med tanke på korrelationen mellan de två målen. De kvantitativa resultat som genomförts på AffectNet dataset visar betydande framsteg på Concordance Correlation Coefficient(CCC) och Root Mean Square Error (RMSE), som illustrerar överlägsenheten av den föreslagna ramen. Dessutom har omfattande jämförande experiment också visat på effektiviteten hos olika komponenter. | I ett liknande arbete inom REF konstruerades en tvåstegsuppmärksamhet med tvåstegs ramverk för lärande med flera uppgifter för känsloigenkänning och valence-relevant uppskattning. | 54,014,781 | Two-level Attention with Two-stage Multi-task Learning for Facial Emotion Recognition | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 12,639 |
Effektstyrning i en digital manöverenhet genomförs praktiskt taget på ett diskret sätt, och vanligtvis är ett sådant diskret effektstyrningssystem (DPC) suboptimalt. I detta dokument visar vi först att i ett Poison-distribuerat ad hoc-nätverk, om DPC är korrekt utformad med ett visst tillstånd uppfyllt, kan det strikt fungera bättre än ingen effekt kontroll (dvs. användare använder samma konstant effekt) i termer av genomsnittlig signal-till-interferens förhållande, avbrott sannolikhet, och rumslig återanvändning. Detta motiverar oss att föreslå ett DPC-system i N-lager i ett trådlöst klustererat ad hoc-nätverk, där sändare och deras avsedda mottagare i cirkulära kluster kännetecknas av en Poisson-klusterprocess på planet R 2. Klustret av varje transmitter tesselleras till N - lagerbult med sändningseffekt P i antagen om den avsedda mottagaren är placerad vid ith- lagret. Två prestandamått för överföringskapacitet (TC) och avbrottsfri rumslig återanvändningsfaktor omdefinieras baserat på DPC i N-skiktet. Sannolikheten för avbrott i varje lager i ett kluster karakteriseras och används för att härleda den optimala kraftskalningslagen P i på (η −(α/2) i ), med η i som sannolikheten för att välja effekt P i och α som banförlustexponenten. Dessutom diskuteras de specifika designmetoderna för att optimera P i och N baserat på η i. Simuleringsresultat tyder på att den föreslagna optimala DPC i N-skiktet avsevärt överträffar andra befintliga effektkontrollsystem när det gäller TC och rumslig återanvändning. | I REF utvecklades ett diskret TPC-system för Poisson-klusterade ad hoc-nätverk där varje sändare kan använda förutbestämda diskreta överföringseffektnivåer. | 7,563,226 | Optimal Discrete Power Control in Poisson-Clustered Ad Hoc Networks | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 12,640 |
Med växande systemkomplexitet blir kommunikationsdesign på systemnivå allt viktigare och avancerade nätverksorienterade kommunikationsarkitekturer blir nödvändiga. I detta dokument utökar vi tidigare arbete med automatisk kommunikationsförfining för att stödja icke-traditionella nätverksorienterade arkitekturer utöver en enda buss. Genom en abstrakt beskrivning av de önskade kommunikationskanalerna genererar förfiningsverktygen automatiskt exekverbara modeller och implementationer av systemkommunikationen på olika abstraktionsnivåer. Experimentella resultat visar att betydande produktivitetsvinster kan uppnås, vilket visar hur effektiv strategin är för snabb och tidig rymdforskning av kommunikationsdesign. | Till exempel innehåller REF en metod för att automatiskt generera modeller och implementationer av nätverksorienterade SoC-modeller. | 8,383,333 | Automatic network generation for system-on-chip communication design | {'venue': "CODES+ISSS '05", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,641 |
Texturanalys är en bildbehandlingsuppgift som kan utföras med hjälp av det matematiska ramverket för multifractal analys för att studera regelbundenhetsfluktuationerna i bildintensiteten och de praktiska verktygen för deras bedömning, såsom (våglet) ledare. En nyligen införd statistisk modell för ledare möjliggör Bayesian uppskattning av multifractal parametrar. Det förbättrar prestandan betydligt över standard (linjär regressionsbaserad) uppskattning. Den beräkningskostnad som orsakas av den tillhörande icke-standardmässiga bakre fördelningen begränsar dock dess tillämpning. I detta arbete föreslås en alternativ Bayesiansk modell för multifractal analys som leder till effektivare algoritmer. Den bygger på tre ursprungliga bidrag: En ny generativ modell för Fourier koefficienter av log-ledare; en lämplig reparametrisering för att hantera sina inneboende begränsningar; en data-augmented Bayesian modell som ger standard villkorliga bakre fördelningar som kan provtas exakt. Numeriska simuleringar med hjälp av syntetiska multifractalbilder visar den föreslagna algoritmens utmärkta prestanda, både när det gäller uppskattningskvalitet och beräkningskostnad. | En betydligt effektivare algoritm erhölls nyligen i REF genom att överväga en dataförstärkt formulering av Bayesian modellen. | 17,196,479 | A Bayesian framework for the multifractal analysis of images using data augmentation and a whittle approximation | {'venue': '2016 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'journal': '2016 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'mag_field_of_study': ['Computer Science']} | 12,642 |
Uppslagning av Internetadresser är ett utmanande problem på grund av ökande bordsstorlekar för routing, ökad trafik, länkar med högre hastighet och övergången till 128 bitars IPv6-adresser. IP routing lookup kräver dator det bästa matchande prefixet, för vilket standardlösningar som hashing ansågs vara otillämpliga. Den bästa befintliga lösning vi känner till, BSD radix försöker, skalar dåligt som IP flyttar till 128 bit adresser, Vårt papper beskriver en ny algoritm för bästa matchning prefx med binär sökning på hash tabeller organiserade av prefix längder. Vårt schema skalar mycket bra samt adress och routing tabellstorlekar öka: oberoende av tabellens storlek, det kräver en värsta fall tid av log~ (adress bits) hash lookups. Således behövs bara 5 hash-lookups för IPv4 och 7 för IPv6. Vi introducerar också Mutating Binary Search och andra optimeringar som, för en typisk IPv4 ryggrad router med över 33.000 poster, avsevärt minska det genomsnittliga antalet hascher till mindre än 2, av vilka en hash kan förenklas till en indexerad array access. Vi förväntar oss liknande genomsnittliga fall beteende för IPv6. | Waldvogel m.fl. REF har föreslagit ett system som utför en binär sökning på hash tabeller organiserade av prefix längd. | 1,557,209 | Scalable high speed IP routing lookups | {'venue': "SIGCOMM '97", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,643 |
Många vetenskapliga fält studerar data med en underliggande struktur som är ett icke-Euklidiskt utrymme. Några exempel är sociala nätverk inom beräkningssamhällsvetenskap, sensornätverk inom kommunikation, funktionella nätverk inom hjärnavbildning, regulatoriska nätverk inom genetik och nedsmutsade ytor inom datorgrafik. I många tillämpningar är sådana geometriska data stora och komplexa (i fråga om sociala nätverk, i storleksordningen miljarder) och är naturliga mål för maskininlärningsteknik. I synnerhet skulle vi vilja använda djupa neurala nätverk, som nyligen har visat sig vara kraftfulla verktyg för ett brett spektrum av problem från datorseende, bearbetning av naturligt språk och ljudanalys. Dessa verktyg har dock varit mest framgångsrika på data med en underliggande Euclidean eller rutnät-liknande struktur, och i de fall där invarianterna av dessa strukturer är inbyggda i nätverk som används för att modellera dem. Geometriskt djupinlärning är en paraplyterm för framväxande tekniker som försöker generalisera (strukturerade) djupa neurala modeller till icke-Euklidiska domäner såsom grafer och grenrör. Syftet med denna uppsats är att överblicka olika exempel på geometriska djupinlärningsproblem och presentera tillgängliga lösningar, viktiga svårigheter, tillämpningar och framtida forskningsinriktningar inom detta nya område. | Diagram neurala nätverk är generaliseringar av konvolutionella nätverk till icke-Euklidiska utrymmen REF. | 15,195,762 | Geometric deep learning: going beyond Euclidean data | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 12,644 |
Abstract-I detta papper undersöker vi effekten av rumslig koppling tillämpas på den nyligen föreslagna kodade slotted ALOHA (CSA) slumpmässig åtkomst protokoll. Tack vare bron mellan den grafiska modellen som beskriver den iterativa interferensen av CSA över den slumpmässiga åtkomstramen och radering återvinningsprocessen för lågdensitet paritetskontroll (LDPC) koder över binära radering kanal (BEC), föreslår vi ett tillträde protokoll som inspireras av den konvolutionella LDPC-kodkonstruktion. Det föreslagna protokollet utnyttjar uppsägningarna av sin grafiska modell för att uppnå den rumsliga kopplingseffekten och uppnår prestanda nära CSA:s teoretiska gränser. När det gäller det konvolutionella LDPC-kodfallet erhålls stora iterativa avkodningströsklar genom att helt enkelt öka grafens densitet. Vi visar att tröskelmättnadseffekten sker genom att definiera en lämplig motsvarighet till den maximala avkodningströskeln för rumsligt kopplade LDPC-kodensembler. I den asymptotiska situationen gör det föreslagna systemet det möjligt att upprätthålla en trafik nära 1 [packets/slots]. | Å andra sidan har rumslig koppling tillämpats på slumpmässiga åtkomstprotokoll såsom kodade slotted ALOHA (CSA), för att uppnå en prestanda nära den teoretiska gränsen REF. | 3,080,518 | Spatially-Coupled Random Access on Graphs | {'venue': '2012 IEEE International Symposium on Information Theory Proceedings', 'journal': '2012 IEEE International Symposium on Information Theory Proceedings', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 12,645 |
De senaste åren har man sett hur djupa neurala nätverk har lyckats hantera många praktiska problem. Dropout har spelat en viktig roll i många framgångsrika djupa neurala nätverk, genom att inducera legalisering i modellen utbildning. I detta dokument presenterar vi en ny reglerad utbildningsmetod: Shakeout. Istället för att slumpmässigt kasta enheter som Dropout gör på träningsstadiet, Shakeout slumpmässigt väljer att förbättra eller vända varje enhet bidrag till nästa lager. Denna mindre modifiering av Dropout har den statistiska egenskapen: den regularizer som induceras av Shakeout adaptivt kombinerar L 0, L 1 och L 2 legaliseringstermer. Våra klassificeringsexperiment med representativa djupa arkitekturer på bilddataset MNIST, CIFAR-10 och ImageNet visar att Shakeout hanterar övermontering effektivt och överträffar Dropout. Vi visar empiriskt att Shakeout leder till glesare vikter under både oövervakade och övervakade inställningar. Shakeout leder också till grupperingseffekten av inmatningsenheter i ett lager. Med tanke på vikten i att återspegla vikten av anslutningar, Shakeout är överlägsen Dropout, vilket är värdefullt för den djupa modellen kompression. Dessutom visar vi att Shakeout effektivt kan minska instabiliteten i den djupa arkitekturens utbildningsprocess. Index Terms-Shakeout, avhopp, legalisering, gleshet, djupa neurala nätverk Ç 0162-8828 ß | Kang m.fl. REF introducerar Shakeout som istället för att slumpmässigt kasta enheter som avhopp gör, det slumpmässigt förbättrar eller vänder varje enhet bidrag till nästa lager. | 4,541,163 | Shakeout: A New Approach to Regularized Deep Neural Network Training | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Mathematics']} | 12,646 |
Abstract-We studerar effekterna av social konnektivitet på kapaciteten i trådlösa nätverk genom att beakta olika värden av koncentrationsfaktor och gradspridning i skalfria nätverk. Resultatet visar att en kapacitet som liknar Gupta och Kumar [1] uppnås. Ytterligare undersökningar visar att den traditionella definitionen av transportkapacitet ger vilseledande slutsatser för sådana nätmodeller. Vi visar att noder med olika social status påverkar kapaciteten på olika sätt. Genom att separera noder med olika sociala status i frekvens och tilldela separat bandbredd till dem, det visas att majoriteten av noder skala i detta nätverk. Resultaten innebär att i ett nätverk med sociala egenskaper och kommunikationsegenskaper, socialt beteende av noderna har betydande inflytande på utförandet av sådana nätverk. | Dessutom studerade de kapaciteten hos sammansatta nätverk, dvs. kombinationen av sociala och trådlösa ad hoc-nät REF. | 8,766,656 | Capacity of scale free wireless networks | {'venue': '2012 IEEE Global Communications Conference (GLOBECOM)', 'journal': '2012 IEEE Global Communications Conference (GLOBECOM)', 'mag_field_of_study': ['Computer Science']} | 12,647 |
ABSTRACT Outlier detektion är ett mycket viktigt problem i en mängd olika tillämpningsområden. Många detektionsmetoder är bristfälliga för datamängder med högdimensionella tidsserier som innehåller både isolerade och monterade avvikelser. I detta dokument föreslår vi en Outlier Detection metod baserad på Cross-korrelation Analysis (ODCA). ODCA består av tre huvuddelar. De är förbehandling av data, extremistanalys och avvikande rang. För det första undersöker vi en linjär interpoleringsmetod för att omvandla monterade yttre delar till isolerade. För det andra föreslås en detekteringsmekanism baserad på korskorreleringsanalysen för att omvandla de högdimensionella datamängderna till 1-D-korreleringsfunktionen, enligt vilken den isolerade avvikelsen bestäms. Slutligen, en multilevel Otsu metod används för att hjälpa oss att välja rank trösklar adaptivt och producera onormala prover på olika nivåer. För att illustrera effektiviteten hos ODCA-algoritmen utförs fyra experiment med hjälp av flera högdimensionella tidsseriedatamängder, som inkluderar två småskaliga uppsättningar och två storskaliga uppsättningar. Dessutom jämför vi den föreslagna algoritmen med detektionsmetoderna baserade på waveletanalys, bilateral filtrering, partikelsvärmoptimering, automatisk regression och extrem inlärningsmaskin. Dessutom diskuterar vi robustheten hos ODCA-algoritmen. De statistiska resultaten visar att ODCA-algoritmen är mycket bättre än befintliga konventionella metoder i både effektivitet och tids komplexitet. | Lu m.fl. I REF föreslogs en exlier detektionsalgoritm baserad på korskorrelationsanalys kallad ODCA för tidsseriedatauppsättning. | 53,012,008 | An Outlier Detection Algorithm Based on Cross-Correlation Analysis for Time Series Dataset | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 12,648 |
Noggrannheten av att upptäcka ett intrång i ett nätverk av intrångsdetekteringssystem (IDSes) beror på effektiviteten i samarbetet mellan medlemmar IDSes. Själva säkerheten inom detta nätverk är ytterligare ett problem som måste åtgärdas. I detta dokument presenterar vi en förtroendebaserad ram för ett säkert och effektivt samarbete inom ett intrångsdetekteringsnätverk (IDN). I synnerhet utformar vi en förtroendemodell som gör det möjligt för varje IDS att utvärdera andra IDS:s tillförlitlighet utifrån sin personliga erfarenhet. Vi föreslår också en antagningskontrollalgoritm för IDS för att hantera bekantskaperna den närmar sig för råd om intrång. Vi diskuterar effektiviteten i vår strategi för att skydda IDN mot gemensamma attacker. Dessutom visar experimentella resultat att vårt system ger betydande förbättringar när det gäller att upptäcka intrång. förtroendemodellen ytterligare förbättrar robustheten i samarbetssystemet mot skadliga attacker. De experimentella resultaten stödjer också att vår antagningskontrollalgoritm är effektiv och rättvis, och skapar incitament för samarbete. | I den första av dem föreslås ett förtroendebaserat ramverk för säkert samarbete inom ett CIDN. | 478,673 | Trust Management and Admission Control for Host-Based Collaborative Intrusion Detection | {'venue': 'Journal of Network and Systems Management', 'journal': 'Journal of Network and Systems Management', 'mag_field_of_study': ['Computer Science']} | 12,649 |
ABSTRACT Ultra-dense små celler utbyggnad i framtida 5G-nätverk är en lovande lösning på den ständigt ökande efterfrågan på kapacitet och täckning. Denna utplacering kan dock leda till allvarliga störningar och ett stort antal överlämnanden, vilket i sin tur leder till ökade signalerande omkostnader. För att säkerställa kontinuiteten i tjänsterna för mobila användare, minimera antalet onödiga överlämnanden och minska signalomkostnaderna i heterogena nät är det viktigt att på ett adekvat sätt modellera problemet med beslut om överlämnande. I detta dokument modellerar vi beslutet om överlämnande baserat på metoden med flera attribut för beslutsfattande, nämligen teknik för beställningspreference genom likhet med idealisk lösning (TOPSIS). Basstationerna betraktas som alternativ, och överlämningsmåtten betraktas som attribut för att välja rätt basstation för överlämnande. I detta dokument föreslår vi två modifierade TOPSIS-metoder för hantering av överlämnande i det heterogena nätet. Den första metoden omfattar entropivägningsteknik för viktning av överlämningsmått. Den andra föreslagna metoden använder en standardvägningsteknik för avvikelse för att poängsätta vikten av varje överlämningsmått. Simuleringsresultat visar att de föreslagna metoderna överträffade de befintliga metoderna genom att minska antalet frekventa överlämnanden och radiolänkfel, förutom att förbättra den uppnådda genomsnittliga användargenomströmningen. INDEX TERMS Heterogena nätverk, överlämnande, små celler, störningar, MADM, vikt, TOPSIS. | Verk i REF föreslog två nya TOPSIS-baserade HO-algoritmer i extremt heterogena nätverk. | 49,541,294 | Multi-Criteria Handover Using Modified Weighted TOPSIS Methods for Heterogeneous Networks | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 12,650 |
Abstrakt. Skydd mot tjänstevägran (DoS) attacker är ett utmanande och pågående problem. Nuvarande overlay-baserade lösningar kan öppet filtrera obehörig trafik baserat på användarautentisering. Sådana lösningar kräver antingen i förväg etablerat förtroende eller explicit användarinteraktion för att fungera, som kan kringgås av bestämda angripare och inte alltid är genomförbart (t.ex. när användarinteraktion är omöjlig eller oönskad). Vi föreslår en multi-layer Overlay Network (MON) arkitektur som inte beror på användarautentisering, men istället använder två mekanismer för att tillhandahålla DoS resistent mot någon IP-baserad tjänst, och fungerar på toppen av den befintliga nätverksinfrastrukturen. För det första genomför MON en tröskelbaserad mekanism för att upptäcka intrång på ett distribuerat sätt för att minska doserna nära attackkällan. För det andra distribuerar den slumpmässigt användarpaket mellan olika vägar för att probabilistiskt öka servicetillgängligheten under en attack. Vi utvärderar MON med hjälp av Apache webbserver som en skyddad tjänst. Resultat visar MON noder införa mycket små overhead, medan användarnas åtkomsttid ökar med en faktor på 1,1 till 1,7, beroende på konfigurationen. Enligt ett attackscenario kan MON minska den attacktrafik som vidarebefordras till tjänsten med upp till 85 %. Vi tror att vårt arbete gör användningen av overlays för DoS skydd mer praktiskt i förhållande till tidigare arbete. | Den multilayer overlay nätverk arkitektur (MON) REF föreslogs för att förbättra IP-tjänster tillgänglighet mot Denial-of-Service (DoS) attacker. | 1,625,687 | A Multilayer Overlay Network Architecture for Enhancing IP Services Availability Against DoS | {'venue': 'ICISS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,651 |
Abstrakt. Skyline-frågor hjälper användare att fatta intelligenta beslut om komplexa data, där olika och ofta motstridiga kriterier beaktas. Nuvarande beräkningsmetoder för skyline är begränsade till centraliserade frågeprocessorer, vilket begränsar skalbarheten och tvingar fram en enda felpunkt. I detta dokument, vi tar itu med problemet med att parallellisera skyline frågeutförande över ett stort antal maskiner genom att utnyttja innehållsbaserad data partitionering. Vi presenterar en ny distribuerad skyline frågehanteringsalgoritm (DSL) som upptäcker skylinepunkter gradvis. Vi föreslår två mekanismer, rekursivt område partitionering och dynamisk regionkodning, för att genomdriva en partiell ordning på frågeutbredning för att pipeline frågeutförande. Vår analys visar att DSL är optimalt när det gäller det totala antalet lokala frågeanrop i alla maskiner. Dessutom visar simuleringar och mätningar av ett utplacerat system att vårt systems belastning balanserar kommunikations- och bearbetningskostnader för klustermaskiner, vilket ger ökad skalbarhet och betydande prestandaförbättringar jämfört med alternativa distributionsmekanismer. | I REF, Wu et al. Ta först itu med problemet med parallellisering av skylinefrågor över en share-noll arkitektur. | 1,216,101 | Parallelizing skyline queries for scalable distribution | {'venue': 'In EDBT’06', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,652 |
I detta dokument identifierar vi två frågor som är involverade i att utveckla en automatiserad delmängdsalgoritm för icke-märkta data: behovet av att hitta antalet kluster i samband med funktionsval, och behovet av att normalisera partiska kriterier för funktionsval med avseende på dimension. Vi utforskar funktionen urvalsproblem och dessa frågor genom FSSEM (Feature Subset Selection using Prospectation-Maximization (EM) clustering) och genom två olika prestandakriterier för att utvärdera kandidat funktionen undergrupper: scatter separability och maximal sannolikhet. Vi presenterar bevis på dimensionalitetsfördomarna i dessa kriterier, och presenterar ett system för korsprojicering normalisering som kan tillämpas på alla kriterier för att mildra dessa fördomar. Våra experiment visar behovet av urval av funktioner, behovet av att ta itu med dessa två frågor och effektiviteten i våra föreslagna lösningar. | REF undersökte de problem som är förknippade med att utveckla omslagsmetoder och använde kriteriet om maximal sannolikhet och spridning för att välja antal funktioner och kluster. | 35,777 | Feature Selection for Unsupervised Learning | {'venue': 'J. Mach. Learn. Res.', 'journal': 'J. Mach. Learn. Res.', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 12,653 |
Abstrakt. Visualisering av glyphs har en lång historia i medicinsk avbildning men vinner mycket mer kraft när glyphs är korrekt placerade för att fylla skärmen. Glyph förpackning utförs ofta via en iterativ metod för att förbättra placeringen av glyfer. Vi presenterar ett alternativt genomförande av glyph packning baserat på en Delaunay triangulation för att påskynda klusterprocessen och minska kostnaderna för grannsökningar. Vårt tillvägagångssätt kräver inte en omräkning av accelerationsstrukturer när ett plan flyttas genom en volym, vilket kan göras interaktivt. Vi tillhandahåller två metoder för initial placering av glyfer för att förbättra konvergensen av vår algoritm för glyfer större och glyfer mindre än datamängdens voxelstorlek. Det viktigaste bidraget i detta dokument är ett nytt tillvägagångssätt för glyfpackning som stöder enklare parameterisering och kan enkelt användas för högeffektiv interaktiv dataprospektering, i motsats till tidigare metoder. | Hlawitschka m.fl. REF presenterar en alternativ glyph förpackning med Delaunay triangulation som framgångsrikt minskar beräkningskostnaden. | 9,810,624 | Interactive glyph placement for tensor fields | {'venue': 'In Proceedings of the 3rd International Symposium on Visual Computing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,654 |
Abstrakt. Uppkomsten av onlinetjänster i våra dagliga liv har åtföljts av en rad illvilliga försök att lura individer att utföra oönskade handlingar, ofta till förmån för motståndaren. Det mest populära mediet av dessa försök är phishing attacker, särskilt via e-post och webbplatser. För att försvara sig mot sådana attacker finns det ett akut behov av automatiserade mekanismer för att identifiera detta illvilliga innehåll innan det når användarna. Maskininlärningsteknik har gradvis blivit standard för sådana klassificeringsproblem. Men att identifiera gemensamma mätbara funktioner i phishing innehåll (t.ex., i e-post) är notoriskt svårt. För att ta itu med detta problem engagerar vi oss i en ny studie i en phishing content clasfier baserad på ett återkommande neuralt nätverk (RNN), som identifierar sådana funktioner utan mänsklig inmatning. I det här skedet ägnar vi vår forskning till e-post, men vårt tillvägagångssätt kan utvidgas till att gälla webbplatser. Våra resultat visar att det föreslagna systemet överträffar toppmoderna verktyg. Dessutom är vår klassificerare effektiv och tar endast hänsyn till texten och, i synnerhet, textstrukturen i e-postmeddelandet. Eftersom dessa funktioner sällan beaktas i e-postklassificering, hävdar vi att vår classifier kan komplettera befintliga classifiers med hög informationsvinst. | REF visade en phishing-innehållsklassificering baserad på ett återkommande neuralt nätverk. | 199,543,317 | Catching the Phish: Detecting Phishing Attacks using Recurrent Neural Networks (RNNs) | {'venue': '20th World Conference on Information Security Applications (WISA 2019)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,655 |
I denna artikel introducerar vi en power-hopping teknik (PH-MAC) som, genom att växla mellan olika överföringseffektnivåer, syftar till att avsiktligt orsaka paketfångst och därmed minska påverkan av kollisioner i 802.11 WLAN. Vi utformar först en analytisk modell av 802.11 protokollet med heterogena fånga sannolikheter, och visar att, beroende på nätet belastning, fångsteffekten kan förbättra genomströmningen prestanda för alla noder. Vi baserar utformningen av PH-MAC på resultaten från denna analys och visar att viktiga prestandaförbättringar kan uppnås genom att utnyttja samspelet mellan MAC- och PHY-lagren för att mildra kollisioner. Slutligen, för att förstå genomförbarheten av denna teknik i praktiska driftsättningar, presenterar vi en prototypimplementering av PH-MAC som bygger på råvaruhårdvara och öppen källkodsdrivrutiner. Vi utvärderar prestandan av denna implementation i en inomhus testbädd under olika nätverksförhållanden när det gäller länkkvaliteter, nätbelastningar och trafiktyper. De experimentella resultaten visar att vårt system kan ge betydande vinster jämfört med standardmekanismen 802.11 när det gäller genomströmning, rättvisa och fördröjning. | Tekniken i REF använder olika effektnivåer för att resultera i paketfångst i WLAN och förbättra prestandan. | 8,724,628 | Mitigating collisions through power-hopping to improve 802.11 performance | {'venue': 'Pervasive and Mobile Computing', 'journal': 'Pervasive and Mobile Computing', 'mag_field_of_study': ['Computer Science']} | 12,656 |
Sammanfattning -Detta dokument presenterar ett nytt schema baserat på den suddiga regressionsanalys för uppskattning av toppbelastning i distributionssystem. I distributionssystemet är uppskattningen av bussbelastningen komplicerad eftersom systembelastningen vanligtvis bara övervakas på några få punkter. Som regel är mottagande noder inte utrustade med stationära mätinstrument så att belastningsmätningar utförs sporadiskt. I allmänhet är den enda information som är allmänt tillgänglig när det gäller andra laster än större distributionsstationer och utrustningsanläggningar faktureringscykelns förbrukning i kWh. För att modellera systemosäkerhet, inexakthet och slumpmässighet hos kundernas efterfrågan föreslås ett suddigt system förhållningssätt. I detta dokument presenteras möjligheter till tillämpning av fuzzy set-teorin på eldistributionssystemets beräkningar. Otillförlitliga och felaktiga indata har modellerats med hjälp av suddiga siffror. Trapezoida och triangulära former av fuzzy nummer användes för beskrivning av indata. En regressionsmodell, som uttrycker korrelationen mellan en substations toppbelastning och en uppsättning kundfunktioner (förklarande variabler), som finns i substationspopulationen, bestäms. Simuleringsstudier har utförts för att visa det föreslagna systemets effektivitet på grundval av faktiska data som erhållits vid två distributionssystemstationer. Samma data har använts för att bygga standardmodeller för linjär regression. Jämförelse av båda metodernas prestanda har gjorts. | Ett annat arbete om toppbelastning rapporteras i REF, där en suddig modell för osäkra data har antagits tillsammans med ett regressionsförfarande. | 55,362,133 | The fuzzy regression approach to peak load estimation in power distribution systems | {'venue': None, 'journal': 'IEEE Transactions on Power Systems', 'mag_field_of_study': ['Mathematics']} | 12,657 |
ABSTRACT I detta dokument undersöker vi säker samtidig trådlös information och kraftöverföring (SWIPT) i ett heterogent nät med två nivåer (HetNet), där de omgivande interferenssignalerna utnyttjas för både säker kommunikation och trådlös energiskörd. Vi antar att en makrocell basstation (MBS) och flera femtocell basstationer (FBS) samtidigt skickar information till sina makrocell användare (MUs) respektive femtocell användare, respektive. Under tiden överför FBS också energi till vissa energimottagare, som fungerar som potentiella tjuvlyssnare och kan avlyssna konfidentiella meddelanden till en MU via de tvärgående interferenslänkarna. Utnyttjar interferens i den ansedda HetNet, optimerar vi gemensamt strålformande vektorer och artificiellt buller av MBS och FBS för att maximera sekretessgraden för den tjuvlyssnade MU under kvalitet-av-service, energi skörd, och överföra kraft begränsningar vid relevanta mottagare/sändare. I synnerhet undersöker vi först det idealiska fallet med perfekt tjuvlyssnarens kanaltillståndsinformation (ECSI) och optimeringsproblemet visar sig vara nonconvex. Genom att använda verktygen för semidefinit relaxation (SDR) och endimensionell linjesökning, överför vi framgångsrikt det ursprungliga problemet till ett mer dragbart tvåstegsproblem för att få den optimala lösningen. Dessutom utvidgar vi vår studie till att omfatta det bristfälliga ECSI-fallet, där den värsta fallbaserade lösningen uppnås med hjälp av SDR och successiv konvex tillnärmning. Simuleringsresultat visar effektiviteten hos de föreslagna algoritmerna och ger också användbara insikter i utformningen av säker SWIPT i närvaro av störningar. INDEX TERMS Beamforming, heterogent nätverk, interferens, samtidig trådlös information och strömöverföring (SWIPT), semidefinite programmering (SDP). | På samma sätt var sändningsstrålarna och AN vektorerna vid makrocell BS och femtocell BS gemensamt optimerade för att maximera sekretessgraden för den tjuvlyssnade MU under QoS begränsningar av IRs och ERs i REF. | 19,410,151 | Secure Wireless Information and Power Transfer in Heterogeneous Networks | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 12,658 |
Många system för uppgifter som frågesvar, sammanfattning av flera dokument och informationshämtning behöver robusta numeriska mått på lexikal tillhörighet. Standard tesaurus-baserade mått på ordpar likhet baseras endast på en enda väg mellan dessa ord i tesaurus grafen. Däremot föreslår vi en ny modell av lexikal semantisk släktskap som innehåller information från varje explicit eller implicit sökväg som förbinder de två orden i hela grafen. Vår modell använder en slumpmässig promenad över noder och kanter som härrör från WordNet länkar och corpus statistik. Vi behandlar grafen som en Markov-kedja och beräknar en ordspecifik stationär distribution via en generaliserad PageRank-algoritm. Ett ordpars semantiska överensstämmelse görs genom en ny divergerande åtgärd, ZKL, som överträffar befintliga åtgärder för vissa distributionsklasser. I våra experiment är den resulterande relativitetsmåttet det WordNet-baserade måttet högst korrelerat med mänskliga likhetsbedömningar efter rankning på ρ =.90. | REF introducerar ett nytt mått på lexikal relativitet baserat på skillnaden mellan de stationära distributioner som beräknas från slumpmässiga promenader över grafer som extraheras från WordNet. | 16,155,186 | Lexical Semantic Relatedness with Random Graph Walks | {'venue': '2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,659 |
Abstract-Malicious URL, alias. skadlig webbplats, är ett vanligt och allvarligt hot mot cybersäkerhet. Skadliga webbadresser är värd för oönskat innehåll (spam, nätfiske, drive-by-exploats, etc.) och locka intet ont anande användare att bli offer för bedrägerier (monetär förlust, stöld av privat information, och malware installation), och orsaka förluster av miljarder dollar varje år. Det är absolut nödvändigt att upptäcka och agera mot sådana hot i rätt tid. Traditionellt görs denna upptäckt främst genom användning av svarta listor. Men svarta listor kan inte vara uttömmande, och saknar förmågan att upptäcka nygenererade skadliga webbadresser. För att förbättra allmänheten av skadliga URL-detektorer, maskininlärning tekniker har utforskats med ökande uppmärksamhet under de senaste åren. Denna artikel syftar till att ge en omfattande undersökning och en strukturell förståelse av skadliga URL Detection tekniker med hjälp av maskininlärning. Vi presenterar den formella formuleringen av skadlig URL Detection som en maskininlärning uppgift, och kategorisera och granska bidrag av litteraturstudier som behandlar olika dimensioner av detta problem (funktion representation, algoritm design, etc.). Vidare ger denna artikel en aktuell och omfattande undersökning för en rad olika målgrupper, inte bara för maskininlärning forskare och ingenjörer i den akademiska världen, utan också för yrkesverksamma och utövare i cybersäkerhetsbranschen, för att hjälpa dem att förstå den senaste tekniken och underlätta deras egen forskning och praktiska tillämpningar. Vi diskuterar även praktiska frågor inom systemdesign, öppna forskningsutmaningar och pekar på några viktiga riktningar för framtida forskning. | Den detaljerade litteraturen undersökning av maskininlärning baserad skadlig URL upptäckt, se REF. | 2,340,740 | Malicious URL Detection using Machine Learning: A Survey | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 12,660 |
Information om artens status på regional nivå är avgörande för en effektiv bevarandeplanering. Vissa regioner i sydvästra Europa, t.ex. Portugal, som visserligen ingår i hotspoten för biologisk mångfald i Medelhavet, saknar en detaljerad bedömning av fördelningsmönstren för flera taxonomiska grupper, t.ex. köttätare. Dessutom är informationen spridd, ofta opålitlig och partisk mot vissa arter eller regioner. Denna studie syftade till att se över de befintliga kunskaperna om däggdjurens landlevande köttätare i Portugal, analysera forskningstrender, uppdatera artlistan och bedöma deras historiska och aktuella fördelningsmönster. Vi genomförde en omfattande granskning av 755 vetenskapliga studier för att analysera flera publiceringsmått och sammanställde 20 189 närvarouppgifter för alla däggdjursdjur som förekommer i Portugal sedan tidigare för att utvärdera deras fördelningsmönster. Carnivoreforskningen i Portugal inleddes på 1700-talet, med ett uppsving nyligen i mitten av 1990-talet, och har varit partisk mot vissa forskningsområden och regionalt hotade arter. Det finns 15 främmande arter i Portugal, varav nio förekommer i hela landet, sex har ett mer begränsat utbredningsområde samt ytterligare en art som för närvarande är lokalt utdöd (Ursus arctos). Under de senaste årtiondena har utbredningsområdena för sju arter uppenbarligen förblivit stabila, två har expanderat, två har krympt och tre har visat på oklara trender. Förekomsten av en ny invasiv köttätare, tvättbjörnen (Procyon lotor), dokumenteras också här. Denna studie illustrerar relevansen av en omfattande analys av icke-systematiska data för att bedöma den historiska och nuvarande statusen för däggdjursdjur på land på nationell nivå, och för att identifiera kunskapsluckor och forskningsprioriteringar. | Bencatel m.fl. REF syftade till att granska befintliga kunskaper om däggdjursdjur i Portugal för att analysera forskningstrender. | 54,166,798 | Research trends and geographical distribution of mammalian carnivores in Portugal (SW Europe) | {'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Geography', 'Medicine']} | 12,661 |
Abstract-The Internet presenterar en enorm mängd användbar information som vanligtvis formateras för sina användare, vilket gör det svårt att extrahera relevanta data från olika källor. Därför kommer tillgången till robusta, flexibla informationssystem (IE) som omvandlar webbsidorna till programvänliga strukturer som en relationsdatabas att bli en stor nödvändighet. Även om många metoder för datautvinning från webbsidor har utvecklats, har det gjorts begränsade ansträngningar för att jämföra sådana verktyg. Tyvärr kan endast i några få fall de resultat som genereras av olika verktyg jämföras direkt eftersom de angivna extraktionsuppgifterna skiljer sig åt. I detta dokument kartläggs de stora dataextraheringen på webben och jämförs dem i tre dimensioner: uppgiftsdomänen, automationsgraden och de tekniker som används. Kriterierna för den första dimensionen förklarar varför ett IE-system inte hanterar vissa webbplatser med särskilda strukturer. Kriterierna för den andra dimensionen klassificerar IE-system baserade på de tekniker som används. Kriterierna för den tredje dimensionen mäter graden av automatisering för IE-system. Vi anser att dessa kriterier ger kvalitativa åtgärder för att utvärdera olika IE-strategier. | Chang, C., Kayed, M., Girgis, MR. och Shaalan, KF REF presenterade en undersökning av de stora webbdata extraktion metoder och jämför dem i tre dimensioner: uppgiftsdomänen, automationsgraden, och de tekniker som används. | 206,742,377 | A Survey of Web Information Extraction Systems | {'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']} | 12,662 |
I det här dokumentet undersöker vi helt dynamiska algoritmer för vägproblem på allmänna riktade grafer. Vi tar särskilt upp två grundläggande problem: dynamisk transitiv stängning och dynamiska kortaste vägar. Även om forskningen om dessa problem sträcker sig över mer än tre decennier, har man under de senaste åren föreslagit många nya algoritmiska tekniker. I denna undersökning kommer vi att göra en särskild ansträngning för att abstraktera några kombinatoriska och algebraiska egenskaper, och några vanliga data-strukturella verktyg som ligger till grund för dessa tekniker. Detta kommer att hjälpa oss att försöka presentera några av de nyaste resultaten i en enhetlig ram så att de bättre kan förstås och sättas in även av icke-specialister. | Demeterscu och Italiano REF-algoritmer som undersöker helt dynamiska riktade grafer med tonvikt på dynamiska kortaste vägar och dynamiska transitiva stängningar. | 18,273,158 | Dynamic shortest paths and transitive closure: algorithmic techniques and data structures | {'venue': 'J. Discr. Algor', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 12,663 |
Att upprätta täta korrespondenser mellan flera bilder är en grundläggande uppgift i många tillämpningar. Att hitta en tillförlitlig överensstämmelse mellan multimodala eller multispektrala bilder är dock fortfarande inte löst på grund av deras utmanande fotometriska och geometriska variationer. I detta dokument föreslår vi en ny tät deskriptor, kallad tät adaptiv självkorrelering (DASC), för att uppskatta tät multimodal och multispektral korrespondens. Baserat på en observation att självlikviditet som finns inom bilder är robust för att avbilda modalitetsvariationer, definierar vi deskriptorn med en serie av en adaptiv självkorrelationsmått mellan plåster som provtas av en randomiserad mottaglig fältpooling, där ett provtagningsmönster erhålls med hjälp av en discriminativ inlärning. Den beräkningsmässiga redundansen av täta deskriptorer minskas dramatiskt genom att tillämpa snabb edge-aware filtrering. Dessutom föreslår vi, för att ta itu med geometriska variationer inklusive skala och rotation, en geometri-invariant DASC (GI-DASC) deskriptor som effektivt utnyttjar DASC genom en superpixel-baserad representation. För en kvantitativ utvärdering av GI-DASC bygger vi ett nytt multimodalt riktmärke som varierande fotometriska och geometriska förhållanden. Experimentella resultat visar DASC:s och GI-DASC:s enastående resultat i många fall med täta multimodala och multispektrala korrespondenser. | Kim och Al. I REF föreslogs en tät modell för adaptiv självkorrelering (DASC) som kan uppskatta täta överensstämmelser mellan multisensorbilder. Men det är inte likgiltigt för de radiometriska skillnaderna mellan multisensorbilder. | 22,650,607 | DASC: Robust Dense Descriptor for Multi-Modal and Multi-Spectral Correspondence Estimation | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 12,664 |
Abstrakt. Vi presenterar en ny algoritm för att upptäcka läckor. För att bevisa frånvaron av ett minne läcka, algoritmen antar sin närvaro och kör en bakåt hög analys för att motbevisa detta antagande. Vi har implementerat detta tillvägagångssätt i ett verktyg för minnesläckageanalys och använt det för att analysera flera rutiner som manipulerar länkade listor och träd. På grund av algoritmens omvända natur kan analysen lokalt resonera om frånvaron av minnesläckage. Vi har också använt verktyget som en skalbar, men oljuddäckningsdetektor för C-program. Verktyget har hittat flera fel i större program från SPEC2000-sviten. | Orlovich och Rugina REF föreslog en läckagedetektionsalgoritm som antar förekomsten av läckor och kör en omvänd hög analys för att motbevisa antagandet. | 7,349,726 | Memory leak analysis by contradiction | {'venue': 'In Proceedings of the 13th International Static Analysis Symposium', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,665 |
Vi beskriver en metod för att integrera syntaktisk information i statistiska maskinöversättningssystem. Det första steget i metoden är att tolka källkodssträngen som översätts. Det andra steget är att tillämpa en serie omvandlingar på parseträdet, och på ett effektivt sätt omordna ytsträngen på källspråkssidan av översättningssystemet. Målet med detta steg är att återställa en underliggande ordordning som är närmare målet språkordordningen än den ursprungliga strängen. Omordningsmetoden tillämpas som ett förbearbetningssteg i både utbildnings- och avkodningsfaserna i ett frasbaserat statistiskt MT-system. Vi beskriver experiment på översättning från tyska till engelska, visar en förbättring från 25,2% Bleu score för ett baslinjesystem till 26,8% Bleu score för systemet med omordning, en statistiskt signifikant förbättring. | Vårt tillvägagångssätt är relaterat till arbetet i REF. | 11,142,668 | Clause Restructuring For Statistical Machine Translation | {'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,666 |
Abstract-Många kärnklassifier byggalgoritmer antar klassificering noggrannhet som prestandamått i modellutvärdering. Dessutom tillämpas ofta samma viktning för varje dataprov i parameteruppskattning. Dessa modelleringsmetoder blir ofta problematiska om datamängderna är obalanserade. Vi presenterar en kärnklassningskonstruktionsalgoritm med orthogonal forward selection (OFS) för att optimera modellens generalisering för obalanserade datamängder i två klasser. Denna kärnklassificeringsalgoritm är baserad på en ny regulariserad ortogonal vägd minsta kvadrat (ROPLS) estimator och modellurvalskriteriet för maximal leave-one-out area under kurvan (LOO-AUC) av mottagarens operativa egenskaper (ROC). Det visas att LOO-AUC på grund av ortogonaliseringsförfarandet kan beräknas med en analytisk formel baserad på den nya regulariserade ortogonala parametern för minst kvadrater, utan att faktiskt dela upp skattningsdatamängden. Den föreslagna algoritmen kan uppnå minimal beräkningsutgift via en uppsättning framåt rekursiva uppdateringsformel i sökmodelltermer med maximalt inkrementellt LOO-AUC-värde. Numeriska exempel används för att visa algoritmens effektivitet. | Till exempel Hong et al. REF ändrade kärnklassificeringarna genom ortogonalt val framåt för att optimera modellens generalisering för obalanserade datauppsättningar. | 5,878,360 | A Kernel-Based Two-Class Classifier for Imbalanced Data Sets | {'venue': 'IEEE Transactions on Neural Networks', 'journal': 'IEEE Transactions on Neural Networks', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 12,667 |
Abstract-This paper are a multiuser multi-input single-output (MISO) downlink system med samtidig trådlös information och strömöverföring. I synnerhet fokuserar vi på säker kommunikation i närvaro av passiva tjuvlyssnare och potentiella tjuvlyssnare (idle legitima mottagare). Vi studerar utformningen av en resursalgoritm som minimerar den totala sändningskraften för fallet när de legitima mottagarna kan skörda energi från radiofrekvenssignaler. Vår design förespråkar dubbel användning av både artificiellt buller och energisignaler för att ge säker kommunikation och underlätta effektiv trådlös energiöverföring. Algoritmdesignen är formulerad som ett icke-konvext optimeringsproblem. Problemformuleringen tar hänsyn till artificiellt buller och energi signalgenerering för att skydda den överförda informationen mot både ansedda typer av tjuvlyssnare när bristfällig kanaltillstånd information (CSI) av potentiella tjuvlyssnare och ingen CSI av passiva tjuvlyssnare finns tillgängliga vid sändaren. Dessutom tar problemformuleringen också hänsyn till olika tjänstekvalitetskrav (QoS): ett minsta nödvändigt signal-till-interference-plus-buller-förhållande (SINR) vid önskad mottagare; maximalt tolerabla SINR-värden vid potentiella tjuvlyssnare; minsta nödvändiga avbrotts sannolikhet vid passiva tjuvlyssnare; och minsta nödvändiga heterogena mängder kraft som överförs till de inaktiva legitima mottagarna. Med tanke på problemets svåråtkomlighet omformulerar vi problemet genom att ersätta en icke-konvex probabilistisk begränsning med en konvex deterministisk begränsning. Därefter antas en halvdefinit strategi för programplanering (SDP) för att uppnå den optimala lösningen på det omformulerade problemet. Dessutom föreslår vi ett icke-optimalt resursfördelningssystem med låg beräkningsmässig komplexitet för att tillhandahålla kommunikationssekretess och underlätta effektiv energiöverföring. Simuleringsresultat visar de föreslagna systemens nära-till-optimala prestanda och betydande effektbesparingar vid överföring genom optimering av artificiellt buller och energisignalgenerering. Index Terms-Physical (PHY) lagersäkerhet, passiv tjuvlyssnare, trådlös information och kraftöverföring, konstgjort buller, robust strålformning. | Säkerheten för SWIPT-system beaktades först i REF och resursfördelningsdesignen för säkra MISO SWIPT-system formulerades som ett icke-konvext optimeringsproblem och en effektiv resursfördelningsalgoritm föreslogs för att få den globala optimala lösningen. | 348,507 | Robust Beamforming for Secure Communication in Systems with Wireless Information and Power Transfer | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 12,668 |
Abstrakt. Iterativ sammanställning av ansökningar har visat sig vara en populär och framgångsrik metod för att uppnå hög prestanda. Detta är dock till priset av många körningar av ansökan. Maskininlärning baserade metoder övervinna detta på bekostnad av en stor off-line utbildningskostnader. I detta dokument presenteras ett nytt tillvägagångssätt för att dramatiskt minska utbildningstiden för en maskininlärningsbaserad kompilator. Detta uppnås genom att fokusera på de program som bäst kännetecknar optimeringsutrymmet. Genom att använda oövervakad klusterbildning i programmet funktionsutrymme kan vi dramatiskt minska den tid som krävs för att träna en kompilator. Dessutom kan vi lära oss en modell som bortser från iterativ sökning som helt möjliggör integration inom den normala programutvecklingscykeln. Vi utvärderade vår klusterstrategi på EEMBCv2-riktmärkessviten och visar att vi kan minska antalet träningskörningar med mer än en faktor på 7. Detta resulterar i en genomsnittlig 1.14 speedup över riktmärkessviten jämfört med standard högsta optimeringsnivå. | REF försöker minska träningstiden genom att fokusera den på de program som bäst kännetecknar sökområdet för optimeringsseten. | 9,186,482 | Reducing Training Time in a One-shot Machine Learning-based Compiler | {'venue': 'LCPC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,669 |
Detta dokument fokuserar på scengrafik färdigställande som syftar till att förutsäga nya relationer mellan två enheter som använder befintliga scen grafer och bilder. Genom att jämföra med den välkända kunskapsgrafen identifierar vi först att varje scengraf är associerad med en bild och varje enhet av en visuell trippel i en scen graf består av sin enhetstyp med attribut och jordas med en avgränsande ruta i sin motsvarande bild. Vi föreslår sedan en end-to-end modell som heter Representation Learning via Jointly Struktural and Visual Embedding (RLSV) för att dra nytta av strukturell och visuell information i scengrafik. I RLSV-modellen tillhandahåller vi en helkonvolutionell modul för att extrahera de visuella inbäddningarna av en visuell trippel och applicera hierarkisk projektion för att kombinera de strukturella och visuella inbäddningarna av en visuell trippel. I experiment utvärderar vi vår modell i två scengrafikbehandlingar: länkförutsägelse och visuell trippelklassificering och ytterligare analys genom fallstudier. Experimentella resultat visar att vår modell överträffar alla baslinjer i båda uppgifterna, vilket motiverar betydelsen av att kombinera strukturell och visuell information för scengrafikkomplettering. | Wan m.fl. REF förutspår specifikt nya trioler för scengrafikkomplettering med hjälp av befintliga scengrafer och visuella funktioner. | 51,608,723 | Representation Learning for Scene Graph Completion via Jointly Structural and Visual Embedding | {'venue': 'IJCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,670 |
Behovet av testning-för-diagnos strategier har identifierats under en lång tid, men den uttryckliga länken från testning till diagnos (fel lokalisering) är sällsynt. Analysera den typ av information som behövs för effektiv fel lokalisering, identifierar vi attributet (kallas Dynamic Basic Block) som begränsar noggrannheten hos en diagnosalgoritm. Baserat på detta attribut föreslås och valideras ett test-för-diagnoskriteri genom noggranna fallstudier: det visar att en testsvit kan förbättras för att uppnå en hög diagnosnoggrannhet. Så dilemmat mellan en minskad testinsats (med så få testfall som möjligt) och diagnosnoggrannheten (som behöver så många testfall som möjligt för att få mer information) löses delvis genom att välja testfall som är dedikerade till diagnos. | Baudry m.fl. Föreslå Dynamic Basic Block (Dbb) REF för minskning av testsviten. | 5,429,177 | Improving test suites for efficient fault localization | {'venue': "ICSE '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,671 |
Abstract-Två mål för avkänning i kognitiv radio (CR) är att upptäcka den primära användaren (PU) exakt och snabbt, som motsäger målen. Därför försöker många papper optimera denna kompromiss och hitta den minsta avkänningstid som skyddar PU. Trenderna är klassade i att öka falsk larm sannolikhet ( ) och detektion sannolikhet ( ), optimera intersensing tid, in-band avkänning (övervakning) tidsoptimering, och out-of-band avkänning (sök) tidsoptimering. Den PU-modell som användes i de flesta av dessa arbeten var en enkel tvåstatsmodell (busy/idle förnyelseprocess). I detta arbete utvecklade vi en modell för PU i dess sysslolösa tillstånd. Modellen gör det möjligt för CR-noden att dra nytta av sina tidigare mätningar. Den antar att det finns multi-idle tillstånd, var och en med specifik längd och känd sannolikhet att stanna i det. Vi använde den här modellen för att hitta den bästa avkänningstiden, energidetektionströskeln och falsk alarmsannolikheten för att kanalen skulle kännas vid övervakning. Dessutom utvecklade vi en utombandsoptimering. Formuleringen finner det bästa antalet kanaler att känna, tröskeln för varje kanal, avkänningstiden för varje kanal, och av varje kanal så att PU skyddas, avkänningstiden minimeras, och CR kommer att hitta en tillgänglig kanal med mycket hög sannolikhet. | I REF utvecklade författarna en ny modell för PU i dess tomgångstillstånd. | 15,753,466 | Efficient Spectrum Searching and Monitoring in Cognitive Radio Network | {'venue': '2011 IEEE Eighth International Conference on Mobile Ad-Hoc and Sensor Systems', 'journal': '2011 IEEE Eighth International Conference on Mobile Ad-Hoc and Sensor Systems', 'mag_field_of_study': ['Computer Science']} | 12,672 |
I en blick, kan vi uppfatta om en hög av rätter kommer att toppa, en gren kommer att stödja ett barns vikt, en livsmedelspåse är dåligt packad och riskerar att riva eller krossa dess innehåll, eller ett verktyg är fast fäst vid ett bord eller fri att lyftas. Sådana snabba fysiska slutsatser är centrala för hur människor interagerar med världen och med varandra, men deras beräkningsunderlag är dåligt förstådda. Vi föreslår en modell baserad på en "intuitiv fysik motor", en kognitiv mekanism som liknar datormotorer som simulerar rik fysik i videospel och grafik, men som använder ungefärliga, probabilistiska simuleringar för att göra robusta och snabba slutsatser i komplexa naturliga scener där viktig information är obemärkt. Denna enda modell passar data från fem olika psykofysiska uppgifter, fångar flera illusioner och förutfattade meningar, och förklarar centrala aspekter av mänskliga mentala modeller och sunt förnuft resonemang som är avgörande för hur människor förstår sin vardag. T o see är, berömda, "att veta vad som är var genom att leta" (ref. 1 s. 3). Men att se är också att veta vad som kommer att hända och vad som kan göras och att upptäcka inte bara objekt och deras platser, utan också deras fysiska egenskaper, relationer och överkomligheter och deras sannolika förflutna och framtid betingade på hur vi kan agera. Begrunda hur föremål i en verkstadsscen ( Bild. 1 A och B) stödja varandra och hur de reagerar på olika tillämpade krafter. Vi ser att bordet stöder verktyg och andra objekt på sin översta yta: Om tabellen togs bort skulle dessa objekt falla. Om bordet lyftes från ena sidan, skulle de glida mot den andra sidan och släppa av. Bordet stöder också ett däck lutande mot benet, men otryggt: Om stötar något, däcket kan falla. Objekt hängande från krokar på väggen kan svänga om dessa stöd eller lätt lyftas av; i kontrast, krokarna själva är styvt fästa. Denna fysiska scen förståelse förbinder perception med högre kognition: grundande abstrakta begrepp i erfarenhet, prata om världen i språk, förverkliga mål genom åtgärder, och upptäcka situationer som kräver särskild vård (Fig. 1C)........................................................................................................... Det är avgörande för intelligensens ursprung: Forskare inom utvecklingspsykologi, språk, djurkännedom och artificiell intelligens (2-6) anser förmågan att avsiktligt manipulera fysiska system, såsom att bygga en stabil hög av block, som ett mest grundläggande tecken på mänskligt sunt förnuft (Fig. Detta anslag är avsett att täcka utgifter för tjänstemän och tillfälligt anställda som arbetar inom politikområdet Migration och inrikes frågor. Det ger även upphov till några av våra mest visceralt övertygande spel och konstformer (Fig. 1 E och F............................................................................................... Trots centraliteten i dessa fysiska slutsatser förblir de beräkningar som ligger till grund för dem i sinnet och hjärnan okända. Tidiga studier av intuitiv fysik fokuserade på mönster av fel i explicit resonemang om enkla enkroppssystem och ansågs förvånande eftersom de föreslog att mänskliga intuitioner är i grunden oförenliga med Newtonian mekanik (7). Efterföljande arbete (8, 9) har reviderat denna tolkning, vilket visar att människors fysiska intuitioner ofta är mycket exakta enligt Newtonska normer när de grundar sig i konkreta dynamiska uppfattnings- och handlingssammanhang, och påpekar att även i de tidigare studierna gav majoriteten av ämnena typiskt korrekta svar (10). Flera nya modeller har hävdat att både framgångar och förutfattade meningar i människors perceptuella bedömningar om enkla en- och tvåkroppsinteraktioner (t.ex. att bedöma de relativa massorna av två kolliderande punktobjekt) kan förklaras som rationella probabilistiska slutsatser i ett "noisy Newton"-ramverk, förutsatt att Newtons lagar plus bullriga observationer (11) (12) (13) (14). Men allt detta arbete behandlar endast mycket enkla, idealiserade fall, mycket närmare exemplen på inledande fysik klasser än de fysiska sammanhang människor möter i den verkliga världen. Vårt mål här är att utveckla och testa en beräkningsram för intuitiv fysisk inferens som är lämplig för den vardagliga scenförståelsens utmaningar och förmåner: resonemang om ett stort antal objekt, endast ofullständigt observerade och interagerande på komplexa, icke-linjära sätt, med betoning på grova, ungefärliga, kortsiktiga förutsägelser om vad som kommer att hända härnäst. Vårt förhållningssätt motiveras av ett förslag som först formulerats av Kenneth Craik (15), att hjärnan bygger mentala modeller som stöder slutledning av mentala simuleringar analogt med hur ingenjörer använder simuleringar för förutsägelse och manipulation av komplexa fysiska system (t.ex. analys av stabilitet och fellägen i en brodesign före konstruktion). Dessa körbara mentala modeller har åberopats för att förklara aspekter av höga fysiska och mekaniska resonemang (16, 17) och implementeras beräkningsmässigt i klassiska artificiell intelligens system (18) (19) (20). Dessa system har dock inte försökt att engagera sig i den fysiska scenförståelsen: Deras fokus på kvalitativa eller propositionella representationer, snarare än kvantitativa aspekter och osäkerheter i objektens geometri, rörelser och kraftdynamik, är bättre lämpad för att förklara symboliska resonemang på hög nivå och problemlösning. För att förstå fysik i samband med scenuppfattning och handling krävs ett mer kvantitativt och probabilistiskt förhållningssätt till formaliserande mentala modeller. Här introducerar vi ett sådant ramverk, som utnyttjar de senaste framstegen inom grafik och simuleringsverktyg, samt Bayesiansk kognitiv modellering (21), för att förklara hur människor förstår den fysiska strukturen i verkliga scener. Vi antar att mänskliga bedömningar drivs av en "intuitiv fysik motor" (IPE), liknar datorfysik motorer som används för kvantitativ men ungefärlig simulering av stel kroppsdynamik och kollisioner, mjuk kropp och flytande dynamik i datorgrafik, och interaktiva videospel. Den IPE utför förutsägelse genom simulering och införlivar osäkerhet om scenen genom att behandla dess simulering körs som statistiska prover. Vi fokuserar på hur IPE stöder slutsatser om konfigurationer av många stela objekt som utsätts för gravitation och friktion, med varierande antal, storlekar och massor, som de typiska i barnlekrum, kontorsbord eller verkstad, i Bild. Detta beslut träder i kraft den tjugonde dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. I en serie experiment visar vi att IPE kan göra många kvantitativa bedömningar som förvånansvärt överensstämmer med dem av probabilistiska fysiksimuleringar, men också att det skiljer sig från marksanning fysik på avgörande sätt. Dessa skillnader gör IPE mer robust och användbar i vardagen kognition, men också benägna att vissa begränsningar och illusioner (som i Bild. Detta anslag är avsett att täcka utgifter för tjänstemän och tillfälligt anställda som arbetar med politikområdet Hälsa och konsumentskydd. Arkitektur för IPE. Vi föreslår en kandidatarkitektur för IPE som kan samverka flexibelt med både lägre perceptuomotoriska system och kognitiva system på högre nivå för planering, handling, resonemang och språk ( Bild. 2A............................................................................................................ Kärnan är en objektbaserad representation av en 3D scenanalog till de geometriska modeller som ligger till grund för datorstödda designprogram (Fig. 1B) -och de fysiska krafter som styr scenens dynamik: hur dess tillstånd förändras över tiden (Fig. 2A............................................................................................................ Denna representation kodar kvantitativt ett stort antal statiska och dynamiska variabler som behövs för att fånga rörelser och interaktioner hos många objekt. Detta kan omfatta objektens geometrier, arrangemang, massor, elastiskheter, styvheter, ytegenskaper och hastigheter samt effekterna av krafter som verkar på föremål på grund av gravitation, friktion, kollisioner och andra potentiellt omärkbara källor. IPE representerar således världen med en rimlig grad av fysisk trohet. Men tre viktiga konstruktionselement gör att den skiljer sig från en idealisk fysiker strategi och mer liknar en ingenjörs. För det första bygger IPE på simulering: I stället för att manipulera symboliska ekvationer för att få analytiska lösningar representerar det mekaniken procedurmässigt och genererar förutsagda tillstånd baserade på initiala genom att rekursivt tillämpa elementära fysiska regler över korta tidsintervall. För det andra är IPE probabilistisk snarare än deterministisk: Den kör stokastiska (Monte Carlo) simuleringar (22) som representerar osäkerhet om scenens tillstånd och kraftdynamik och därmed robust till den bullriga och ofullständiga information som tillhandahålls av perception. För det tredje är IPE i sig ungefärligt: I sin mekanik regler och representationer av objekt, krafter och sannolikheter, det handlar precision och veridikalitet för hastighet, generalitet, och förmågan att göra förutsägelser som är tillräckligt bra för vardagliga aktiviteter. För att göra detta förslag konkret och testbart måste vi också specificera vilken typ av approximationer det rör sig om och hur grova eller finkorniga de är. Här har IPE sannolikt avvikit från ingenjörspraktik: Människors dagliga interaktioner med sin omgivning har ofta mycket snävare tidsbegränsningar och mer avslappnade feltoleranser, vilket leder våra hjärnor att gynna hastighet och allmänhet över graden av precision som behövs i tekniska problem. Vår första IPE-modell använder sig således av de enklaste allmänna approximeringsverktyg som vi känner till. Vi använde Open Dynamics Engine (ODE) (www.ode.org) som en mekanism för ungefärliga rigid-kroppsdynamikssimuleringar och den mest naiva Monte Carlo-metoden av Black-box forward-simulering (22) som en mekanism för att representera och sprida ungefärliga sannolikheter genom dessa fysiska dynamiker. ODE representerar objektens geometrier som polyhedra och deras massfördelning med tröghets tensorer, och dess simuleringar upprätthåller inte uttryckligen bevarandet av energi eller momentum, utan endast implicit via grova förfaranden för upptäckt och upplösning av händelser. Vår modell kör simulatorn på flera oberoende dragningar från observatörens sannolikhetsfördelning över scener och krafter för att bilda en ungefärlig bakre fördelning över framtida tillstånd över tiden. Även inom det område av hastighetsnoggrannhet kompromisser som vår ursprungliga IPE-modell stöder, förväntar vi oss att människor kommer att tenderar att anta de billigaste approximationer som möjligt (se SI Appendix: Caimations). IPE kan dramatiskt förenkla objektens geometri, masstäthetsfördelning och fysiska interaktioner, i förhållande till vad ODE tillåter; och i stället för att köra många Monte Carlo simuleringar, IPE kan koda sannolikheter mycket grovt genom att använda endast ett eller några prover (som folk gör i enklare beslutsinställningar) (23). Vårt centrala påstående är att ungefärlig probabilistisk simulering spelar en nyckelroll i människans förmåga att förstå den fysiska scenen och kan tydligt förklara hur människor gör rika slutsatser i en mängd olika vardagliga miljöer, inklusive många som inte tidigare har studerats formellt. Med tanke på en lämplig geometrisk modell (Fig. 1B) av verkstadsscenen i Bild. 1A, IPE kan beräkna versioner av många av de intuitiva slutsatser om den scen som beskrivs ovan. Med tanke på en geometrisk modell av scenen i Bild. 1C, Det kan förklara inte bara hur vi drar slutsatsen att de staplade rätter är otrygga, men också hur vi kan svara på många andra frågor: Vilka objekt skulle falla först? Hur kan de falla i vilken riktning, eller hur långt? Vilka andra föremål kan de orsaka att falla? Varje dag scenarier kan uppvisa stor variation i objektens egenskaper (t.ex., deras vikt, form, friktion, etc.) och de extrinsiska krafter som skulle kunna tillämpas (t.ex. från en liten stöt till ett jarring slag), och vår IPE-modell kan fånga hur människors förutsägelser är känsliga för dessa faktorer-inklusive sätt som går bortom välbekant erfarenhet. På bild. 1C, till exempel, kan vi dra slutsatsen att en gjutjärn skillet placeras på disken skulle vara mycket mer Eftersom det inte representerar osäkerhet, det kan inte fånga människors domar för ett antal av våra stimuli, såsom den röd-gränsade tornet i B. (Observera att dessa fall kan vara sällsynta i naturliga scener, där konfigurationer tenderar att vara tydligare stabil eller instabil och IPE skulle förväntas korrelera bättre med grundsanning än det gör på vår stimuli.) 18328 www.pnas.org/cgi/doi/10. 1073/pnas.1306572110 Battaglia et al. Destabiliserande än en pappersplatta eller att placera dessa staplade rätter nära kanten av ett bord skulle vara mycket mindre klokt om det fanns barn som sprang omkring än om rummet var tomt. Sådana intuitioner kommer naturligt och kräver (lyckligtvis) inte att vi upplever var och en av dessa situationer för att kunna förstå dem. Tillsammans utgör dessa typer av slutsatser ett svar på den mer allmänna frågan: "Vad kommer att hända?", att människor kan svara över otaliga scener och som kan avläsas från IPE: s simuleringar. Psykofysiska experiment. I förhållande till de flesta tidigare forskningar om intuitiv fysik, var våra experiment utformade för att vara mer representativa för vardagliga fysiska scenförståelse utmaningar, liknande dem som visas i Fig. 1 och diskuteras ovan. Dessa uppgifter har komplexa konfigurationer av objekt och kräver flera typer av bedömningar i olika utgångsformer och graderade (snarare än helt enkelt all-eller-ingen, ja-eller-nej) förutsägelser, men är fortfarande begränsade tillräckligt för att möjliggöra kontrollerade kvantitativa psykofysiska studier. Vår mest grundläggande uppgift (Exp. 1) sonderade människors bedömningar av stabilitet genom att presentera dem med torn av 10 block arrangerade i slumpmässigt staplade konfigurationer (Fig. 2B) och ber dem att döma (på 1-7 skala) "Kommer detta torn att falla?" under tyngdkraftens inflytande. Efter att ha svarat fick observatörerna visuell återkoppling som visade gravitationens inverkan på tornet, dvs. om och hur tornblocken skulle falla under en simulering av sanningsfysik på marken. Det kritiska testet i vår IPE-redovisning är inte om den kan förklara varje detalj av hur människor svarar i en sådan uppgift, utan om den kvantitativt kan förklara rikedomen i människors intuitioner om vad som kommer att hända över en mängd olika uppgifter. Därför senare experiment manipulerade element av Exp. 1 att undersöka om modellen kan förklara människors förmåga att göra olika förutsägelser om en given scen (Exps. 2 och 4), deras känslighet för underliggande fysiska attribut såsom massa (Exps. 3 och 4)), och deras förmåga att generalisera till ett mycket bredare och mer komplext utbud av scener (Exp. 5) När det gäller läkemedel som inte är avsedda att användas tillsammans med andra läkemedel (se avsnitt 4. 5, 4. 5 och 4. Att tillämpa vår IPE-modell på dessa uppgifter kräver val om hur man formaliserar varje uppgifts ingångar och utgångar-hur varje stimulans ger upphov till ett urval av initiala objekttillstånd och kraftdynamik för simulatorn och hur effekterna av simulerad fysik på detta prov används för att göra uppgiftens bedömning-samt val om detaljerna i simuleringen körs. Även om "Kommer det att falla?" Uppgiften handlade främst om visuella ingångar och språkliga utdata, senare uppgifter (Exps. 2-5) undersökte flexibiliteten i IPE:s gränssnitt mot andra kognitiva system genom att lägga till språkliga ingångar, symboliska visuella signaler och sensorimotoriska utgångar. För att samma centrala IPE-modell ska kunna testas i alla experiment, gjorde vi följande förenklade antaganden för att sammanfatta dessa andra gränssnitt. Vi sätter IPE: s ingång att vara ett prov från en distribution över scenkonfigurationer, objektegenskaper, och krafter baserade på marksanning, men moduleras av en liten uppsättning numeriska parametrar som fångar sätt på vilka dessa ingångar inte är fullt observerbara och kan variera som en funktion av uppgift instruktioner. Den första parametern, σ, fångar osäkerhet i observatörens representation av scenens ursprungliga geometri i stort sett, som SD för en Bayesiansk observatörs bakre fördelning för varje objekts placering i 3D-utrymme, beroende på 2D-stimulansbilder. Den andra parametern, ska, återspeglar omfattningen av eventuella latenta krafter som observatören anser kan tillämpas (t.ex. en bris, en vibration eller en bula) på objekten i scenen, förutom de krafter som alltid är kända för att vara närvarande (t.ex. gravitation, friktion och kollisioner). Den tredje parametern, μ, fångar fysiska egenskaper som varierar mellan objekt men inte är direkt observerbara-specifikt, den relativa massan av olika objekt-men andra egenskaper såsom elasticitet eller ytjämnhet kan också ingå. Med tanke på ett sådant ingångsprov simulerade vår IPE-modell den fysiska dynamiken för att producera ett urval av slutliga scenkonfigurationer. I vissa fall rörde sig föremålen på grund av gravitationskrafter eller yttre krafter eller till följd av sekundära kollisioner, medan de i andra fall förblev i sitt ursprungliga tillstånd. Modellens utdata består av aggregat av enkla rumsliga, numeriska eller logiska grunder som tillämpas på simuleringskörningarna, beroende på uppgift och bedömning (SI-bilaga: IPE-modell). Till exempel, för Kommer det att falla? Fråga, vi tog IPE: s utgång för att vara den genomsnittliga andelen block som föll över simuleringskörningarna. Varje manipulation i Exps. 1–5 testade IPE-modellen i allt mer komplexa scenarier, som modellen rymmer genom att justera dess manipulationskänsliga ingångsparametrar eller utgångsparametrar; alla manipulationsrelevanta modellkomponenter är fastsatta till tidigare monterade värden. Vi jämförde också modellen med varianter som inte är känsliga för dessa manipulationer, för att bedöma hur fullständigt IPE representerar dessa fysiska, scen- och uppgiftsfunktioner. Slutligen utforskade vi flera sätt på vilka det mänskliga IPE skulle kunna anta ännu enklare ungefärliga representationer. Utgångspunkt. 1: Kommer den att falla? Utgångspunkt. 1 mätte varje försökspersons ðn = 13. Kommer det att falla? domar om 60 olika torn scener, upprepade sex gånger över separata block av försök (se SI Material och metoder, Bild. S1, och tabell S1 ). Bilda. 2C visar korrelationen mellan modellens och människors genomsnittliga bedömningar (ρ = 0:921⁄20:88; 0:94, där 1⁄2l; u anger lägre/övre 95% konfidensintervall) under de bästa indataparametrarna: σ = 0:2, eller 20% av längden på ett blocks kortare sida, och 0:2, vilket motsvarar mycket små tillämpade externa krafter, på skalan av en ljuskran. I närheten av värden av σ och ∂ hade också höga korrelationer eftersom tillstånd och kraft osäkerhet påverkade modellens förutsägelser på liknande sätt (Fig. S3 ).............................................................................................................. μ parametern sattes till 1 eftersom alla objekt hade identiska fysiska egenskaper. Vi analyserade försökspersonernas svar för förbättringar över försöksblock och fann inga effekter av vare sig mängden feedback eller mängden övning (Fig. S7 och SI Bilaga: Analys av lärande). Vi kopierade också konstruktionen av Exp. 1 om en ny grupp av försökspersoner ðn = 10 till som inte fick någon feedback och fann att deras genomsnittliga svar var i hög grad korrelerade med dem i det ursprungliga feedbackvillkoret ðρ = 0:951⁄20:95; 0:95 en bekräftelse på att all feedbackdriven inlärning spelade som mest en minimal roll. För att bedöma sannolikhetens roll i IPE-simuleringarna jämförde vi också människors bedömningar med en deterministisk sanningsfysikmodell (samma simuleringar som användes för att ge feedback efter behandlingen). Denna grundsanningsmodell motsvarar en variant av IPE-modellen där σ = 0 och 0 = 0 (dvs. varje simulering körs med initialtillstånd som är identiska med de sanna objektens tillstånd och använder inga krafter förutom gravitation, friktion och kollisioner). Uppgiften var utmanande för ämnen: Deras genomsnittliga noggrannhet var 66 % (dvs. procentandelen av deras tröskelsvar som motsvarade marksanningens modell), och deras korrelation med marksanningens förutsägelser var betydligt lägre (ρ = 0:641⁄20:46; 0:79, P < 0:001; Bild. 2D) än med IPE-modellen. Detta visar hur viktigt det är att inkludera stat och kraftosäkerhet i modellens simuleringar och förklarar illusioner som de förvånansvärt balanserade stenarna i Bild. 1F : Grunden sanning scen konfigurationen är i själva verket balanserad, men så delikat att de flesta liknande konfigurationer (och därmed de flesta av IPE: s probabilistiska simuleringar) är obalanserade och faller under gravitationen. Vi inkluderade en liknande illusorisk stimulans i experimentet, ett fint balanserat torn (Fig. 2B, röd gräns) som faktiskt står upp under marken sanning fysik men att IPE modellens probabilistiska simuleringar förutsäga är nästan säkert att falla. Som förutspåddes av IPE modellen, men inte marksanning varianten, människor bedömde detta att vara en av de mest instabila tornen i hela stimulans uppsättningen (Fig. 2 C och D, röd cirkel). Är det möjligt att människors bedömningar inte innebar någon mental simulering alls, probabilistisk eller på annat sätt? Vi testade också en alternativ redogörelse i en anda av exemplarbaserade modeller och enkla heuristiker som har föreslagits i tidigare studier av fysiska bedömningar (8-11): att människor istället kan basera sina bedömningar uteslutande på inlärda kombinationer av geometriska egenskaper i den ursprungliga scenkonfigurationen (t.ex. antal, positioner och höjder på objekten; se tabell S2 ) utan uttrycklig hänvisning till fysisk dynamik. Denna "feature-baserade" konto konsekvent klarade sämre på att förutsäga människors bedömningar än IPE-modellen-ibland dramatiskt sämre (Fig. S4) och ett kontrollerat uppföljningsförsök (Exp. S1) (SI-bilaga: Mallfria konton) där tornen alla var av samma höjd, liksom i Exps. 2-5 beskrivet nedan. Detta innebär inte att geometriska egenskaper inte spelar någon roll för den fysiska scenförståelsen; i SI-bilagan: Tillnärmningar beskriver vi inställningar där de kan. Våra resultat visar dock att de inte är lönsamma som ett generellt alternativ till IPE-modellen. För att testa IPE-modellens förmåga att förklara olika bedömningar i olika former, visade vi ämnen ðn = 10 på liknande scener som i Exp. 1, men istället bad dem att bedöma i vilken riktning tornet skulle falla (Fig. 3A och Fig. Ursprunglig hänvisning till den nationella lagstiftningen: S2............................................................................................................. IPE-modellens utgångspredikat för detta "I vilken riktning?" Förfrågan definierades som vinkeln för den genomsnittliga slutliga positionen för de fallna blocken; ingångsparametrar (σ = 0:2, och = 0:2) och alla andra detaljer var inställda på de som användes i modellering Exp. 1. Vad är det för fel på dig? Modellförutsägelserna var mycket exakta totalt sett: Objektens genomsnittliga riktningsbedömningar låg inom ± 45° av modellens för 89 % av tornets stimuli (Fig. 3B)............................................................... Som i Exp. 1, fånga osäkerhet var avgörande: Den cirkulära korrelationen med människors bedömningar var betydligt högre för IPE-modellen ðρ circ = 0:801⁄20:71; 0:87 till än för mark-sanningen (σ = 0, ∂ = 0) modell ( Bild. 3C; ρ circ = 0:611⁄20:46; 0:75, P < 0:001). Dessa resultat visar hur en enda uppsättning probabilistiska simuleringar från IPE kan redogöra för kvalitativt olika typer av bedömningar om en scen bara genom att tillämpa lämpliga utdata predikat. Exp.g.a. fall. 3 och 4: Variera objekt massar. För att testa känsligheten hos människors förutsägelser om objektets fysiska egenskaper och IPE-modellens förmåga att förklara denna känslighet, Exps. 3 och 4 använda mönster som liknar Exps. 1 respektive 2, men med block som antingen var tunga eller lätta (10:1 massförhållande, indikeras visuellt av olika block färger; Bild. 3 D och G). Vi skapade par av stimuli ("state par") som delade identiska geometriska konfigurationer, men som skilde sig från vilka block tilldelades att vara tunga och lätta (Fig. 3 D och G) och därmed i huruvida, och hur, blocken bör förväntas falla. Återigen sattes IPE-modellens ingångsparametrar och utgångsvärden på samma sätt som de som användes i Exps. 1 och 2, förutom att massparametern, μ, kan variera för att återspegla människors förståelse av förhållandet mellan tunga och lätta block massa. Vid bästa passform värde från Exp. 3, μ = 8, modell passar för Exp. 3 (Kommer det att falla? dom; bild. 3E, ρ = 0:801⁄20:72; 0:86) och Exp. 4 (I vilken riktning? dom; bild. 3H, ρ circ = 0:781⁄20:67; 0:87) var jämförbara med dem i Exps. 1 respektive 2, den verkliga massa ratio ðμ = 10 ska ge nästan identiska förutsägelser och passar. Däremot gav användningen av den okänsliga ðμ = 1 på modellen betydligt sämre passformer för båda Exp. 3 (Fig. 3F, ρ = 0:631⁄20:50; 0:73, P < 0:001) och Exp. 4 (Fig. 3I, ρ circ = 0:411⁄20:27; 0:57, P < 0:001). Skillnader i bedömningar om torn inom varje stat par covar också betydligt för människor och IPE-modellen i båda experimenten (Exp. 3, ρ = 0:731⁄20:62; 0:81; Exp. 4, ρ circ = 0:501⁄20:18; 0:75), medan dessa korrelationer för de okänsliga modellerna var 0 per definition. Tillsammans, dessa resultat visar att människor kan införliva i sina förutsägelser en viktig latent fysisk egenskap som varierar mellan objekt (och indikeras endast genom kovariation med en ytlig färg kö), att de gör det på ett nästan optimalt sätt, och att samma IPE-modell kan utnyttja de rikare aspekterna av dess scenrepresentationer för att förklara dessa slutsatser på en liknande nivå av kvantitativ noggrannhet som för enklare uppgifter Exps. 1 och 2 där alla objekt var identiska. Utgångspunkt. 5: Variera objektformer, fysiska hinder och tillämpade krafter. Utgångspunkt. 5 var utformad för att vara en omfattande och sträng test av IPE-modellen, utvärdera hur väl det kunde förklara människors bedömningar av en mer ny uppgift i mycket mer komplexa och varierande inställningar-scener med olika storlekar, former, nummer, och konfigurationer av objekt, med varierande fysiska begränsningar på objekt rörelse på grund av bifogade hinder och med ytterligare osäkerhet om de yttre krafter som kunde störa scenen. Varje scen avbildade ett bord där en samling block arrangerades (Fig. 4 A och B), varav hälften var röda och den andra halvan var gula. Försökspersonerna ombads att föreställa sig att bordet stöts tillräckligt hårt för att slå en eller flera av blocken på golvet och bedöma vilken färg block skulle vara mer sannolikt att falla av, med hjälp av en 1-7 skala av förtroende spänner "definitivt gul" till "definitivt röd". De 60 olika scenerna skapades genom att man korsade 12 olika blockkonfigurationer som varierade blockens antal och former samt antal, höjder och positioner i de staplar där de arrangerades med fem olika tabeller, en med en plan yta och fyra andra med två korta hinder fast fästa vid olika kanter som interagerade med föremålens rörelser på olika sätt (Fig. 4A)............................................................... Två villkor skilde sig åt i vilken information försökspersoner fick om den yttre bula: I det "cued" tillståndet, en blå pil indikerade en specifik riktning för vilka försökspersoner bör föreställa sig en bula; i det "oavslutade" tillståndet, ingen pil visades och försökspersonerna var tvungna att föreställa sig effekterna av en bula från någon möjlig riktning (Fig. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. I det köade tillståndet visades varje scen med två olika körriktningar ("cue-wise par"). I 10 inledande försök var försökspersonerna bekanta med uppgiften och effekterna av en slumpmässig bula stark nog att slå av åtminstone ett block, med hjälp av enklare scener där den röd-gula domen var uppenbar och effekten av bulan (tillämpad för 200 ms) visades efter varje dom. Analog respons visades också efter var femte försöksstudie. IPE-modellen var identisk med den i Exps. 1 och 2 ðσ = 0,2; μ = 1, utom för två skillnader som är lämpliga för denna uppgift. För att inkorporera instruktioner om hur bordet stöts, ökades magnituden av inbillade yttre krafter till en rad värden som var karakteristiska för de knölar som visades under förtrogenhetsperioden. Modellen simulerade yttre krafter under en rad olika magnituder, varierande i deras effekter från att orsaka bara några block för att falla från bordet att orsaka de flesta att falla av. För det obotliga tillståndet simulerade modellen alla kurvriktningar, medan den för kurvan simulerade bara stötar med riktningar inom 45° av kurvvinkeln (Fig. 4 C och D). Modellens utgångspredikat definierades som andelen röda kontra totala block som föll från tabellen, i genomsnitt över simuleringar. Modellförutsägelser var starkt korrelerade med människors bedömningar i både uncued och cued bump villkor (Fig. 4E, ρ = 0:891⁄20:82; 0:93 och bild. 4G, ρ = 0:861⁄20:80; 0:90, respektive). Passar var både kvalitativt och kvantitativt bättre än för modellvarianter som inte tog hänsyn till hindren (Figs. 4F, ρ = 0:681⁄20:51; 0:81, P < 0:002; Bild. 4H, ρ = 0:641⁄20:47; 0:77, P < 0:001), kurvorna (Fig. 4I, ρ = 0:821⁄20:75; 0:87, P < 0:2), eller antingen faktor (Fig. 4J, ρ = 0:581⁄20:41; 0:72, P < 0:001), vilket tyder på att båda faktorerna spelade en roll i IPE-modellens framgång. Modellen kan också förutsäga effekterna av olika hinder och stötar på människors bedömningar, med korrelationer av ρ = 0:881⁄20:81; 0:93 mellan människor och modellens hindervisa skillnader i det obotliga tillståndet och ρ = 0:641⁄20:46; 0:77 mellan deras kövisa skillnader i det aktuella tillståndet. Att IPE-modellen förutspådde bedömningar för dessa variabla och komplexa scenarier på så höga nivåer, jämförbara med de enklare experimenten ovan, är det starkaste beviset för att vår modell fångar människors kapacitet för rika mentala simuleringar av den fysiska världen. Tillnärmningar. Medan IPE-modellen som testats ovan försöker representera scenstruktur, fysisk dynamik och sannolikheter troget, med tanke på begränsningarna i en enkel simuleringsmotor och Monte Carlo inference-schema, är den mänskliga IPE sannolikt begränsad av ytterligare resursbegränsningar och kan anta ännu grövre approximationer. Till exempel, i stället för att använda många simuleringsprover för att representera en fullständig bakre prediktiv fördelning, människor kan basera sina förutsägelser på endast mycket få prover. Vi uppskattade antalet prover som bidrar till en försökspersons bedömning genom att jämföra variansen i försökspersonernas svar på variansen i modellens svar, under antagandet att eftersom IPE samlar fler prover kommer dess försök-för-prövning varians att minska, och fann att människors bedömningar var förenliga med att ha baserats på ungefär tre till sju stokastiska simuleringsprover (SI Bilaga: Caimating Probabilitys and Fig. S6 A-E)............................................................................................. Vi jämförde också IPE-modellvarianter som var begränsade till dessa små provstorlekar med de stora provmodeller som testades ovan och fann att även dessa små provstorlekar var tillräckliga för att väl uppskatta de prediktiva sannolikhetsfördelningen i våra uppgifter (Fig. S6 F-J).............................................................. I andra analyser fann vi att människor kan falla tillbaka på icke-simulationsbaserad heuristik när simuleringar skulle kräva för mycket tid och precision för att vara användbara (SI Appendix: Catimating Physics) och att fördomar i hur människor förutsäga rörelser av icke konvexa objekt (10, 24) kan förklaras av en IPE som uppskattar objektets okända massfördelningar billigt, med hjälp av förenklade geometriska tidigare. Även om preliminära, dessa resultat tyder på att över en rad scener och uppgifter, även ett litet antal grova probabilistiska simuleringar över korta intervall kan stödja effektiva fysiska slutsatser och förutsäga väl människors bedömningar. Vi föreslog att människors fysiska scenförståelse kan förklaras av en simuleringsbaserad IPE som vi formaliserade och testade i ett brett spektrum av experiment. Denna IPE-modell stod väl för olika fysiska bedömningar i komplexa, nya scener, även i närvaro av varierande objektegenskaper såsom massa och osäkra yttre krafter som kunde störa scenen. Varianter av IPE-modellen som inte var känsliga för dessa fysiska skillnader passar konsekvent mindre bra, liksom kombinationer av geometriska egenskaper för särskilda ändamål som inte modellerade fysik och måste skräddarsys för varje experiment (Fig. S4 och SI Bilaga: Modellfria konton), ytterligare stödja fallet att mänskliga intuitioner drivs av rika fysiska simuleringar. Att dessa simuleringar är probabilistiska stöddes starkt av de systematiska avvikelserna i människors bedömningar från fysiska simuleringar av grundsanning (den fysiska simuleringen σ = 0; på = 0-modellen), liksom förekomsten av vissa stabilitets illusioner (Fig. 1F och Bild. 2 B-D), som alla naturligtvis förklaras av införlivandet av osäkerhet. Andra illusioner och felmönster (Exp. S2 och Fig. S5 ) peka på andra sätt på vilka dessa simuleringar approximerar den fysiska verkligheten endast grovt, men effektivt nog för de flesta vardagliga handlingsplanering ändamål. Probabilistisk approximativ simulering erbjuder därmed en kraftfull kvantitativ modell av hur människor förstår den dagliga fysiska världen. Detta förslag är i stort sett förenligt med andra nyligen framlagda förslag om att intuitiva fysiska bedömningar kan ses som en form av probabilistisk slutsats om Newtonmekanikens principer (den bullriga Newtonhypotesen) (11) (12) (13) (14). Tidigare bullriga Newton-modeller har begränsats till att beskriva få bedömningar i enkla scenarier (t.ex. ett eller två punktliknande objekt som rör sig i en eller två dimensioner). Vårt arbete skiljer sig främst i sitt fokus på simuleringsspecifikt rika, 3D-objektbaserade simuleringar – som det sätt på vilket fysisk kunskap representeras och probabilistisk inferens utförs. Vår modell kan beskriva många bedömningar om komplexa naturscener, både bekanta och nya, och erbjuder en rimlig algoritmisk grund för hur människor kan göra dessa bedömningar. Hur skulle annars människors fysiska scenförståelse kunna fungera, om inte genom modellbaserad simulering? Mycket ny forskning inom datorseende är baserad på modellfria, datadrivna metoder, som är starkt beroende av att lära av tidigare erfarenhet, antingen genom att memorera mycket stora märkta uppsättningar av exemplars eller genom utbildning kombinationer av kompakta bildfunktioner för att förutsäga bedömningar av intresse. Vi argumenterar inte mot en roll för minne eller inlärda funktioner i fysisk scen förståelse, men våra resultat tyder på att kombinationer av de mest framträdande funktioner i våra scener är otillräckliga för att fånga människors bedömningar (SI Bilaga: ModelFree Accounts och Bild. S4 )............................................................................................................... Mer allmänt verkar ett rent modellfritt konto osannolikt av flera skäl: Det skulle behöva vara tillräckligt flexibelt för att hantera ett brett spektrum av verkliga scener och slutsatser, men ändå tillräckligt kompakt för att kunna lära sig av människors ändliga erfarenhet. Det skulle också kräva ytterligare kontrollmekanismer för att avgöra vilka funktioner och bedömningsstrategier som är lämpliga för varje separat sammanhang, och det skulle ifrågasättas att förklara hur människor utför nya uppgifter i obekanta scener eller hur deras fysiska förståelse kan samverka med deras rika språk, resonemang, fantasi och planering fakulteter. Modellbaserat resonemang är däremot mer flexibelt och allmänt syfte och kräver inget omfattande uppgiftsspecifikt lärande. Vi känner inte till någon annan metod som är en rimlig konkurrent för att göra fysiska slutsatser och förutsäga Vad kommer att hända? i vardagliga scenarier-låta en som kvantitativt kan matcha IPE-modellens överensstämmelse med människors bedömningar över hela vårt sortiment av experiment. Vi uppmuntrar dock alternativ som kan konkurrera med vårt konto och som har gjort våra stimuli och data fritt tillgängliga online för det ändamålet. Generaliteten hos en simuleringsbaserad IPE går långt utöver de inställningar som studeras här. En mer realistisk visuell front kan läggas till för att fånga människors perceptuella osäkerhet (på grund av synvinkel, belysning, eller bildocklusioner; SI Bilaga: Bayesian Vision System och Bild. S8 ) och arbetsminne och uppmärksamhetsbegränsningar (25). I det pågående arbetet finner vi att samma IPE-modell kan förklara hur människor lär sig om objektens latenta egenskaper (t.ex. massa och friktion) genom att observera deras dynamik, hur människor drar slutsatser om fasthållandeförhållanden mellan objekt i en scen och hur människor planerar åtgärder för att uppnå önskade fysiska resultat. Dess underliggande kunskap om fysik kan också utvidgas för att göra slutsatser om dynamiken i andra entitetstyper (nonrigid objekt, icke-fasta ämnen, och vätskor) som inte hanteras av ODE, men kan omedelbareras i mer sofistikerade simuleringsmotorer som Bullet eller Blender. Mer allmänt öppnar vårt arbete upp unika riktningar för att koppla människors förståelse av fysiska scener till andra aspekter av kognition. Probabilistiska simuleringar kan bidra till att förklara hur fysisk kunskap påverkar upplevda scenlayouter (26-28), rörelseplanering (29), orsakssamband (11, 12), språksemantik och syntax (t.ex. "kraftdynamik") (4) och spädbarns förväntningar på objekt (2, 30). Mest allmänt, probabilistisk simulering erbjuder ett sätt att integrera symboliskt resonemang och statistisk inference-två klassiskt konkurrerande metoder för att formalisera sunt förnuft tänkande. Resultatet är en ram som både är mer kvantitativ och mer mottaglig för rigorösa psykofysiska experiment än tidigare berättelser om mänskliga mentala modeller och som också bättre kan förklara hur människor griper och interagerar med de fysiska miljöer de vistas i. ERKÄNNANDEN. Vi tackar | När det finns en osäkerhet i modellen kan den hanteras genom probabilistisk provtagning REF. | 1,596,551 | Simulation as an engine of physical scene understanding | {'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Physics', 'Medicine']} | 12,673 |
Abstract-Antropomorphic robotar som syftar till att närma sig mänsklig prestation agility och effektivitet är typiskt mycket överflödig inte bara i deras kinematics men också i aktivering. Variabla impedansställdon, som används för att driva många av dessa enheter, kan modulera vridmoment och passiv impedans (styvhet och/eller dämpning) samtidigt och oberoende. Här föreslår vi en ram för samtidig optimering av vridmoment- och impedansprofiler för att optimera uppgiftens prestanda, anpassa sig till den komplexa hårdvaran och införliva verkliga begränsningar. Simulerings- och hårdvaruexperiment validerar genomförbarheten hos detta tillvägagångssätt för komplexa, tillståndsberoende begränsningar och demonstrerar fördelarna med optimal modulering av temporal impedans. | Alternativt kan Braun et al. I REF föreslogs ett ramverk för samtidig optimering av vridmoment- och impedansprofiler för att optimera uppgiftens prestanda. | 5,957,995 | Optimal torque and stiffness control in compliantly actuated robots | {'venue': '2012 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'journal': '2012 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'mag_field_of_study': ['Computer Science']} | 12,674 |
Analyzing symtom på schizofreni har traditionellt varit utmanande med tanke på den låga prevalensen av tillståndet, som drabbar omkring 1% av USA: s befolkning. Vi undersöker potentiella språkliga markörer för schizofreni med hjälp av tweets 1 av självidentifierade schizofreni drabbade, och beskriver flera naturliga språkbearbetningsmetoder (NLP) för att analysera språket av schizofreni. Vi undersöker hur dessa signaler jämförs med de allmänt använda LIWC-kategorierna för att förstå psykisk hälsa (Pennebaker m.fl., 2007) och ger preliminära belägg för ytterligare språkliga signaler som kan bidra till att identifiera och få hjälp till personer som lider av schizofreni. | REF studerade självidentifierade schizofrenipatienter på Twitter och fann att språkliga signaler kan hjälpa till att identifiera och få hjälp till personer som lider av det. | 5,600,230 | Quantifying the Language of Schizophrenia in Social Media | {'venue': 'CLPsych@HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,676 |
Som beskrivs i 3Gpp Release 16, 5G satellit access är viktigt för 5G nätutveckling i framtiden. Ett markbaserat satellitnät som är integrerat med 5G har egenskaper som låg fördröjning, hög bandbredd och allestädes närvarande täckning. Några forskare har föreslagit integrerade system för ett sådant nät, men dessa system tar inte hänsyn till möjligheten att optimera fördröjningen genom att ändra datorläget för 5G-satellitnätet. Vi föreslår en 5G satellite edge computing ram (5GsatEC), som syftar till att minska förseningar och utöka nättäckningen. Detta ramverk består av inbyggda hårdvaruplattformar och avancerade mikrotjänster i satelliter. För att öka flexibiliteten i ramverket i komplexa scenarier förenar vi resurshanteringen av centralprocessorn (CPU), grafikprocessorn (GPU) och fältprogrammerbara grindar (FPGA), vi delar upp tjänsterna i tre typer: systemtjänster, bastjänster och användartjänster. För att verifiera ramverkets prestanda utförde vi en rad experiment. Resultaten visar att 5GsatEC har en bredare täckning än marknätet 5G. Resultaten visar också att 5GsatEC har lägre fördröjning, lägre förlusthastighet och lägre bandbreddsförbrukning än 5G-satellitnätet. | Yan och al. I REF föreslås en ram för beräkning av 5G-satelliter. | 73,488,857 | SatEC: A 5G Satellite Edge Computing Framework Based on Microservice Architecture | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Computer Science', 'Medicine']} | 12,677 |
Vi illustrerar potentialen hos Massive MIMO för kommunikation med obemannade luftfartyg (UAV). Vi överväger ett scenario, där flera enkelantenn UAVs samtidigt kommunicerar med en markstation (GS) utrustad med ett stort antal antenner. Vi diskuterar särskilt kapacitetsprestandan för uppkoppling (UAV till GS) när det gäller siktlinjeförhållanden. Vi utvecklar en realistisk geometrisk modell, som innehåller en godtycklig orientering, av GS och UAV antennelement för att karakterisera polarisation missmatchning förlust, som inträffar på grund av rörelse och orientering av UAVs. En sluten form uttryck för en lägre gräns på ergodic rate för en maximal ratio kombinerar mottagare med uppskattad kanaltillstånd information härleds. Det optimala antennavståndet som maximerar den ergodiska hastighet som uppnås av en UAV bestäms också för enhetliga linjära och rektangulära matriser. Det visas att när UAVs är sfäriskt jämnt fördelade runt GS, den ergodiska hastigheten per UAV maximeras för en antennseparation som är lika med ett heltal multipel av en halv våglängd. Index Terms-Obemannade luftfarkoster, Massive MIMO, ergodisk kapacitet. | I REF studerar författarna möjligheterna att använda den massiva MIMO-tekniken för kommunikation med drönare. | 3,783,069 | Massive MIMO for Communications With Drone Swarms | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 12,678 |
Abstrakt. Moderna CNN-baserade objektdetektorer förlitar sig på att begränsa låda regression och icke-maximal dämpning för att lokalisera objekt. Sannolikheten för klassetiketter återspeglar naturligtvis klassificeringskonfident, medan lokaliseringskonfident saknas. Detta gör att ordentligt lokaliserade avgränsande lådor degenereras under iterativ regression eller till och med undertryckt under NMS. I tidningen föreslår vi IoU-Net lärande för att förutsäga IoU mellan varje upptäckt avgränsande låda och matchad mark-sanning. Nätverket förvärvar detta förtroende för lokalisering, vilket förbättrar NMS-förfarandet genom att bevara exakt lokaliserade avgränsade lådor. Dessutom föreslås en optimeringsbaserad begränsningsboxförfiningsmetod, där det förutsagda IoU formuleras som mål. Omfattande experiment på MS-COCO dataset visar effektiviteten av IoU-Net, samt dess kompatibilitet med och anpassningsförmåga till flera toppmoderna objekt detektorer. | IoU-Net REF introducerar en annan standalong gren för att förutsäga IoU mellan varje upptäckt avgränsande ruta och den matchade mark-truth, som genererar localization konfident för att ersätta klassificeringskonfident för icke-maximal suppression (NMS). | 51,888,961 | Acquisition of Localization Confidence for Accurate Object Detection | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 12,679 |
Abstract-Convex optimering är ett kraftfullt verktyg för resursfördelning och signalbehandling i trådlösa nätverk. Eftersom nättätheten förväntas öka drastiskt för att tillgodose den exponentiellt växande mobila datatrafiken, går problemen med optimering av prestanda in i en ny era som kännetecknas av en hög dimension och/eller ett stort antal begränsningar, vilket medför betydande design- och beräkningsutmaningar. I detta dokument presenterar vi en ny tvåstegsmetod för att lösa storskaliga konvexa optimeringsproblem för täta trådlösa kooperativa nätverk, som effektivt kan upptäcka ogenomförbarhet och njuta av modellering flexibilitet. I det föreslagna tillvägagångssättet omvandlas det ursprungliga storskaliga konvexa problemet till ett standardformat för konprogrammering i det första steget via matrisfyllning, som endast behöver kopiera problemparametrarna såsom kanalstatsinformation (CSI) och kvalitetskrav (QoS) till standardformulärets förlagsstrukturer. Förmågan att ge ogenomförbarhetscertifikat och möjliggöra parallell databehandling uppnås genom att lösa homogena självdual inbäddning av det ursprungliga dubbla paret i standardformuläret. I lösningsskedet används metoden för uppdelning av operatören, dvs. multiplikatorernas växelriktningsmetod (ADMM), för att lösa den storskaliga homogena inbäddningen av sig själv. Jämfört med andra ordningens metoder kan ADMM lösa storskaliga problem parallellt med blygsam noggrannhet inom rimlig tid. Simuleringsresultaten kommer att visa hur snabbt, skalbart och tillförlitligt det föreslagna ramverket är jämfört med de senaste modellerna och lösningarna. Index Terms-Dense trådlöst nätverk, storskalig optimering, matrisfyllning, operatör uppdelning metod, ADMM, homogen själv-dual inbäddning. | I REF, Shi et al. presenterade en tvåstegsmetod för att lösa storskaliga konvexa optimeringsproblem för täta trådlösa kooperativa nätverk, såsom C-RANs. | 2,514,646 | Large-Scale Convex Optimization for Dense Wireless Cooperative Networks | {'venue': 'IEEE Transactions on Signal Processing', 'journal': 'IEEE Transactions on Signal Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 12,680 |
Sammanfattning - Tillförlitlighetsanalys av feltoleranta datorsystem för kritiska applikationer kompliceras av flera faktorer. System som är utformade för att uppnå hög tillförlitlighet använder ofta höga nivåer av redundans, dynamisk redundanshantering och komplexa fel- och felåterställningstekniker. Detta papper beskriver dynamiska felträd modellering tekniker för att hantera dessa svårigheter. Tre avancerade feltoleranta datorsystem beskrivs, viz, en feltolerant parallellprocessor, ett uppdrag avioniksystem och en feltolerant hyperkub. Fault-tree modeller för deras analys presenteras. HARP (Hybrid Automatiserad Tillförlitlighet Förutsägare) är ett programvarupaket utvecklat vid Duke University och NASA Langley Research Center som kan lösa dessa felträd modeller. | Dynamiska felträd (DFT) utöka felträd för att integrera systemdynamik REF. | 62,470,247 | Dynamic fault-tree models for fault-tolerant computer systems | {'venue': None, 'journal': 'IEEE Transactions on Reliability', 'mag_field_of_study': ['Computer Science']} | 12,681 |
I detta dokument föreslår vi ett mycket enkelt nätverk för djupinlärning för bildklassificering som bygger på mycket grundläggande databehandlingskomponenter: 1) kaskad huvudkomponentanalys (PCA); 2) binär hashing; och 3) blockwise histogram. I den föreslagna arkitekturen används partnerskaps- och samarbetsavtalet för att lära sig flerstegsfilterbanker. Detta följs av enkel binär hashing och blockera histogram för indexering och pooling. Denna arkitektur kallas alltså PCA-nätverket (PCANet) och kan utformas och läras mycket enkelt och effektivt. För jämförelse och för att ge en bättre förståelse introducerar och studerar vi också två enkla varianter av PCANet: 1) RandNet och 2) LDANet. De delar samma topologi som PCANet, men deras kaskadfilter är antingen slumpmässigt utvalda eller inlärda från linjär diskriminant analys. Vi har i stor utsträckning testat dessa grundläggande nätverk på många referens visuell datauppsättningar för olika uppgifter, inklusive Labeled Faces in the Wild (LFW) för ansiktsverifiering; MultiPIE, Extended Yale B, AR, Facial Recognition Technology (FERET) datauppsättningar för ansiktsigenkänning; och MNIST för handskriven sifferigenkänning. Förvånansvärt nog, för alla uppgifter, en sådan till synes naiv PCANet-modell är i nivå med de state-of-the-art funktioner antingen prefixed, mycket handgjorda, eller noggrant lärt [av djupa neurala nätverk (DNN)]. Ännu mer förvånande, modellen sätter nya poster för många klassificeringsuppgifter på Extended Yale B, AR, och FERET datamängder och på MNIST variationer. Ytterligare experiment på andra offentliga datamängder visar också potentialen hos PCANet att fungera som en enkel men mycket konkurrenskraftig baslinje för texturklassificering och objektigenkänning. | Chan och Al. föreslår PCANet REF, som är en simpel djupt lärande neurala nätverk för bildklassificering för funktioner som bygger på grundläggande bearbetning, såsom PCA, binär hashing, och blockwise histogram. | 206,725,404 | PCANet: A Simple Deep Learning Baseline for Image Classification? | {'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 12,682 |
Abstrakt. Öron är en ny biometrisk med stor fördel genom att de verkar behålla sin form med ökad ålder. Alla automatiska biometriska system behöver registreras för att extrahera målområdet från bakgrunden. I öronbiometri är ingångarna ofta mänskliga huvudprofilbilder. Dessutom handlar öronbiometri om effekterna av partiell ocklusion främst orsakad av hår och örhängen. Vi föreslår en öroninskrivningsalgoritm baserad på att hitta den elliptiska formen av örat med hjälp av en Hough Transformation (HT) som uppstår tolerans mot buller och ocklusion. Robustheten förbättras ytterligare genom att man inför viss förkunskap. Vi bedömer vår registrering på två ansiktsprofil dataset; samt syntetisk ocklusion. | Arbab-Zavar och Nixon REF har föreslagit en inskrivningsteknik som utnyttjar ytterörats elliptiska form. | 15,495,798 | On shape-mediated enrolment in ear biometrics | {'venue': 'ISVC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,683 |
Vi anser att en symmetrisk slumpmässig gång på en ansluten graf, där varje kant är märkt med sannolikheten för övergång mellan de två angränsande hörnen. Den tillhörande Markov-kedjan har en enhetlig jämviktsfördelning; konvergenshastigheten till denna fördelning, dvs. blandningshastigheten i Markov-kedjan, bestäms av övergångsmatrisens näst största (i magnitud). I detta papper tar vi upp problemet med att tilldela sannolikheter till grafens kanter på ett sätt som minimerar den näst största magnituden eigen value, dvs. problemet med att hitta den snabbaste blandning Markov kedjan på grafen. Vi visar att detta problem kan formuleras som ett konvext optimeringsproblem, som i sin tur kan uttryckas som ett semidefinit program (SDP). Detta gör att vi enkelt kan beräkna (globalt) snabbaste blandning Markov kedja för alla grafer med ett blygsamt antal kanter (säg, 1000) med hjälp av standard numeriska metoder för SDPs. Större problem kan lösas genom att utnyttja olika typer av symmetri och struktur i problemet, och mycket större problem (säg 100000 kanter) kan lösas med hjälp av en subgradient metod som vi beskriver. Vi jämför den snabbaste blandning Markov kedjan med de som erhållits med hjälp av två vanliga heuristik: den maximala graden metod, och Metropolis-Hastings algoritm. För många av de aktuella exemplen är den snabbaste blandningen av Markov-kedjan betydligt snabbare än de som erhålls med hjälp av dessa heuristiska metoder. Vi härleder Lagrange dubbla av den snabbaste blandning Markov kedjeproblem, vilket ger en sofistikerad metod för att erhålla (arbiträrt bra) gränser på den optimala blandningshastigheten, samt optimala förhållanden. Slutligen beskriver vi olika förlängningar av metoden, inklusive en lösning på problemet med att hitta den snabbaste blandning reversibla Markov kedjan, på en fast graf, med en given jämviktsfördelning. | Med tanke på kunskapen om hela grafen föreslår REF en optimal lösning genom att uttryckligen minimera den näst största eigen value modulus (SLEM) av övergången sannolikhetsmatrisen. | 5,696,331 | Fastest Mixing Markov Chain on A Graph | {'venue': 'SIAM REVIEW', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 12,684 |
I detta arbete föreslås en ny metaheurist kallad Grey Wolf Optimizer (GWO) inspirerad av grå vargar (Canis lupus). GWO-algoritmen efterliknar ledarskapshierarkin och jaktmekanismen hos grå vargar i naturen. Fyra typer av grå vargar som alfa, beta, delta och omega används för att simulera ledarskapshierarkin. Dessutom genomförs de tre huvudstegen i jakten, sökandet efter byte, kretsandet av byten och angreppet på bytet. Algoritmen jämförs sedan med 29 välkända testfunktioner, och resultaten verifieras genom en jämförande studie med Partikelsvamoptimering (PSO), Gravitationell sökning Algoritm (GSA), Differentiell evolution (DE), Evolutionär programmering (EP) och Evolutionsstrategi (ES). Resultaten visar att GWO-algoritmen kan ge mycket konkurrenskraftiga resultat jämfört med dessa välkända meta-heuristiker. Papperet överväger också att lösa tre klassiska konstruktionsproblem (spännings-/kompressionsfjäder, svetsade balkar och tryckkärlskonstruktioner) och presenterar en verklig tillämpning av den föreslagna metoden inom optisk teknik. Resultaten av de klassiska konstruktionsproblemen och den verkliga tillämpningen visar att den föreslagna algoritmen är tillämplig på utmanande problem med okända sökytor. | Av en tillfällighet, Mirjali m.fl. REF föreslagna grå vargoptimizer (GWO) inspirerad av grå vargar 2014. | 15,532,140 | Grey Wolf Optimizer | {'venue': 'Adv. Eng. Softw.', 'journal': 'Adv. Eng. Softw.', 'mag_field_of_study': ['Computer Science']} | 12,685 |
Konvolutionella neurala nätverk (CNN) är i sig begränsade till modeller geometriska omvandlingar på grund av de fasta geometriska strukturer i sina byggmoduler. I detta arbete introducerar vi två nya moduler för att förbättra CNN:s omvandlingsmodelleringsförmåga, nämligen deformerbar konvolution och deformerbar RoI-poolning. Båda bygger på idén att utöka de rumsliga provtagningsplatserna i modulerna med ytterligare kompensationer och lära sig kompensationer från måluppgifterna, utan ytterligare övervakning. De nya modulerna kan enkelt ersätta sina vanliga motsvarigheter i befintliga CNN och kan enkelt tränas end-to-end med standardback-propagation, vilket ger upphov till deformerbara konvolutionsnätverk. Omfattande experiment bekräftar resultatet av vårt tillvägagångssätt. För första gången visar vi att lära sig tät rumslig omvandling i djupa CNNs är effektivt för sofistikerade vision uppgifter som objektdetektering och semantisk segmentering. Koden släpps på https://github.com | Särskilt Dai et al. REF föreslog att man skulle förbättra CNN:s omvandlingsmodelleringsförmåga genom att införa inlärbara kompensationer för att öka de rumsliga provtagningsplatserna inom funktionskartan. | 4,028,864 | Deformable Convolutional Networks | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 12,686 |
Vi studerar problemet med 3D-objektgenerering. Vi föreslår ett nytt ramverk, nämligen 3D Generative Adversarial Network (3D-GAN), som genererar 3D-objekt från ett probabilistiskt utrymme genom att utnyttja de senaste framstegen i volymkonvolutionella nätverk och generativa kontrariska nät. Fördelarna med vår modell är trefaldiga: För det första, användningen av ett kontradiktoriskt kriterium, istället för traditionella heuristiska kriterier, gör det möjligt för generatorn att fånga objektstrukturen implicit och syntetisera högkvalitativa 3D-objekt; för det andra, generatorn upprättar en kartläggning från ett lågdimensionellt probabilistiskt utrymme till utrymmet för 3D-objekt, så att vi kan ta prover på objekt utan en referensbild eller CAD-modeller, och utforska 3D-objektgrenröret; för det tredje, den adversariska discriminatorn ger en kraftfull 3D-form deskriptor som, lärt utan övervakning, har breda tillämpningar i 3D-objektigenkänning. Experiment visar att vår metod genererar högkvalitativa 3D-objekt, och våra oövervakade inlärda funktioner uppnår imponerande prestanda på 3D-objektigenkänning, jämförbar med de av övervakade inlärningsmetoder. | 3D-GAN REF utökar GAN till 3D-domän för att generera 3D-objekt silhuetter. | 3,248,075 | Learning a Probabilistic Latent Space of Object Shapes via 3D Generative-Adversarial Modeling | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 12,687 |
ABSTRACT e senaste boomen av AI har sett uppkomsten av många mänskligadator konversationssystem som Google Assistant, Microso Cortana, Amazon Echo och Apple Siri. Vi introducerar och formaliserar uppgiften att förutsäga frågor i konversationer, där målet är att förutsäga den nya frågan som användaren kommer att ställa, med tanke på det tidigare konversationssammanhanget. är uppgiften kan modelleras som en "sekvensmatchning" problem, där två sekvenser ges och målet är att lära sig en modell som kartlägger varje par av sekvenser till en matchande sannolikhet. Neurala matchande modeller, som antar djupa neurala nätverk för att lära sekvens representationer och matchande poäng, har en rad enorma forskningsintressen för informationssökning och naturligt språk bearbetning samhällen. I denna uppsats, vi rst studera neurala matchande modeller för den frågehämtning uppgift som har utforskats brett i litteraturen, medan eektiviteten hos neurala modeller för denna uppgift är relativt unstudied. Vi utvärderar vidare de neurala matchande modellerna i nästa frågeförutsägelse uppgift i konversationer. Vi har använt allmänt tillgängliga ora data och Ubuntu chattloggar i våra experiment. Våra utvärderingar undersöker potentialen hos neurala matchande modeller med representationsinlärning för frågehämtning och nästa frågeförutsägelse i samtal. Experimentella resultat visar att neurala matchande modeller presterar bra för båda uppgifterna. | Yang m.fl. REF undersökt förutsäga den nya frågan som användaren kommer att ställa med tanke på det tidigare konversationssammanhanget. | 26,061,366 | Neural Matching Models for Question Retrieval and Next Question Prediction in Conversation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 12,688 |
Abstract-Big data applikationer såsom i smarta elektriska nät, transport och fjärrmiljö övervakning omfattar geografiskt spridda sensorer som regelbundet skickar tillbaka information till centrala noder. I många fall är data från sensorer inte tillgänglig vid centrala noder med en frekvens som krävs för realtidsmodellering och beslutsfattande. Detta kan bero på de fysiska begränsningarna i överföringsnäten eller på att konsumenterna begränsar den frekventa överföringen av data från sensorer som finns i deras lokaler av säkerhets- och sekretessskäl. Sådana scenarier leder till partiella dataproblem och väcker frågan om datasannolikhet i big data applikationer. Vi beskriver en ny lösning på problemet med att göra kortsiktiga förutsägelser (upp till några timmar framåt) i avsaknad av realtidsdata från sensorer i Smart Grid. En viktig konsekvens av vårt arbete är att vi genom att använda realtidsdata från endast en liten del av inflytelserika sensorer kan göra förutsägelser för alla sensorer. På så sätt minskar vi kommunikations komplexiteten i överföringen av sensoriska data i Smart Grids. Vi använder verkliga elförbrukningsdata från smarta mätare för att empiriskt visa hur användbar vår metod är. Vår datauppsättning består av data som samlats in med 15-min intervall från 170 smarta meter i USC Microgrid under 7 år, totalt 41 697 600 datapunkter. | Aman m.fl. I Ref föreslogs en tvåstegslösning för att bygga upp en modell för förutsägelse av elförbrukningen för att ta itu med problemet med datasannolikhet i samband med smarta elnät. | 7,744,604 | Addressing data veracity in big data applications | {'venue': '2014 IEEE International Conference on Big Data (Big Data)', 'journal': '2014 IEEE International Conference on Big Data (Big Data)', 'mag_field_of_study': ['Computer Science']} | 12,689 |
pose Denna studie undersöker om rörelsetäthetskartor baserade på passiva infraröda (PIR) rörelsesensorer och den genomsnittliga tiden ut och den genomsnittliga densiteten per timme mått på densitetskartan är tillräckligt känsliga för att upptäcka förändringar i psykisk hälsa över tid. Metod Inom sensornätverket loggas data från PIR-rörelsesensorer som fångar rörelsehändelser när människor flyttar runt i hemmet. Om det sker kontinuerlig rörelse kommer sensorn att generera händelser med 7 sekunders mellanrum. Om den boende är mindre aktiv, kommer händelser att genereras mindre ofta. En webbapplikation visar data som aktivitetstäthetskartor som visar händelser per timme med timmar på den vertikala axeln och progressiva dagar på den horisontella axeln. Färg och intensitet ger texturala indikationer på tid som tillbringas utanför hemmet och aktivitetsnivå. Texturfunktioner från co-occurence-matrisen används för att fånga aktivitetens periodicitetsmönster (inklusive homogenitet, lokal variation och entropi) och kombineras med den genomsnittliga rörelsetätheten per timme och den genomsnittliga tiden hemifrån. Likheten mellan två olika densitetskartor representeras av ett tal som beräknas i funktionsutrymmet som avståndet från den ena kartan till den andra, eller ett mått på olikhet. Med en retrospektiv metod jämfördes täthetskartor med information om hälsobedömning (Geriatric Depression Scale, Mini Mental State Exam, och Short Form Health Survey-12) för att fastställa samstämmighet mellan förändringar i aktivitetsmönster och hälsoinformation. Ett fall för fallstudie metod, analyserade densitet kartor över 5 individer med identifierade psykiska hälsoproblem. Dessa densitetskartor granskades tillsammans med genomsnitten av tiden ut ur lägenheten per dag per timme och genomsnittlig densitet per timme för timmar i hemmet och mental hälsa bedömning poäng för att avgöra om det fanns aktivitetsförändringar och om aktivitetsmönster återspeglade förändringar i mentala hälsotillstånd. Resultat och diskussion Rörelsetäthetskartorna visar visuella förändringar i klientens aktivitet, inklusive dygnsrytm, tid hemifrån och allmän aktivitetsnivå (sedentary vs. puttering). Åtgärderna är tillräckligt känsliga, vilket ger ett genomsnitt av tiden ut ur lägenheten och genomsnittlig densitet per timme för timmar hemma som tyder på betydande förändring. Det finns belägg för kongruens med hälsobedömningsresultat. Denna pilotstudie visar att densitetskartor kan användas som ett verktyg för tidig sjukdomsdetektering. Resultaten visar att sensorteknik har potential att förstärka traditionella hälso- och sjukvårdsbedömningar och vårdsamordning. | Galambos m.fl. REF presenterade en studie baserad på att bygga en aktivitetstäthet karta inne i huset och analysera den tid som tillbringats hemifrån för att avgöra om det fanns några förändringar som återspeglade en förändring i människors psykiska hälsa. | 15,431,176 | Management of dementia and depression utilizing in-home passive sensor data | {'venue': 'Gerontechnology : international journal on the fundamental aspects of technology to serve the ageing society', 'journal': 'Gerontechnology : international journal on the fundamental aspects of technology to serve the ageing society', 'mag_field_of_study': ['Psychology', 'Medicine']} | 12,690 |
Abstrakt. Med stora dataset såsom länkade öppna data finns det ett behov av mer användarvänliga gränssnitt som kommer att föra fördelarna med dessa data närmare de casual användare. Flera färska studier har visat att användaren föredrar Natural Language Interfaces (NLI) jämfört med andra. Även om många NLI till ontologier har utvecklats, de som har rimliga prestanda är domänspecifika och tenderar att kräva anpassning för varje ny domän som, ur en utvecklares perspektiv, gör dem dyra att underhålla. Vi presenterar vårt system FREyA, som kombinerar syntaktisk tolkning med kunskap kodad i ontologier för att minska anpassningsarbetet. Om systemet misslyckas med att automatiskt härleda ett svar, kommer det att generera klargörande dialogrutor för användaren. Användarens val sparas och används för att träna systemet för att förbättra dess prestanda över tid. FREyA utvärderas med hjälp av Mooney Geoquery dataset med mycket hög precision och recall. | I REF-systemet FREyA presenteras (Natural Language Interfaces to ontologies). | 163,253 | Natural Language Interfaces to Ontologies: Combining Syntactic Analysis and Ontology-based Lookup through the User Interaction | {'venue': 'IN: PROCEEDINGS OF THE 7TH EXTENDED SEMANTIC WEB CONFERENCE (ESWC 2010). LECTURE NOTES IN COMPUTER SCIENCE', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,691 |
Abstract-Body område nätverk (BANs), som hänvisar till inbyggda trådlösa system i, på och runt kroppar, förväntas ta en viktig roll för hälsa, fritid, sport, och alla aspekter av vårt dagliga liv. I många fall, flera BAN samexisterar i ett litet område, vilket resulterar i mycket stark inter-BAN störningar, som allvarligt stör intra-BAN kommunikationer. Målet med detta dokument är att minska inter-BAN störningar genom kooperativ schemaläggning, vilket ökar paket mottagningsfrekvensen (PRR) för intra-BAN kommunikation. Kooperativ schemaläggning här är uppdelad i två delproblem: enkel-BAN schemaläggning som ett uppdragsproblem och multi-BAN samtidig schemaläggning som ett spel. För det första underproblemet föreslås en algoritm med låg komplexitet, schemaläggning av hästkapplöpningar, som uppnår nästan optimal PRR för den BAN som utför schemaläggningen. För det andra underproblemet bevisar vi förekomsten av en uppsättning blandad strategi Nash Equilibria (MSNE). Sedan föreslår vi ett distribuerat program för kooperativ planering, som effektivt uppnår högre PRR än MSNE utan att försämra rättvisan. | Ett distribuerat samarbetsschema studerades i REF för att effektivt uppnå hög mottagningshastighet för paket. | 17,771,444 | Cooperative Scheduling for Coexisting Body Area Networks | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 12,692 |
Abstract-Vi presenterar en ny teknik, automatisk inmatning upprätande, och en prototyp implementering, SOAP. SOAP lär sig en uppsättning begränsningar som kännetecknar typiska indata som en ansökan är mycket sannolikt att behandla korrekt. När SOAP ges en atypisk inmatning som inte uppfyller dessa begränsningar korrigerar den automatiskt indatan (dvs. ändrar indatan så att den uppfyller de inlärda begränsningarna). Målet är att automatiskt omvandla potentiellt farliga ingångar till typiska ingångar som programmet är mycket sannolikt att bearbeta korrekt. Våra experimentella resultat visar att, för en uppsättning av referensprogram (Google Picasa, ImageMagick, VLC, Swfdec och Dillo), detta tillvägagångssätt effektivt omvandlar skadliga ingångar (som framgångsrikt utnyttja sårbarheter i programmet) till godartade ingångar som ansökan behandlar korrekt. Dessutom visar en manuell kodanalys att om en insats uppfyller de inlärda begränsningarna är den oförmögen att utnyttja dessa sårbarheter. Vi presenterar också resultaten av en användarstudie som utformats för att utvärdera den subjektiva perceptuella kvaliteten på utgångar från godartade men atypiska ingångar som automatiskt har korrigerats av SOAP för att överensstämma med de inlärda begränsningarna. Särskilt, Vi fick godartade ingångar som bryter mot inlärda begränsningar, använde vår indata likriktare för att få rättade ingångar, sedan betalade Amazon Mekaniska Turk-användare för att ge sin subjektiva kvalitativa uppfattning om skillnaden mellan utdata från de ursprungliga och rättade ingångar. Resultaten visar att korrigering ofta kan bevara mycket, och i många fall alla, av de önskvärda uppgifterna i den ursprungliga inmatningen. | Slutligen, SOAP heuristically konverterar skadliga ingångar till godartade ingångar REF så att en ansökan kan fortfarande returnera partiella (även om ibland inkonsekvent) resultat. | 12,124,887 | Automatic input rectification | {'venue': "ICSE '12", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,693 |
Trots mer än ett decennium av experimentellt arbete i multi-robotsystem har viktiga teoretiska aspekter av multi-robotsamordningsmekanismer hittills i stort sett varit obehandlade. För att ta itu med denna fråga fokuserar vi på problemet med multi-robot uppgift allokering (MRTA). Det mesta arbetet med MRTA har varit ad hoc och empiriskt, och många samordningsarkitekturer har föreslagits och validerats på ett proof-of-concept-sätt, men sällan analyserats. Med målet att skapa objektiv grund för detta viktiga forskningsområde presenterar vi en formell studie av MRTA-problem. En domänoberoende taxonomi av MRTA-problem ges, och det visas hur många sådana problem kan ses som fall av andra, välstuderade, optimeringsproblem. Vi visar hur relevant teori från verksamhetsforskning och kombinatorisk optimering kan användas för analys och ökad förståelse av befintliga tillvägagångssätt för uppgiftstilldelning, samt för att visa hur samma teori kan användas i syntesen av nya tillvägagångssätt. | Gerkey och Mataric ger en detaljerad taxonomi för uppgift allokering i multi-robotsystem REF. | 61,299,428 | A Formal Analysis and Taxonomy of Task Allocation in Multi-Robot Systems | {'venue': None, 'journal': 'The International Journal of Robotics Research', 'mag_field_of_study': ['Computer Science']} | 12,694 |
Abstrakt. I detta dokument föreslås ett nytt ramverk för bildsegmentering genom en enhetlig modellbaserad och pixeldriven integrerad grafisk modell. Förkunskaper uttrycks genom deformation av en diskret modell som består av att sönderdela formen av intresse i en uppsättning av högre ordning cliques (triplets). Sådan nedbrytning gör det möjligt att införa regiondriven bildstatistik samt pose-invariant (dvs. översättning, rotation och skala) begränsningar vars ackumulering inför globala deformation begränsningar på modellen. Regionala trianglar är förknippade med bildpunkter märkning som syftar till att skapa konsekvens mellan modellen och bildutrymmet. Den föreslagna formuleringen är pose-invariant, kan integrera regional statistik på ett naturligt och effektivt sätt samtidigt som man kan ta fram lösningar som inte är observerade under utbildningen. Det utmanande problemet med taggad hjärt MR-bildsegmentering används för att visa metodens prestandapotential. | REF föreslog en pose-invariant pixel-märkning segmentering metod genom att införliva en diskret form modell via en uppsättning högre ordning klichéer. | 10,775,802 | Joint Model-Pixel Segmentation with Pose-invariant Deformable Graph-Priors | {'venue': 'Medical image computing and computer-assisted intervention : MICCAI ... International Conference on Medical Image Computing and Computer-Assisted Intervention', 'journal': 'Medical image computing and computer-assisted intervention : MICCAI ... International Conference on Medical Image Computing and Computer-Assisted Intervention', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 12,695 |
Abstract-Vi presenterar komposition teorem för säkerhetsprotokoll, att komponera en nyckel utbyte protokoll och en symmetrisk nyckel protokoll som använder den utbytta nyckeln. Våra resultat bygger på beräkningsmodellen för kryptografi och anges inom ramen för verktyget CryptoVerif. De stöder viktiga utbytesprotokoll som garanterar injicering eller icke-injektiv autentisering. De tillåter också slumpmässiga orakel som delas mellan de sammansatta protokollen. Så vitt vi vet är de de första kompositionsteoremen för nyckelutbyte som anges för ett verifieringsverktyg för beräkningsprotokoll, och även de första som tillåter sådan flexibilitet. Som fallstudie tillämpar vi våra kompositionsteorem på ett bevis på TLS 1.3 Draft-18. Detta arbete fyller en lucka i ett tidigare dokument som informellt kräver ett kompositionsbevis för TLS 1.3, utan att formellt motivera det. | I REF, författarna presenterar komposition teorem för säkerhetsprotokoll, att komponera en nyckel utbyte protokoll och ett symmetriskt nyckelprotokoll som använder den utbytta nyckeln. | 51,979,199 | Composition Theorems for CryptoVerif and Application to TLS 1.3 | {'venue': '2018 IEEE 31st Computer Security Foundations Symposium (CSF)', 'journal': '2018 IEEE 31st Computer Security Foundations Symposium (CSF)', 'mag_field_of_study': ['Computer Science']} | 12,696 |
Abstrakt. Allt större ansträngningar görs för att tillhandahålla metoder för utveckling av agentbaserade system. Medvetenheten har ökat om att dessa är nödvändiga för att utveckla högkvalitativa agentsystem. Under de senaste åren har ett antal förslag lagts fram. Utifrån våra erfarenheter hävdar vi att en fullständig utvärdering av metoder inte kan göras utan att man överväger målplattformar, eftersom skillnaderna mellan tillgängliga genomföranden är alltför grundläggande för att ignoreras. För att göra en lämplig jämförelse presenterar vi en flexibel utvärderingsram som tar hänsyn till plattformsspecifika kriterier. En del av denna ram är ett förfarande för att ta fram relevanta kriterier från de utvärderade plattformarna och metoderna. I kombination med en uppsättning plattformsberoende och oberoende kriterier möjliggör vårt ramverk en utvärdering av metodernas lämplighet med avseende på plattformar. Till följd av detta kan man också undersöka om metoder är lämpliga för en enskild plattform eller omvänt för flera plattformar för en enskild metod. För att visa nyttan av vårt förslag utvärderar vi lämpligheten av olika metoder för en t.ex. plattform. | I dokumentet Ref beskrevs en ram för att hjälpa till att utvärdera lämpliga utvecklingsmetoder för agentbaserade system med avseende på plattformar. | 327,963 | Evaluation of agent-oriented software methodologies: Examination of the gap between modeling and platform | {'venue': 'Agent Oriented Software Engineering (AOSE', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']} | 12,697 |
En viktig uppgift för finkornig känsloanalys av produktrecensioner är att extrahera produktaspekter eller funktioner som användarna har uttryckt åsikter om. Detta dokument fokuserar på övervakad utvinning av aspekter med hjälp av djupt lärande. Till skillnad från andra mycket sofistikerade övervakade djupt lärande modeller, föreslår detta dokument en ny men ändå enkel CNN modell 1 med två typer av förtränade inbäddningar för aspekt extraktion: allmänna ändamål inbäddningar och domänspecifika inbäddningar. Utan att använda någon extra tillsyn uppnår denna modell förvånansvärt bra resultat, outpresterande toppmoderna sofistikerade befintliga metoder. Såvitt vi vet är detta dokument det första som rapporterar sådana dubbla inbäddningar baserade CNN-modell för aspektextrahering och uppnår mycket goda resultat. | REF använder en CNN-modell för att extrahera aspekter. | 44,009,215 | Double Embeddings and CNN-based Sequence Labeling for Aspect Extraction | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 12,698 |
Ökat intresse för införandet av cloud computing har utsatt det för cyberattacker. En av dessa är distribuerad överbelastning (DDoS) attack som riktar sig mot molnets bandbredd, tjänster och resurser för att göra det otillgängligt för både molnleverantörer och användare. På grund av omfattningen av trafiken som behöver bearbetas, datautvinning och maskininlärning algoritmer har föreslagits för att klassificera normala paket från en anomali. Feature val har också identifierats som en förbearbetning fas i moln DDoS attack försvar som potentiellt kan öka klassificering noggrannhet och minska beräknings komplexitet genom att identifiera viktiga funktioner från den ursprungliga datauppsättningen, under övervakad inlärning. I detta arbete föreslår vi en ensemblebaserad multifilterfunktionsvalsmetod som kombinerar utdata från fyra filtermetoder för att uppnå ett optimalt urval. En omfattande experimentell utvärdering av vår föreslagna metod utfördes med hjälp av intrång detektionsriktmärke dataset, NSL-KDD och beslut trädklassning. Resultatet visar att vår föreslagna metod effektivt minskade antalet funktioner från 41 till 13 och har en hög detektionshastighet och klassificeringsnoggrannhet jämfört med andra klassificeringsmetoder. | Dessutom föreslog de också en Ensemble-baserad multi-filter funktion val metod för att upptäcka DDoS attacker i cloud computing REF. | 17,352,259 | Ensemble-based Multi-Filter Feature Selection Method for DDoS Detection in Cloud Computing | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 12,699 |
Förskolade språkmodeller som BERT har visat sig vara mycket effektiva när det gäller behandling av naturligt språk (NLP). Den stora efterfrågan på datorresurser vid utbildning av sådana modeller hindrar dock att de tillämpas i praktiken. För att lindra denna resurshunger i storskalig modellutbildning föreslår vi en Patient Knowledge Destillation metod för att komprimera en ursprunglig stor modell (lärare) till en lika effektiv lätt grund nätverk (student). Olika från tidigare kunskap destillationsmetoder, som endast använder utdata från det sista lagret av lärarnätverket för destillation, lär sig vår studentmodell tålmodigt från flera mellanliggande skikt av lärarmodellen för inkrementell kunskapsextraktion, enligt två strategier: (i) PKD-Sista: lärande från de sista k-lagren; och (ii) PKD-elev: lärande från varje k-lager. Dessa två patientdestilleringsprogram gör det möjligt att utnyttja rik information i lärarens dolda lager, och uppmuntrar studentmodellen att tålmodigt lära av och efterlikna läraren genom en flerskiktsdestilleringsprocess. Empiriskt, Detta leder till förbättrade resultat på flera NLP uppgifter med betydande vinst i utbildning effektivitet, utan att offra modellen noggrannhet. | Patientkunskap Destillation (PKD) REF konstruerar flera destillationsförluster mellan modulen dolda tillstånd lärare och studentmodeller. | 201,670,719 | Patient Knowledge Distillation for BERT Model Compression | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 12,700 |
Abstrakt. Vi föreslår en ny Connectionist Text Proposition Network (CTPN) som exakt lokaliserar textlinjer i naturlig bild. CTPN upptäcker en textrad i en sekvens av textförslag i finskala direkt i konvolutionella funktionskartor. Vi utvecklar en vertikal ankarmekanism som tillsammans förutser placering och text/icke-textpoäng för varje förslag med fast bredd, vilket avsevärt förbättrar lokaliseringsnoggrannheten. De sekventiella förslagen är naturligt sammankopplade med ett återkommande neuralt nätverk, som sömlöst införlivas i det konvolutionella nätverket, vilket resulterar i en end-to-end trainingable modell. Detta gör det möjligt för CTPN att utforska rik kontextinformation av bild, vilket gör det kraftfullt att upptäcka extremt tvetydig text. CTPN fungerar tillförlitligt på flerskalig och flerspråkig text utan vidare efterbehandling, vilket avviker från tidigare bottom-up-metoder som kräver flerstegs postfiltrering. Den uppnår 0,88 och 0,61 F-mått på riktmärkena för ICDAR 2013 och 2015 och överträffar de senaste resultaten [8, 35] med stor marginal. CTPN är beräkningseffektiv med 0,14s/bild, genom att använda den mycket djupa VGG16 modellen [27]. Online demo finns på: http://textdet.com/. | Tian et.al REF föreslog ett Connectionist Text Proposition Network som detekterar text genom att förutsäga sekvensen av finskaliga textkomponenter. | 14,728,290 | Detecting Text in Natural Image with Connectionist Text Proposal Network | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 12,701 |
ABSTRACT I Sensor-MAC (S-MAC) protokoll, en nod som ligger mellan två eller flera virtuella kluster kallas boarder nod som antar olika lyssna och sova scheman. Dessa gränsnoder förbrukar en stor mängd energi när de byter till lyssnande läge ofta på grund av diversifierad schemaläggning som i tur och ordning minskar livslängden för det trådlösa sensornätverket. I detta dokument föreslogs en ny enhetlig schemaläggningsmetod för att lösa det diversifierade schemaläggningsproblemet för gränsnoder i S-MAC och utvärderade resultatet genom simulering. Det har observerats från de simulerade resultaten att gränsnoder har förbrukat mindre ström vid stora nät såväl som små nät. | Ref-studien avser gränsnoder för trådlösa sensornätverk. | 62,401,537 | ENERGY EFFICIENT SCHEDULING ALGORITHM FOR S-MAC PROTOCOL IN WIRELESS SENSOR NETWORK | {'venue': None, 'journal': 'International Journal of Wireless & Mobile Networks', 'mag_field_of_study': ['Computer Science']} | 12,702 |
I detta dokument presenteras ett nytt tillvägagångssätt för att identifiera och undanröja felmärkta utbildningsorgan för övervakat lärande. Målet med detta tillvägagångssätt är att förbättra klassi katjonsäkerheter som skapas genom att lära algoritmer genom att förbättra kvaliteten på träningsdata. Vår strategi använder en uppsättning inlärningsalgoritmer för att skapa classi ers som fungerar som buller lters för träningsdata. Vi utvärderar enstaka algoritmer, majoritetsröster och konsensus om vi datauppsättningar som är benägna att märka fel. Våra experiment visar att ltering väsentligt förbättrar klassi katjon noggrannhet för bullernivåer upp till 30%. En analytisk och empirisk utvärdering av precisionen i vår strategi visar att samförståndet är konservativt på att kasta bort bra data på bekostnad av att behålla dåliga data och att majoriteten av dem är bättre på att upptäcka dåliga data på bekostnad av att kasta bort bra data. Detta tyder på att konsensus är att föredra för situationer där det finns knapphändiga uppgifter, medan majoritetsomröstningar är att föredra för situationer med ett överflöd av uppgifter. | En enkel metod för att hantera bullriga etiketter är att ta bort prover med misstänkta etiketter från träningsdata REF. | 15,489,782 | Identifying Mislabeled Training Data | {'venue': 'Journal Of Artificial Intelligence Research, Volume 11, pages 131-167, 1999', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,703 |
Uppmärksamhetsbrist hyperaktivitetsstörning (ADHD), en av de vanligaste psykiatriska störningarna, kännetecknas av instabila responsmönster över flera kognitiva domäner. De neurala mekanismer som förklarar dessa karakteristiska egenskaper förblir dock oklara. Med hjälp av en beräkningsbaserad multilevel strategi, föreslår vi att ADHD orsakas av nedsatt vinst modulering i system som genererar denna fenotypiska ökade beteendevariabilitet. Med Marrs tre analysnivåer som ett heuristiskt ramverk fokuserar vi på detta variabla beteende, hur det kan förklaras algoritmiskt och hur det kan implementeras på en neural nivå genom katekolaminpåverkan på kortikostriala loopar. Denna beräkningsmässiga, multilevel, förhållningssätt till ADHD ger en ram för att överbrygga klyftor mellan beskrivningar av neuronal aktivitet och beteende, och ger testerbara förutsägelser om nedsatta mekanismer. Behovet av en bättre neurocomputational förståelse av ADHD Att upprätthålla ens mentala fokus är svårt, särskilt när man läser en torr och komplicerad papper. Plötsligt vill du hellre städa köket eller surfa på Internet. Ändå håller de flesta människor fokus och håller fast vid den uppgift som ligger framför oss. Neurobiologiskt föreslår vi att de katekolaminerga hjärnsystemen (se Ordlista) modulerar uppmärksamheten [1] genom att öka neuralvinsten och därmed undertrycka kognitiva byten [2] (ruta 1). För 5 % av befolkningen störs förmågan att fokusera i en omfattning som i hög grad påverkar deras dagliga funktion. Många diagnostiseras med ADHD [3], en utvecklingspsykiatrisk sjukdom som anses uppstå delvis av en genetisk sårbarhet [4]. ADHD kännetecknas av ouppmärksamhet, hyperaktivitet och/eller impulsivitet [5] och dess negativa effekter på en persons yrkesframgång, välbefinnande och hälsorisker (t.ex. vid missbruk [6]) gör det viktigt att förstå denna störning. Forskningen om ADHD har intensifierats sedan början av 1990-talet [6] utan tydliga kandidatgener eller hjärnresponsmönster som förutsäger att sjukdomen har identifierats. Det finns ingen förenande teori som förklarar ADHD:s patofysiologi. De nuvarande klassificeringskriterierna kommer sannolikt att ge upphov till flera hjärnsjukdomar med ett liknande beteendeuttryck inom beteckningen "ADHD". Här använder vi en multilevel strategi för att föreslå att ADHD på ett avgörande sätt innebär en försämring av neural förstärkning modulering leder till olämpligt varierande beteende. Genom att använda Marrs tre analysnivåer [7] (ruta 2) visar vi hur det är möjligt att översätta beteendefynd till trender ADHD är en av de vanligaste psykiska störningarna under barndomen, men de neurokognitiva mekanismerna bakom det förblir svårfångade. Beteendemässigt är ADHD bäst kännetecknas av ökad variation över flera kognitiva domäner och tidsplaner. Genom att använda Marrs tre nivåer av analys, visar vi hur försämringar i neural vinst kan förklara ADHD avvikelser, spänner från beteende till neural aktivitet. På en algoritmisk och implementationsnivå visar vi hur ökad variabilitet kan orsakas av neurala försämringar, och hur den kan modelleras med hjälp av förstärkande inlärning och corticostriatal nätverksmodeller. Vi visar också hur dessa nivåer kan kopplas till försämringar i katekolaminsystem (dopamin och noradrenalin). | Med hjälp av en beräkningsbaserad multilevel strategi, en studie som presenteras i REF tyder på att ADHD är associerad med nedsatt vinst modulering i system som genererar ökad beteendevariation. | 3,519,563 | Computational Psychiatry of ADHD: Neural Gain Impairments across Marrian Levels of Analysis | {'venue': 'Trends in Neurosciences', 'journal': 'Trends in Neurosciences', 'mag_field_of_study': ['Psychology', 'Medicine']} | 12,704 |
För att stödja framväxande övervaknings- och kontrolltillämpningar i realtid är beräkningsresultatens aktualitet av avgörande betydelse för mobila datorsystem (MEC). Vi föreslår ett prestandamått som kallas ålder för uppgift (AoT) baserat på begreppet ålder av information (AoI), för att utvärdera tidsvärdet av beräkningsuppgifter. I detta dokument överväger vi ett system som består av en enda MEC-server och en mobil enhet som kör flera applikationer. Vi studerar ett åldersminimeringsproblem genom att gemensamt överväga schemaläggning, beräkning av avlastning och energiförbrukning. För att lösa problemet effektivt föreslår vi en lätt uppgift schemaläggning och beräkning offloading algoritm. Genom prestationsutvärdering visar vi att vår föreslagna åldersbaserade lösning är konkurrenskraftig jämfört med traditionella strategier. Index Terms-Mobile-edge computing (MEC), uppgiftsåldern (AoT), uppgift schemaläggning, beräkning offloading. | I REF föreslog författarna ett prestandamått kallat uppgiftsålder (AoT) för att utvärdera tidsvärdet av beräkningsuppgifter. | 167,217,337 | Age Based Task Scheduling and Computation Offloading in Mobile-Edge Computing Systems | {'venue': '2019 IEEE Wireless Communications and Networking Conference Workshop (WCNCW)', 'journal': '2019 IEEE Wireless Communications and Networking Conference Workshop (WCNCW)', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 12,705 |
Vi föreslår ett helt homomorphic krypteringssystem - dvs. ett system som gör det möjligt att utvärdera kretsar över krypterade data utan att kunna dekryptera. Vår lösning kommer i tre steg. För det första ger vi ett allmänt resultat - att, för att konstruera ett krypteringssystem som tillåter utvärdering av godtyckliga kretsar, räcker det med att konstruera ett krypteringssystem som kan utvärdera (lätt utökade versioner av) sin egen dekrypteringskrets; vi kallar ett system som kan utvärdera dess (augmented) dekrypteringskrets bootstrappable. Därefter beskriver vi en allmän nyckel krypteringssystem med hjälp av idealiska gitter som är nästan bootstrappable. Lattice-baserade kryptosystem har vanligtvis dekrypteringsalgoritmer med låg krets komplexitet, ofta domineras av en inre produktberäkning som är i NC1. Dessutom ger idealiska gitter både additiv och multiplicativ homomorphisms (modulo en offentlig nyckel ideal i en polynomial ring som representeras som en lattice), som behövs för att utvärdera allmänna kretsar. Tyvärr är vårt ursprungliga system inte riktigt bootstrappable - dvs. det djup som systemet kan korrekt utvärdera kan vara logaritmisk i lattice-dimensionen, precis som djupet av dekrypteringskretsen, men den senare är större än den förra. I det sista steget visar vi hur man ändrar systemet för att minska djupet på dekrypteringskretsen, och därmed få en bootstrappable krypteringsschema, utan att minska det djup som systemet kan utvärdera. Abstractly, vi åstadkommer detta genom att göra det möjligt för encrypter att starta dekrypteringsprocessen, lämnar mindre arbete för decrypter, ungefär som servern lämnar mindre arbete för decrypter i en server-stödd cryptosystem. | Under 2009 införde Gentry REF för första gången det helt homomorfa krypteringssystemet. | 947,660 | Fully homomorphic encryption using ideal lattices | {'venue': "STOC '09", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,706 |
Genom detta dokument införs ett nytt tillvägagångssätt för uppgiftsinsamling inom ramen för fotgängarspårning, genom att man inför ett tvåstegsprogram för lärande för att matcha par av upptäckter. För det första tränas ett Siamese convolutional neural network (CNN) för att lära sig deskriptorer som kodar lokala spatio-temporala strukturer mellan de två indatabildsplåster, agregerande pixelvärden och optisk flödesinformation. För det andra kombineras en uppsättning kontextuella egenskaper som härrör från positionen och storleken på de jämförda inmatningsplåstren med CNN-utgången med hjälp av en gradienthöjande klassificering för att generera den slutliga matchningsannolikheten. Denna inlärningsmetod valideras med hjälp av en linjär programmeringsbaserad multi-person tracker som visar att även en enkel och effektiv tracker kan överträffa mycket mer komplexa modeller när den matas med våra lärda matchande sannolikheter. Resultat på offentligt tillgängliga sekvenser visar att vår metod uppfyller toppmoderna standarder i flera personer spårning. | I Ref föreslår till exempel författarna att man lär sig funktioner med hjälp av en siamesiska CNN för multimodala ingångar (bilder och optiska flödeskartor). | 9,697,357 | Learning by tracking: Siamese CNN for robust target association | {'venue': 'Computer Vision and Pattern Recognition Conference Workshops (CVPRW). DeepVision: Deep Learning for Computer Vision. 2016', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 12,707 |
I detta dokument introducerar vi den nya uppgiften med "ordepok deambiguation", definieras som problemet med att identifiera förändringar i ordanvändning över tid. Genom experiment med ordanvändningsexempel som samlats in från tre stora tidsperioder (1800, 1900, 2000) visar vi att uppgiften är genomförbar, och betydande skillnader kan observeras mellan ordförekomster under olika tidsperioder. | Nyligen, i REF, författarna introducerade uppgiften att identifiera förändringar i ordanvändning över tid, disambiguing epoken på ordnivå. | 7,857,951 | Word Epoch Disambiguation: Finding How Words Change Over Time | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,708 |
Flera rotationsbaserade transformation (MRBT) infördes nyligen för att mildra den apriori-kunskap oberoende komponentanalys (AK-ICA) attack på rotation-baserad transformation (RBT), som används för integritetsbevarande data kluster. MRBT har visat sig mildra AK-ICA-attacken men på bekostnad av datanyttan genom att inte möjliggöra konventionell klusterbildning. I detta dokument utökar vi MRBT-systemet och inför ett system med utökad rotationsbaserad omvandling (ARBT) som utnyttjar linearitet i omvandlingen och som både mildrar AK-ICA-attacken och möjliggör konventionell klusterbildning i dataundergrupper som omvandlas med MRBT. För att demonstrera den beräkningsmässiga genomförbarhet aspekten av ARBT tillsammans med RBT och MRBT, utvecklar vi en verktygslåda och använder den för att empiriskt jämföra de olika systemen för integritetsbevarande data kluster baserat på datatransformering i termer av deras overhead och integritet. | Förstärkt rotationsbaserad omvandling föreslogs i REF. | 14,415,015 | Augmented Rotation-Based Transformation for Privacy-Preserving Data Clustering | {'venue': 'ETRI Journal, vol.32, no.3, June 2010, pp.351-361', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,709 |
Vi föreslår en ny kaskad regressionsram för ansiktsjustering baserad på ett djupt konvolutionellt neuralt nätverk (CNN). I de flesta befintliga kaskad regressionsmetoder erhålls de formindexerade egenskaperna antingen genom handgjorda visuella deskriptorer eller genom att luta sig från de grunda modellerna. Denna inställning kan vara underoptimal för ansiktsinställningsuppgiften. För att lösa detta problem föreslår vi en end-toend CNN-arkitektur för att lära sig mycket diskriminerande formindexerade funktioner. För det första kodar vår djupa arkitektur bilden till högnivåfunktionskartor i samma storlek på bilden via tre huvudoperationer: convolution, pooling och dekonvolution. Sedan föreslår vi "Shape-Indexed Pooling" för att extrahera de djupa dragen från dessa hög nivå deskriptorer. Vi förfinar formen genom sekventiella regressioner genom att använda de djupformsindexerade funktionerna, som visar enastående prestanda. Vi föreslår också att lära sig sannolikhetsmasken för varje landmärke som kan användas för att välja initiering från formen utrymme. Omfattande utvärderingar av flera referensdatauppsättningar visar att den föreslagna djupa ramen uppvisar betydande förbättringar jämfört med de senaste metoderna. | REF föreslår en ny kaskad regressionsram för ansiktsjustering baserad på ett djupt konvolutionellt neuralt nätverk. | 17,057,501 | Deep Cascaded Regression for Face Alignment | {'venue': None, 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 12,710 |
Abstract-This paper presents a real-time Human detection algoritm based on HOG (Histogram of Oriented Gradients) features and SVM (Support Vector Machine) architecture. Motion detektion används för att extrahera rörliga regioner, som kan skannas genom skjutfönster; att upptäcka flytta region kan subtrahera onödiga skjutfönster av statiska bakgrundsområden under övervakningsförhållanden, då detektion effektivitet kan förbättras. Varje skjutfönster betraktas som en enskild bildregion och HOG-funktioner beräknas som klassificerade eigenvectors. Äntligen kan de upptäckta videoobjekten kategoriseras i fördefinierade grupper av människor och andra objekt genom att använda SVM-klassificerare. Experimentella resultat från realtidsvideo tillhandahålls som visar metodens effektivitet. | Hou REF införde en snabb metod för detektering och klassificering av människor med hjälp av HOG-funktioner och klassificering av Support Vector Machine (SVM). | 2,251,877 | Fast Human Detection Using Motion Detection and Histogram of Oriented Gradients | {'venue': 'JCP', 'journal': 'JCP', 'mag_field_of_study': ['Computer Science']} | 12,711 |
Vi visar att om något antal variabler tillåts att vara samtidigt och självständigt randomiserade i något experiment, log 2 (N ) + 1 experiment är tillräckliga och i värsta fall nödvändigt för att bestämma orsakssambandet mellan N ≥ 2 variabler när inga latenta variabler, ingen urvalsfördel och inga återkopplingscykler finns. För alla K, 0 < K < 1 2 N ger vi en övre gräns för antalet experiment som krävs för att bestämma orsaksstruktur när varje experiment samtidigt randomiserar K-variabler. För stora N, dessa gränser är betydligt lägre än N - 1 bundet krävs när varje experiment randomiserar högst en variabel. För k max < N 2 visar vi att (N kmax −1)+ N 2kmax log 2 (k max ) experiment är tillräckliga och i värsta fall nödvändiga. Vi erbjuder en gissning om det minimala antalet experiment som i värsta fall är tillräckliga för att identifiera alla orsakssamband mellan N observerade variabler som är en delmängd av hörnen i en DAG. | I REF infördes begränsningen av antalet variabler som intervenerade i varje försök. | 8,258,063 | On the Number of Experiments Sufficient and in the Worst Case Necessary to Identify All Causal Relations Among N Variables | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 12,712 |
Denna uppsats utforskar forskningsfrågan och metodiken i en frågefokuserad multidokumentsammanfattning. Med tanke på dess möjliga applikationsområde är Web, är beräkningen tydligt uppdelad i offline och online-uppgifter. Vid första förbehandlingsfasen konstrueras ett dokumentdiagram offline, där noderna i princip är punkter i dokumenten och kantpoäng definieras som korrelationsmåttet mellan noderna. Vid frågestunden, med tanke på en uppsättning nyckelord, tilldelas varje nod en frågeberoende poäng, den ursprungliga grafen expanderas och sökordssökning utförs över grafen för att hitta ett spännträd som identifierar relevanta noder som uppfyller nyckelorden. Punktbeställning av utdatasammanfattningen tas om hand så att utmatningen ser sammanhängande ut. Även om alla exempel, som visas i denna uppsats är baserade på engelska språket, visar vi att vårt system är användbart för att generera frågeberoende sammanfattning för icke-engelska språk också. Vi presenterar också utvärderingen av systemet. | I Ref-arbetet identifieras det minsta spännträd som identifierats i dokumentgrafen som sammanfattning. | 16,908,005 | A Document Graph Based Query Focused Multi-Document Summarizer | {'venue': 'Proceedings of the 2nd workshop on Cross Lingual Information Access (CLIA) Addressing the Information Need of Multilingual Societies', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,713 |
Prestanda av maskininlärning algoritmer kan förbättras genom att kombinera utdata från olika system. I detta dokument tillämpar vi denna idé på erkännandet av substantivfraser. Vi genererar olika klassificeringar genom att använda olika representationer av data. Genom att kombinera resultaten med omröstningsmetoder som beskrivs i (Van Halteren et al., 1998) lyckas vi förbättra de bästa rapporterade prestationerna på standarddatauppsättningar för substantivfraser och godtyckliga substantivfraser. | Erik och Al. REF genererade olika klassificeringar genom att använda olika representationer av uppgifterna. | 3,264,129 | Noun Phrase Recognition By System Combination | {'venue': 'Applied Natural Language Processing Conference And Meeting Of The North American Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,714 |
Abstract-large-skala kaskadfel kan utlösas av mycket få initiala misslyckanden, vilket leder till allvarliga skador i komplexa nätverk. Detta papper studerar lastberoende kaskadfel i slumpmässiga nätverk som består av ett stort men begränsat antal komponenter. Under en slumpmässig ennode attack, ett ramverk utvecklas för att kvantifiera skadan i varje skede av en kaskad. Uppskattningar och analyser för fraktionen av misslyckade noder presenteras för att utvärdera tidsberoende systemskador på grund av attacken. Resultaten ger riktlinjer för val av belastningsmarginal för att undvika en kaskad av fel. Dessutom avslöjar analysen en fas övergångsbeteende i omfattningen av skadan när belastningsmarginalen ökar, dvs. fraktionen av de skadade komponenterna sjunker från nära en till nära noll över en liten förändring i belastningsmarginalen. Det kritiska värdet av belastningsmarginalen och det korta intervall under vilket en sådan abrupt förändring inträffar erhålls för att karakterisera nätverksreaktionen på små variationer i nätbelastningen. Våra resultat ger designprinciper för att förbättra nätresiliensen i belastningsberoende komplexa nätverk med praktiska storlekar. | I REF beskriver dokumentet lastberoende kaskadfel i slumpmässiga nätverk som består av ett stort men begränsat antal komponenter. | 2,632,099 | Load-Dependent Cascading Failures in Finite-Size Erdös-Rényi Random Networks | {'venue': 'IEEE Transactions on Network Science and Engineering', 'journal': 'IEEE Transactions on Network Science and Engineering', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 12,715 |
Fysisk stelhet av de stora artärerna är det centrala paradigmet för kärlens åldrande. Att stelna i det större centrala arteriella systemet, såsom aortaträdet, bidrar i hög grad till hjärt-kärlsjukdomar hos äldre personer och är positivt förknippat med systolisk hypertension, kranskärlssjukdom, stroke, hjärtsvikt och förmaksflimmer, som är de främsta dödsorsakerna i de utvecklade länderna och även i utvecklingsländerna enligt Världshälsoorganisationernas beräkningar 2010. Således, bättre, mindre invasiva och mer exakta mått av arteriell stelhet har utvecklats, som visar sig användbara som diagnostiska index, patofysiologiska markörer och prediktiva indikatorer på sjukdom. I denna artikel presenteras en genomgång av de strukturella bestämningsfaktorerna för kärlförslitning, dess patofysiologiska bestämningsfaktorer och dess konsekvenser för kärlforskning och medicin. En kritisk diskussion om nya tekniker för bedömning av kärlstelhet presenteras också. | Måttet på artärstelhet kan också relateras till kärlens åldrande REF. | 465,405 | Arterial stiffness: a brief review | {'venue': 'Acta Pharmacologica Sinica', 'journal': 'Acta Pharmacologica Sinica', 'mag_field_of_study': ['Medicine']} | 12,716 |
Det viktigaste målet för Grid Computing är att underlätta skapandet av virtuella organisationer. Hittills har dock inte tillräcklig uppmärksamhet ägnats åt den politik och de mekanismer genom vilka dessa VO kommer att fungera. Kärnan i VO - ungefär, ansvaret för varje fysisk organisation (PO) i VO att bidra och inte orättvist konsumera resurser för att uppnå det övergripande målet för VO - är på bästa servicenivå avtal (SLA) som saknar en konkret anslutning till den underliggande Grid programvara och i värsta fall en implicit "in-and" avtal. Ouppfyllda förväntningar och skyldigheter från varje producentorganisations sida kan få ödesdigra konsekvenser och kan i slutändan leda till att själva VO går under. I detta dokument identifieras tre allmänna policyer för resursutnyttjande genom vilka VO kan fungera och presenteras konsekvenserna av varje policy för VO:s dagliga verksamhet och VO:s förmåga att faktiskt genomdriva politiken. En prototyp av en VO med "du får-vad-du-ger"-policyn är grunden för en konkret kostnads-nyttoanalys av tillämpningen av politiken för denna typ av VO. | Wasson och Humphrey fokuserar på politiken på VO-nivå REF. | 856,882 | Policy and enforcement in virtual organizations | {'venue': 'Proceedings. First Latin American Web Congress', 'journal': 'Proceedings. First Latin American Web Congress', 'mag_field_of_study': ['Computer Science']} | 12,717 |
ABSTRACT Motiverad av den senaste tidens explosion av intresse runt blockkedjor, undersöker vi om de gör en bra passform för Internet of Things (IoT) sektorn. Blockchains tillåter oss att ha ett distribuerat peer-to-peer-nätverk där icke-tillförlitliga medlemmar kan interagera med varandra utan en betrodd mellanhand, på ett kontrollerbart sätt. Vi ser över hur denna mekanism fungerar och även titta på smarta kontrakt-skript som finns på blockchain som möjliggör automatisering av flerstegsprocesser. Vi flyttar sedan in i IoT domänen, och beskriver hur en blockchain-IoT kombination: 1) underlättar delning av tjänster och resurser som leder till skapandet av en marknadsplats av tjänster mellan enheter och 2) gör att vi kan automatisera på ett kryptografiskt kontrollerbart sätt flera befintliga, tidskrävande arbetsflöden. Vi påpekar också vissa frågor som bör övervägas innan införandet av en blockchain nätverk i en IoT-inställning: från transaktionsintegritet till det förväntade värdet av de digitaliserade tillgångar handlas på nätverket. Där så är tillämpligt identifierar vi lösningar och lösningar. Vår slutsats är att blockchain-IoT kombinationen är kraftfull och kan orsaka betydande omvandlingar inom flera branscher, banar väg för nya affärsmodeller och nya, distribuerade applikationer. INDEX TERMS Blockchain, distribuerade system, sakernas internet. | Smarta kontrakt REF är skript som kan köras automatiskt på blockkedjan. | 23,397,334 | Blockchains and Smart Contracts for the Internet of Things | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 12,718 |
Abstract-Indoor positionering är erkänd som en av de kommande stora applikationer som kan användas i många olika applikationer såsom inomhusnavigering och företag tillgång spårning. Betydelsen av lokalisering i inomhusmiljöer har gjort användningen av Wi-Fi-baserad inomhuspositionering så att den kan utnyttja tillgänglig trådlös infrastruktur och utföra positionering mycket enkelt. I detta papper introducerade vi en användarvänlig prototyp för Wi-Fi-baserade inomhuspositioneringssystem där en användare kan identifiera sin egen position i inomhus. Wi-Fi mottagen signalstyrka (RSS) fluktuationer över tiden införa felaktig positionering. För att minimera fluktuationen på RSS utvecklade vi partikelfilter med prototypen. En jämförelse mellan med och utan partikelfilter för felprestanda presenteras samtidigt som det också märks att variation i antal partiklar kan ändra positioneringsnoggrannheten. Dessutom presenteras en jämförelse mellan kalibreringsdata i alla riktningar och i en riktning medan en radiokarta konstrueras. | För att minimera fluktuationen av RSS-värden, M. S. Rahman Sakib et al. REF utvecklade en metod med hjälp av ett partikelfilter (PF). | 15,702,959 | Improving Wi-Fi based indoor positioning using Particle Filter based on signal strength | {'venue': '2014 IEEE Ninth International Conference on Intelligent Sensors, Sensor Networks and Information Processing (ISSNIP)', 'journal': '2014 IEEE Ninth International Conference on Intelligent Sensors, Sensor Networks and Information Processing (ISSNIP)', 'mag_field_of_study': ['Computer Science']} | 12,719 |
Vi presenterar en enkel, men förvånansvärt effektiv, metod för självträning en tvåfas parser-reranker system med hjälp av lättillgängliga omärkta data. Vi visar att denna typ av bootstraping är möjligt för parsing när bootstrappa parses bearbetas av en diskriminerande reranker. Vår förbättrade modell uppnår en f - score på 92,1%, en absolut 1,1% förbättring (12% felreduktion) jämfört med det tidigare bästa resultatet för Wall Street Journal tolkning. Slutligen tillhandahåller vi en del analyser för att bättre förstå fenomenet. | Till exempel föreslog Ref en enkel metod för självutbildning ett tvåfasparser-rerankersystem med hjälp av NANC. | 628,455 | Effective Self-Training For Parsing | {'venue': 'Human Language Technology Conference And Meeting Of The North American Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,720 |
Abstract-Det finns en stor trend idag mot inomhus närhet rapport baserad positionering. En binärt värderad närhetsrapport kan erhållas opportunistiskt genom händelseutlösande, vilket leder till avsevärt minskade signalerande overhead för trådlös kommunikation. I detta dokument strävar vi efter att härleda två typer av grundläggande lägre gräns, nämligen den Cramér-Rao bunden och den Barankin bundna, om medel-kvadrat-terror av någon närhetsrapport baserad positionsskattare. Med hjälp av maxlikelihood estimator som ett representativt exempel, visar vi att Barankin bundet är potentiellt mycket hårdare än Cramér-Rao bundet och drar slutsatsen att Barankin bundet borde vara bättre lämpade för benchmarking någon närhetsrapport baserad position estimator. | Det prestandamått som ska optimeras är valt att vara den övergripande positioneringen rot-medel-kvadrat-terror (RMSE) representerad i termer av Cramér-Rao bunden eller Barankin bundna REF. | 3,884,306 | Fundamental Bounds on Position Estimation Using Proximity Reports | {'venue': '2016 IEEE 83rd Vehicular Technology Conference (VTC Spring)', 'journal': '2016 IEEE 83rd Vehicular Technology Conference (VTC Spring)', 'mag_field_of_study': ['Computer Science']} | 12,721 |
För att snabbt syntetisera komplexa scener samlar digitala konstnärer ofta ihop visuella element från flera källor: till exempel berg från Nya Zeeland bakom ett skotskt slott med wisps av Sahara sand framför. I detta dokument föreslår vi att man använder en liknande process för att tolka en scen. Vi modellerar en scen som ett collage av förvrängda, skiktade föremål från märkta, referensbilder. Varje objekt är relaterat till resten genom en uppsättning stödbegränsningar. Scentolkning uppnås genom analys-för-syntes. Börjar med en datauppsättning av märkta exemplar scener, hämtar vi en ordbok av kandidatobjekt segment som matchar en frågebild. Vi kombinerar sedan element av denna uppsättning till en "scen collage" som förklarar frågebilden. Förutom att bara tilldela objektetiketter till pixlar, ger scenkollaging mycket mer information såsom antalet av varje typ av objekt i scenen, hur de stöder varandra, det ordinala djupet av varje objekt, och, i viss mån, ockluderat innehåll. Vi utnyttjar denna representation för flera program: bildredigering, slumpmässig scensyntes och bild-till-anaglyf. | I REF representeras en bild som ett collage av förvrängda, skiktade objekt som erhålls från referensbilder. | 3,016,368 | Scene Collaging: Analysis and Synthesis of Natural Images with Semantic Layers | {'venue': '2013 IEEE International Conference on Computer Vision', 'journal': '2013 IEEE International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']} | 12,722 |
Med hjälp av entropistatistik analyserar vi skalmönster i form av förändringar i förhållandet mellan produktegenskaperna hos 143 konstruktioner i civila flygplan. Två påstått dominerande konstruktioner, kolvpropellern DC3 och turbofläkten Boeing 707, har visat sig ha utlöst en skalningsbana på respektive företags nivå. Längs dessa banor har olika variabler skalats vid olika tidpunkter: detta pekar på mångsidigheten i en dominerande design som gör det möjligt för ett företag att reagera på en mängd olika användarbehov. Skalning på industrinivå tog fart först efter att senare omkonstruerade modeller infördes, som kolvpropellern Douglas DC4 och turbofan Boeing 767. De två skalningsbanor i civila flygplan som motsvarar kolvpropeller och turbofan paradigm kan jämföras med en enda, mindre uttalad skalningsbana i helikopterteknik som vi har data för under perioden. Lednings- och policykonsekvenser kan specificeras i form av kodifieringsfaser på företagsnivå och branschnivå. • Författarna är tacksamma mot Paolo Saviotti för samarbetet och hans kommentarer till tidigare versioner av denna uppsats. Den forskning som redovisas här bygger delvis på data som samlats in i ett projekt som finansierats av ESRC (Saviotti och Bowman 1984; Saviotti och Trickett 1993). Den första författaren erkänner ekonomiskt stöd från Europeiska kommissionen TMR-bidrag ERB4001GT961736; den andra författaren finansieras delvis av TSER-projektet PL97-1296. • • Korresponderande författare Inledning Utterback och Abernathy (1975) har föreslagit idén om en produktlivscykel för att beskriva den tekniska utvecklingen på branschnivå. I början av en produktlivscykel utvecklas en mängd olika produktdesigner. Konkurrensen mellan designerna löses så småningom in i en dominerande design. I framtiden koncentrerar sig innovationen på processinnovation och stegvis produktinnovation med tanke på den dominerande designen. Nelson och Winter (1977) och Dosi (1982) föreslog att en serie inkrementella innovationer inom en stabil designram skulle beskrivas som en naturlig bana respektive teknisk bana. Utmed en bana styrs och begränsas utvecklingen av en uppsättning heuristiker som utgör ett tekniskt paradigm. Bankonceptet kan uppskattas som den dynamiska analogen till begreppet dominerande design. Winter (1977, 1982) och Sahal (1981 Sahal ( 1985) betonade att banor inte bara gäller perioder under vilka de grundläggande tekniska principerna förblir oförändrade, utan också ett steg i stegvis skalning av konstruktioner. Ett utmärkt exempel på en serie skalade modeller i civila flygplan har varit kolvpropeller DC-banan. Skalan av motoreffekt, vinge spännvidd och flygplanslängd har lett till förbättringar i hastighet med en faktor av två, och i maximal startvikt och intervall med en faktor av fem från införandet av DC3 i 1936 till DC7 i 1956 (Miller och Sawers 1968; Jane's 1978). Den huvudsakliga heurismen i många tekniska paradigm kan representeras i form av skalning av design genom steg-för-steg förbättringar. Särskilda designprinciper fungerar dock endast inom ett begränsat antal funktionsnivåer, utanför vilka en strukturell omkonstruktion blir nödvändig. Som Sahal (1985:62) formulerade det: "(t) den teoris utgångspunkt som här framskridit är den välkända iakttagelsen att förändring av ett objekts storlek utöver en viss punkt kräver förändringar även i dess form och struktur." Den tekniska utvecklingen inom ramen för ett paradigm måste alltså få ett slut vid ungefär två tillfällen. Denna förväntan rättfärdigar tanken att tekniska paradigmer uppvisar livscykler. När det till exempel gäller tekniken för kolvpropellerflygplan upphörde livscykeln när man förstod att propellrarnas funktion snabbt skulle minska när marschhastigheten närmade sig ljudets hastighet. Ingenjörer förutspådde att ytterligare skalning skulle bli allt svårare att förverkliga på grund av icke-linjära ökningar i vibrations- och värmegenerering. Constant (1980) införde i detta sammanhang begreppet presumtiv anomali. När det gäller kolvpropellerteknik kringgicks den presumtiva anomalien genom att man utvecklade turbopropmotorer, raketmotorer, jetmotorer och turbofläktmotorer som alternativa tekniker. Den turbofläktmotorteknik som bygger på jetdrift skulle så småningom ge den grundläggande tekniken för ett nytt tekniskt paradigm. På samma sätt ledde sökandet efter nedskalningsdatorer till en rad tekniska paradigmer (vakuumrör, transistorer, integrerade kretsar). Ett nytt paradigm måste under den inledande fasen konkurrera med den drivkraft som investerats i den tidigare tekniken. En period av experiment och rekombination kan förväntas under vilken etablerade företag kan hamna på efterkälken och nya företag komma in på marknaden (Anderson och Tushman 1990). Vid denna tidpunkt följer olika företag sina egna banor som konkurrerar om dominans på branschnivå. Denna konkurrensprocess är löst till en ny dominerande design som fastställer en ny uppsättning heuristik. Market segmentation kan dock orsaka en bifurcation av trajectories som olika design banor uppfyller segregerade efterfrågan på marknaden (Teubal 1979; Foray och Grübler 1990; Frenken et al. 1999)............................................................................................................ När det gäller civila flygplan har turbofanflygplan med svepande vingar blivit den dominerande tekniken, men turbopropflygplan med raka vingar används fortfarande i kortdistansflyg. Även om enskilda produkter kan förväntas uppvisa en livscykel på företagsnivå, förväntas produktfamiljer uppvisa en konjunkturcykel på branschnivå (Foray och Garrouste 1991). Frekvenserna av dessa cykler är av olika storleksordningar (Simon 1969). Det metodologiska problemet är hur man kan redogöra för utvecklingen både på mikronivå och makronivå. Nedan utvecklar vi 3 en skalningsåtgärd baserad på informationsteori som gör det möjligt för oss att analysera data på nivå med enskilda företag, på branschnivå och i förhållande till varandra. Metoder Statistiska studier av mönster i tekniska förändringar under produktens livscykel bygger på en mängd olika datakällor. Jane's (1978 Jane's (, 1989 Jane's (, 1998, Chante (1990), och Green och Swanborough (1982). En beskrivning av egenskaperna finns i tabell 1. 1 Dessa datakällor inkluderar priser, försäljning, inträdes- och patentdata (Gort och Klepper 1982), innovationsräkningar, försäljning, inträdes- och produktivitetsdata (Klepper och Simons 1997), produktegenskaper, försäljning och inträdes-exitdata (Tushman och Anderson 1986; Anderson och Tushman 1990), patentdata (Malerba och Orsenigo 1996) och produktegenskaper (Sahal 1981 (Sahal, 1985 Saviotti 1996; Frenken et al. 1999 )............................................................................................................................ 4 Processen för produktdesign innehåller en pågående sökning mellan användare och producenter efter en optimal 2 Den karakteristiska inställningen till teknisk innovation kan betraktas som en anpassning av Lancasters (1966) efterfrågestrategi. Lancaster behövde bara en uppsättning tjänsteegenskaper, men a kräver en matchning på 5 6 mellan tekniska specifikationer och servicespecifikationer. När det gäller produktinnovation råder osäkerhet på både producentens och användarens sida (Clark 1985; Andersen 1991). Användare förväntas välja särskilda konstruktioner på grundval av funktioner, men nya användare vill kan förutses när nya kombinationer av tekniska egenskaper blir möjliga. Därför kan antagandet om en stabil marknadsmiljö att välja på en variation av teknik enbart på grundval av priser inte längre tas för givet. Den motoreffekt som krävs för att flyga ett flygplan av en viss storlek begränsas till exempel av tekniska principer, men dess bränsleförbrukning står för de driftskostnader som användarna tar hänsyn till. Motoreffektens relativa tekniska och kommersiella betydelse varierar således över tiden. Skillnaden mellan tekniska egenskaper och tjänsteegenskaper är inte alltid lätt att tillämpa. Den skalningsåtgärd som beskrivs nedan tar hänsyn till alla samband mellan egenskaper, oavsett om de definieras som tekniska eller som tjänster, och löser därmed definitionsproblemet utan att förlora sin begreppsmässiga betydelse. Skalningsvägar kan förväntas när definitionerna av och sambanden mellan olika egenskaper hos en produkt stabiliseras ("avslutning"). Innovationer som syftar till skalning kan motiveras av signaler interna till tekniken; skalningen i vissa delar av en teknik kan generera obalanser i andra delar som i sin tur kräver justeringar (Rosenberg 1969). Under skalningsprocesser är dock den övergripande designarkitekturen och uppsättningen funktioner hos en teknik fortfarande i hög grad invarianta under långa tidsperioder. I stället kan tekniska egenskaper och serviceegenskaper förväntas samevolvera (Windrum och Birchenhall 1998). En kvantitativ empirisk analys bör göra det möjligt för oss att ange dessa perioder av relativ stabilitet. Representation av utbudssidan som en uppsättning tekniska egenskaper. Se även Saviotti (1996). Designer utgör gränssnittet mellan utbud och efterfrågan som det uttrycks i de olika avvägningarna mellan egenskaper. Skalning indikeras då när dessa kompromisser förblir stabila över tiden. Vi kommer att modellera kompromisserna genom att använda nyckeltalen för alla sex egenskaper, och därmed ta hänsyn till både förhållandet mellan och mellan tekniska egenskaper och tjänsteegenskaper. Skalning kan påverka alla dessa förhållanden. Om ingen av kompromisserna ändras är skalningen inte innovativ. Till exempel, för produktegenskaper Douglas DC3 vi har: motoreffekt = 1636 kwatt, Den uppsättning av nyckeltal kan betraktas som en sannolikhetsfördelning (p 1,...,p 30 ) genom att dividera varje kvot med summan av nyckeltalen. På så sätt får vi en probabilistisk representation för varje flygplan. För att analysera skalningen i efterföljande produktdesigner behöver man ett avståndsmått mellan representationerna i form av sannolikhetsfördelningar. Med hjälp av informationsteori, man kan beräkna på grundval av en distribution den förväntade informationsinnehållet i meddelandet att distributionen har förändrats som en nästa design infördes på marknaden med hjälp av följande formel (Theil 1967 (Theil, 1972 : Den förväntade informationsinnehållet i en posteriori distribution (q 1,...,q 30 ) med tanke på en priori distribution (p 1,...,p 30 ) kan också betraktas som en information-teoretisk avstånd mellan produktdesigner i form av skalning. Om ingen av kompromisserna ändrades har sannolikhetsfördelningen förblivit densamma. Jämfört med den tidigare produkten skulle en sådan design vara en perfekt skalad version. I så fall är varje q i lika med dess motsvarande p i, Så att jag försvinner, sedan log 2 (1) = 0. Det kan visas att annars är jag positiv (Theil 1972, s. Detta beslut träder i kraft den tjugonde dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning.): meddelandet att förändring har skett förväntas innehålla information eller, med andra ord, en probabilistisk entropi skapas. I det följande ska vi använda I som ett mått på graden av skalning mellan två produktdesigner: ju lägre värdet på I är, desto mer liknar förhållandet mellan två produktdesigner och ju mer den senare designen kan betraktas som en skalad version av den tidigare designen. Observera att vårt tillvägagångssätt skiljer sig från Sahal's (1981 Sahal's (, 1985 som använde parametriska tester på skalningskonstanter över långa tidsperioder. Vi utgår inte från att skalningen har en otvetydig inriktning under hela skalningsprocessen. Till exempel, om vi vill jämföra fördelningen av kvoten värden Douglas DC4 med Douglas DC3, vi tar DC3 som en priori distribution (p 1,...,p 30 ), och DC4 som en posteriori distribution (q 1,...,q 30 ). Som för DC3 ovan kan man beräkna förhållandet mellan DC4:s produktegenskaper och dividera dessa med summan av nyckeltalen för att få den planerade representationen av DC4. Med hjälp av formel (1) kan vi sedan beräkna skalavståndet mellan dessa två produktdesigner, det vill säga I (DC4 på DC3). 8 Fördelen med den algoritmiska metoden blir tydlig när vi jämför tre fall i en serie som sekvensen av tre produkter A-B-C. I en geometrisk representation av skillnader mellan tre produkter i ett Euclidean utrymme, avståndet mellan A och C kommer att vara mindre än summan av avstånden mellan A och B och mellan B och C (Theorem av Pythagoras). Informationsteoretiskt avstånd mellan två produkter A och C är däremot inte nödvändigtvis mindre än summan av avståndet mellan produkterna A och B är I ( B på A ) och mellan produkterna B och C på I ( C på B ). Tre mönster A, B och C, och deras respektive avstånd I avbildas i figur 1. Design A föregår B, och B föregår C. Med hjälp av den dynamiska informationsmått, är det möjligt att summan av de mellanliggande avstånden mellan A och B, och B och C, kommer att vara mindre än avståndet mellan A och C. I detta fall: Denna formulering är likvärdig med: Om denna ojämlikhet bekräftas, övergången från design A till design C via design B kan betraktas som en kritisk övergång. Ojämlikheten gör det möjligt för oss att utvärdera mellanhandens funktion. I det normala fallet förväntar man sig C på A). Ur design C perspektiv, den "signal" skickas av design A förstärktes genom design B som en hjälpsändare i en sådan utsträckning att design B "boosts" signalen från A (Leydesdorff 1992 (Leydesdorff, 1995. Övergången är därför avgörande för den fortsatta utvecklingen. Vi använder termen "kritisk övergång" snarare än "patientberoende övergång", eftersom begreppet vägberoende definierades av Arthur (1989) Sannolikheten fördelningen av nyckeltal ger oss en enhetlig representation av varje produktdesign i datasetet. Detta gör att vi kan mäta skalmönster i en serie produktdesigner. Vi kommer till exempel att analysera under skalningsvägarna i Douglas- och Boeingföretagen. Begreppet "bana" hänvisar emellertid också till en branschövergripande konvergens när det gäller skalmönster. För att mäta skalningsbanor på denna aggregeringsnivå måste man jämföra varje produktdesign med alla andra konstruktioner som är relevanta i tävlingen. Även om varje observation håller ett avstånd från alla andra observationer i datauppsättningen, är inte alla observationer relevanta för jämförelsen. Vi är intresserade av utvecklingen och konkurrensen under vissa perioder. Befolkningen måste alltså bestämmas dynamiskt. Uppgifterna visar att de viktigaste utvecklingscyklerna för enskilda företag har varit DC3-MD11-serien med en genomsnittlig frekvens av en ny produkt varje 5,6 år, Boeing 707-777-serien med ett genomsnitt på 6,2 år och Fokker Fseries med ett genomsnitt på 8,0 år. Eftersom förkrigstidens produktutvecklingscykler vanligtvis var betydligt mindre än efterkrigstidens cykler har vi förenklat våra beräkningar genom att använda en tidsrymd på fem år efter introduktionsåret. Vi jämför alltså konstruktionen av ett flygplan som infördes 1936 med alla konstruktioner som infördes under perioden [1937][1938][1939][1940][1941]. Vi har dock testat våra resultat för deras robusthet genom att ändra tidsramen till tio år (t.ex. , 1937-1946)........................................................................................................... Detta påverkade inte våra slutsatser. Å ena sidan måste ett test av skalning på industrinivå ta hänsyn till spridningshastigheten för förhållandet mellan produktegenskaperna. Å andra sidan innebär kodifieringen av designprinciper i samband med uppkomsten av en dominerande formgivning också en konvergens av särskilda designprinciper som har utvecklats tidigare (Dosi 1982). Således är uppkomsten av en skalningsbana på industrinivå i huvudsak ett tvåsidigt fenomen. Den hänvisar både till spridningen av designprinciper och till konvergensen av designprinciper. Dessa fenomen är annorlunda: vissa flygplansföretag kan skala en dominerande design med avseende på maximal startvikt, andra med avseende på hastighet, och ytterligare andra med avseende på räckvidd. För att testa den dominerande designhypotesen måste man därför skilja mellan spridning av designprinciper genom tiden och konvergens av designprinciper som kan iakttas i efterhand. I vårt informationsteoretiska ramverk kräver dessa olika dynamiker en förändring i a priori- och a posterior-ramarna av referens. När det gäller spridning av en formgivning genom tiden är referensramen en särskild produktdesign som en förhandsförväntning på framtida konstruktioner. Spridningen av en produktdesign kan sedan mätas med dess avstånd I efter formel (1) Hypotesen att en skalningsbana kännetecknas av vanliga heuristik bland företag, håller att förhållandet mellan produktegenskaper tenderar att konvergera. Graden av konvergens anges alltså av avstånden mellan alla produkter i en population som föregick en produkt, när man tar den senare som referensram med efterklokhet (figur 2b). Den enda formgivning som införs senare i tiden betraktas alltså som en måttstock, medan populationen av produkter som föregår denna formgivning under fem år betraktas som den uppsättning händelser som är relevanta för utvärderingen. FIGUR 2 OM HÄR En stiliserad historia av civila flygplan Innan vi vänder oss till beräkningsresultaten, låt oss kort återgå till förväntningarna. Vi har använt den civila flygplansindustrin eftersom historien om dess tekniska utveckling är en av de bästa dokumenterade. Både historiker och ekonomer har analyserat denna tekniska utveckling i betydande detalj (Miller och Sawers 1968; Constant 1980; Mowery och Rosenberg 1982; Sahal 1985; Gardiner 1986a Gardiner, 1986b Vincenti 1990; Bilstein 1996). Även om dessa studier skiljer sig åt i olika perspektiv och i fråga om de kvantitativa och kvalitativa mätningarna, råder det allmän enighet om följande slutsatser: 1. Den tidiga historien om civila flygplan, som omfattar ungefär perioden mellan 1920 och 1935, kännetecknas av ett stort antal olika konstruktioner och en liten efterfrågan på marknaden. Den största flaskhalsen gällde det begränsade flygutbudet, vilket gjorde denna tekniks konkurrenskraft låg jämfört med tåg- och båttrafiken. På trettiotalet tillät nya produktdesigner i Förenta staterna långdistansflyg med rimliga hastighetsnivåer. Till följd av detta konkurrerade flygplan ut tågen i fråga om hastighet, komfort och pris över långa sträckor (t.ex. kust-till-kust-flygningar). Douglas DC3, en allmetallig, encoque kolvpropeller monoplane med motorer placerade under vingarna, anses allmänt vara den dominerande konstruktionen. På grund av den snabba ökningen av efterfrågan på billig flygtrafik på marknaden var inlärningskurvorna i DC särskilt branta. Den totala produktionen av DC3 var över 10 000 modeller, inklusive militär produktion (Jane's 1978). Under femtiotalet ökade efterfrågan på marknaden i de europeiska länderna snabbt. Vissa europeiska tillverkare följde de framgångsrika amerikanska kolvpropellerflygplanen, medan andra företag använde turbopropmotorer (t.ex. Vickers, Fokker). DeHavillands och Aerospatiales tidiga försök att kommersialisera jetmotortekniken i civila flygplan misslyckades. I slutet av 1950-talet, en andra revolution inom civila flygplan design ägde rum när Boeing företaget 13 framgångsrikt introducerade Boeing 707, ett långdistans turbofan flygplan som hade omdesignats från detta företags bombplan linje. Införandet av Boeing 707 följdes av en serie turbofanflygplan märkta 700-serien. I slutet av sextiotalet lyckades McDonnell Douglas och Lockheed införa långdistans turbofanflygplan till konkurrerande prisnivåer. Endast ett fåtal europeiska och Sovjet flygplan designers utvecklade civila turbofläktar, medan majoriteten fokuserade på kortdistans turbopropeller plan. Under sjuttiotalet och åttiotalet spreds slutligen turbofläktteknik över hela marknaden för medel- och långdistansflygningar. Senast, inom segmentet för kortdistansflygplan som traditionellt har omfattats av turbopropflygplan, har turbofantekniken också trängt in, vilket gör spridningen av detta nya paradigm nästan fullständig (Jane 1995). Sammanfattningsvis har två stora genombrott ägt rum som revolutionerade den civila flygindustrin. Tillkomsten av Douglas DC3 i mitten av trettiotalet, som öppnade upp en massmarknad och införde en dominerande design för kolvpropellerflygplan, och införandet av Boeing 707 i slutet av femtiotalet, som radikalt utökade nyttolast, hastighet och räckvidd kapacitet med hjälp av turbofläktmotorteknik och svepta vingar. Produktions- och driftskostnaderna för dessa konstruktioner och deras efterföljande uppföljningsmodeller (DC-serien respektive 700-serien) minskade snabbt till följd av höga försäljningssiffror som möjliggjorde branta inlärningskurvor. Både DC3 och Boeing 707 sägs ha omorienterade designprinciper på branschnivå. I resten av denna artikel kommer vi att fokusera på frågorna om huruvida dessa två konstruktioner har genererat kritiska övergångar, och om deras införande tvingade branschen att följa en gemensam skalningsbana. Kritiska övergångar på företagsnivå 14 Använda den ojämlikhet som anges i formel (3), produktsekvenser inklusive Douglas DC3 som mellandesign (B i figur 1 ) och Douglas DC4 som uppföljningsdesign (C) användes för att testa om DC3 markerade en dominerande design för Douglas företaget. Som tidigare mönster (A), valde vi tretton historiskt viktiga prekursorer inklusive Boeing 247D och Fokker Trimotor, som har identifierats som DC3 största konkurrenter på den tiden (Miller och Sawers 1968). Tabell 2 visar resultaten av testerna av kritiska övergångar i produktsekvenser som inkluderar DC3 och den uppföljande DC4-modellen, såsom de definieras i formel (3) Vi testade också den kronologiska DC/MD-serien som efterträdde uppkomsten av DC3 för kritiska övergångar. Dessa resultat listas i tabell 3. Med undantag för sekvensen DC7-DC8-DC9 har inga kritiska övergångar ägt rum. DC8 innebar en grundläggande omorientering av konstruktionsprinciper, eftersom Douglas från och med då (1967) använde turbofläktmotorer i stället för kolvpropellermotorer. Det är uppenbart att turbofantekniken innebar en uppsättning nya designprinciper (inklusive svepta vingar som tillät en mindre vingbredd i förhållande till flygkroppens längd). Förhållandena mellan produktegenskaperna organiserades därför på ett nytt sätt och skalades enligt nya heuristiker. I Douglass historia kan vi alltså urskilja en kolvpropeller och en turbofanbana. Under alla andra övergångar skedde ingen omorientering i designprinciperna inom serien. Alla modeller som utvecklades före DC8 gällde kolvpropellerflygplan, som alla byggde på DC3-konstruktionen, men i olika avseenden. Till exempel var DC4 en uppskalad version av DC3, medan DC5 var en nedskalad version av DC3. DC6 var en snabbare version av DC4 som möjliggjordes av dess tryckkabin som tillät högre höjder. DC7 kännetecknades av sin långa räckvidd. De modeller som utvecklats efter DC8 gäller turbofanflygplan. Skalningen följde olika riktningar från DC8 och framåt: DC9, MD 80 och MD 85 är alla nedskalade flygplan i alla produktdimensioner. DC10 är också mindre än DC8 men har högre motoreffekt och maximal startvikt. Slutligen är MD11 det största flygplan som utvecklats av McDonnell Douglas och som överstiger alla tidigare flygplan i fråga om motoreffekt, längd, maximal startvikt och hastighet. År 1957 introducerade Boeing 707 som ett nytt civilt flygplan med hjälp av turbofläktmotorteknik. Detta flygplan har enligt uppgift fungerat som en dominerande konstruktion för de senare 700-serierna. Med hjälp av vår metod testade vi produktsekvenser inklusive Boeing 707 som den dominerande designen (B i figur 1 ) och Boeing 727 som uppföljningsdesign (C). 4 Som tidigare konstruktioner (A) använde vi den senaste 3 Konfer Gardiner's (1986b : 143) skillnad mellan robust och mager design : "en robust design är en som sammanför flera nya divergerande utvecklingslinjer för att bilda en ny "komposit" design, som sedan justeras internt för att bilda en ny "konsoliderad" design, som sedan vidareutvecklas som en variation av "utsträckt" design. Lean design misslyckas på ett, två, eller oftare alla tre av dessa steg." Gardiner nämner DC3 och Boeing 707 som exempel på robusta konstruktioner i civila flygplans historia. 4 Boeing 717 har aldrig använts för civila tjänster. Test av banans utveckling inom Boeing 700-serien (Tabell 5), Vi fann att endast den senaste övergången är kritisk, medan alla andra övergångar hittades icke-kritisk. Resultatet av den senaste övergången tyder på att det inte var utvecklingen av 707, utan utvecklingen av 767 som lade grunden för 777. Faktum är att 777, det största tvåmotoriga flygplan som någonsin byggts, utvecklar den tvåmotoriga planläggning som ingår i 757 och 767, som skiljer sig från den fyrmotoriga Boeing 747. Precis som i Douglas DC3 har Boeings dominerande 707-design utvecklats i olika riktningar. De 727 och 737 var nedskalade modeller med tre respektive två motorer i stället för den fyrmotoriga uppsättningen av 707. Den 747 är en uppskalad bredkroppsversion med fyra motorer, medan 757, 767 och 777 alla införlivade två motorer. 18 I föregående avsnitt har vi analyserat utvecklingen inom flygplansdesign i form av produktsekvenser. Resultaten visar att både DC3 och Boeing 707 omorienterade designprinciper jämfört med deras prekursorer. Resultaten hittills tyder bara på att DC3 och Boeing 707 har fungerat som dominerande mönster på företagsnivå. Dessa mönster är dock inte nödvändigtvis de dominerande mönster som sprider sig över hela branschen. Denna fråga måste analyseras utifrån dynamiken hos hela produktpopulationen. Som förklaras i avsnitt 2 kan man beräkna ett medelvärde av det förväntade informationsinnehållet för varje produktdesign i förhållande till relevanta på varandra följande konstruktioner ("diffusion") och i förhållande till dess prekursorer ("konvergens"). Som en indikator på graden av spridning av en design, det genomsnittliga I-värdet | Probabilistisk entropistatistik och skalningsvägar i 143 civila flygplanskonstruktioner har analyserats i form av ändringar i produktegenskaperna REF. | 7,879,903 | Scaling Trajectories in Civil Aircraft (1913-1997)' | {'venue': 'Research Policy 29(3) (2000) 331-348', 'journal': None, 'mag_field_of_study': ['Economics', 'Mathematics', 'Physics']} | 12,723 |
Abstrakt. Vi beskriver en asynkron parallell stokastisk proximal koordinatnedstigningsalgoritm för att minimera en sammansatt objektiv funktion, som består av en jämn konvex funktion plus en separerbar konvex funktion. I motsats till tidigare analyser, vår modell av asynkron beräkning står för det faktum att komponenter i den okända vektorn kan skrivas av vissa kärnor samtidigt med läsas av andra. Trots de komplikationer som denna möjlighet medför, uppnår metoden en linjär konvergenshastighet på funktioner som uppfyller en optimal stark konvexitet egenskap och en sublinjär hastighet (1/k) på allmänna konvexa funktioner. Nära linjär upphastighet på ett flerkärnigt system kan förväntas om antalet processorer är O(n 1/4 ). Vi beskriver resultat från implementering på tio kärnor av en multicore processor. | Senare föreslog Liu och Wright REF en async-parallell stokastisk proximal koordinatnedstigningsalgoritm för att minimera konvexa sammansatta objektiva funktioner. | 2,863,912 | Asynchronous Stochastic Coordinate Descent: Parallelism and Convergence Properties | {'venue': None, 'journal': 'arXiv: Optimization and Control', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 12,724 |
Gränsöverskridande rekommendationer finns för närvarande i slutna, egenutvecklade sociala nätverksekosystem som Facebook, Twitter och Google+. Jag föreslår ett öppet ramverk som ett alternativ, som möjliggör korsdomänrekommendationer med domänagnostiska användarprofiler som modelleras som semantiska intressegrafer. Detta nya ramverk täcker alla delar av ett rekommendationssystem. Den innehåller en arkitektur för integritetsaktiverad profilutbyte, en distribuerad och domänagnostisk användarmodell och en algoritm för rekommendationer över domäner. Detta gör det möjligt för användare att få rekommendationer för en måldomän (t.ex. livsmedel) på grundval av alla typer av tidigare intressen. | Heitmann REF föreslog att utföra cross-domain personalization och rekommendation baserad på multi-source semantic interest diagram. | 16,331,638 | An open framework for multi-source, cross-domain personalisation with semantic interest graphs | {'venue': "RecSys '12", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,725 |
Accelererade gradientmetoder spelar en central roll i optimeringen och uppnår optimala hastigheter i många miljöer. Många generaliseringar och utökningar av Nesterovs ursprungliga accelerationsmetod har föreslagits, men det är ännu inte klart vad accelerationskonceptets naturliga räckvidd är. I denna uppsats studerar vi accelererade metoder ur ett kontinuerligt tidsperspektiv. Vi visar att det finns en Lagrangian funktion som vi kallar Bregman Lagrangian som genererar en stor klass av accelererade metoder i kontinuerlig tid, inklusive (men inte begränsat till) accelererad lutning nedstigning, dess icke-Euklidiska förlängning, och accelererad högre ordning gradient metoder. Vi visar att den kontinuerliga tidsgränsen för alla dessa metoder motsvarar att färdas samma kurva i rymdtid i olika hastigheter. Ur detta perspektiv kan Nesterovs teknik och många av dess generaliseringar ses som ett systematiskt sätt att gå från de kontinuerliga tidskurvor som genereras av Bregman Lagrangian till en familj av diskreta tidsaccelererade algoritmer. | Det senaste arbetet REF studerar några påskyndade metoder ur ett kontinuerligt tidsperspektiv. | 4,171,712 | A Variational Perspective on Accelerated Methods in Optimization | {'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']} | 12,726 |
En metod för konstruktion av klassificeringar från obalanserade datauppsättningar beskrivs. En datauppsättning är obalanserad om klassificeringskategorierna inte är ungefär lika representerade. Ofta består verkliga datamängder huvudsakligen av "normala" exempel med endast en liten andel "onormala" eller "intressanta" exempel. Det är också så att kostnaden för felklassificering av ett onormalt (intressant) exempel som ett normalt exempel ofta är mycket högre än kostnaden för det omvända felet. En undersampling av majoritetens (normala) klass har föreslagits som ett bra sätt att öka klassifikationens känslighet för minoritetsklassen. Detta dokument visar att en kombination av vår metod för översampling av minoritet (onormal) klass och undersampling av majoriteten (normal) klass kan uppnå bättre klassificering prestanda (i ROC utrymme) än endast undersampling majoritet klass. Detta papper visar också att en kombination av vår metod att översampla minoritetsklassen och undersampling majoriteten klass kan uppnå bättre klassificering prestanda (i ROC utrymme) än att variera förlust ratios i Ripper eller klass tidigare i Naive Bayes. Vår metod att översampla minoritetsklassen innebär att skapa syntetiska minoritetsklassexempel. Experiment utförs med hjälp av C4.5, Ripper och en Naive Bayes klassificering. Metoden utvärderas med hjälp av arean under mottagarens operativa karakteristiska kurva (AUC) och ROC konvexa skrovstrategi. | Syntetisk minoritet översampling teknik (SMOTE) är den vanligaste översampling metod, som lägger till nya syntetiska prover till minoritetsklassen genom att slumpmässigt interpolera par av de närmaste grannarna i minoritetsklassen REF. | 1,554,582 | SMOTE: Synthetic Minority Over-sampling Technique | {'venue': 'Journal Of Artificial Intelligence Research, Volume 16, pages 321-357, 2002', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 12,727 |
Vi studerar problemet med beslutsteori online lärande (DTOL). Motiverade av praktiska tillämpningar fokuserar vi på DTOL när antalet åtgärder är mycket stort. Tidigare algoritmer för lärande inom detta ramverk har en parameter för inlärningsfrekvens, och ett hinder för att använda online-inlärning i praktiska tillämpningar är att man inte förstår hur denna parameter ska ställas in optimalt, särskilt när antalet åtgärder är stort. I detta dokument erbjuder vi en ren lösning genom att föreslå en ny och helt parameterfri algoritm för DTOL. Vi inför en ny känsla av ånger, vilket är mer naturligt för tillämpningar med ett stort antal åtgärder. Vi visar att vår algoritm uppnår bra prestanda med avseende på denna nya uppfattning om ånger; dessutom uppnår den också prestanda nära den av de bästa gränserna som uppnåtts av tidigare algoritmer med optimalt anpassade parametrar, enligt tidigare föreställningar om ånger. | En parameterfri Hedging-algoritm föreslås i REF för problemet med beslut-teoretisk online-inlärning, särskilt för tillämpningar när antalet åtgärder är mycket stort och optimal inställning parametern inte är väl förstådd. | 341,343 | A parameter-free hedging algorithm | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 12,728 |
Abstract-Vi anser att problemet med minimering av summa överföringsenergi i cellulära nätverk där koppling uppstår mellan celler på grund av ömsesidig interferens. Kopplingsförhållandet kännetecknas av kopplingsmodellen signal-till-interferens-och-buller-förhållande (SINR). Både cellbelastning och transmissionseffekt, där cellbelastningen mäter den genomsnittliga resursanvändningen i cellen, interagerar via kopplingsmodellen. Kopplingen kännetecknas implicit av belastning och effekt som variabler av intresse med hjälp av två likvärdiga ekvationer, nämligen icke-linjär belastningskopplingsekvation (NLCE) respektive icke-linjär effektkopplingsekvation (NPCE). Genom att analysera NLCE och NPCE, visar vi att drift vid full belastning är optimal för att minimera summan energi, och ge en iterativ effektjustering algoritm för att få motsvarande optimal effektlösning med garanterad konvergens, där i varje iteration en standard bisektion sökning används. För att få det algoritmiska resultatet använder vi egenskaperna hos den så kallade standardinterferensfunktionen; beviset är inte standard eftersom NPCE inte ens kan uttryckas som ett slutet formuttryck med makt som den implicita variabeln av intresse. Vi presenterar numeriska resultat som illustrerar de teoretiska resultaten för ett verkligt och storskaligt mobilt nätverk, vilket visar fördelen med vår lösning jämfört med den konventionella lösningen att distribuera enhetlig kraft till basstationer. | För att hantera problemet med strömoptimering mer praktiskt använder författarna i REF en analytisk signal till störning och bullerkvot (SINR) modell som tar hänsyn till belastningen på varje cell, vilket resulterar i en icke-linjär belastningskoppling ekvation. | 5,575,952 | On Power and Load Coupling in Cellular Networks for Energy Optimization | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 12,729 |
Abstract-Magnetic Induction (MI) tekniker möjliggör effektiv trådlös kommunikation i täta medier med höga materialabsorptionar, såsom underjordisk jord medium och oljereservoarer. Ett brett spektrum av nya och viktiga tillämpningar i sådana RF-utmaningade miljöer kan realiseras baserat på MI-kommunikationsmekanismen. Trots de potentiella fördelarna är den största flaskhalsen i MI-kommunikationen den begränsade kanalkapaciteten på grund av den låga MI-bandbredden. I detta dokument utvecklas strategin Spread Resonance (RS) för MI-kommunikationen i RF-utmaningade miljöer, vilket i hög grad ökar MI-kanalens kapacitet. I stället för att använda samma resonansfrekvens för alla MI-spolarna fördelar spridningsresonansen olika resonansfrekvenser för olika MI-relä och transceiver-spolar. En optimeringslösning för fördelning av resonansfrekvenser är framtagen för att maximera MI-kanalkapaciteten som fångar upp flera unika MI-effekter, inklusive den parasitiska kondensatorn i varje MI-spole, Eddy-strömmarna i olika överföringsmedier med begränsad konduktivitet och den slumpmässiga riktningen för varje spole. Numeriska utvärderingar tillhandahålls för att validera de betydande kanalkapacitetsförbättringarna genom den föreslagna SR-strategin för MI-kommunikationssystem. | För att lösa bandbredd flaskhals, en spridning resonans strategi för MI kommunikation föreslås i REF. | 1,009,475 | Increasing the Capacity of Magnetic Induction Communications in RF-Challenged Environments | {'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science']} | 12,730 |
I det storskaliga distribuerade simuleringsområdet kan topologin för överlagringsnätet inte alltid snabbt anpassas till den ofta föränderliga applikationstrafiken för att minska den totala trafikkostnaden. I detta dokument föreslår vi en självanpassningsstrategi för att ofta ändra applikationstrafiken i innehållsbaserad publicerings-/prenumerationssystem. Strategin tränar först trafikinformationen och använder sedan denna utbildningsinformation för att förutsäga applikationstrafiken i framtiden. Slutligen omarbetar strategin topologin för overlay-nätet på grundval av denna förutsägelse om information för att minska den totala trafikkostnaden. En förutsägande väg introduceras också i detta dokument för att minska omkonfigureringstalen i processen för omkonfigureringar. Jämfört med andra strategier visar de experimentella resultaten att den strategi som föreslås i detta dokument skulle kunna minska den totala trafikkostnaden för publicerings-/prenumerationssystemet i mindre omkonfigureringar. | Under 2014 föreslog vi en självanpassningsstrategi för att ofta ändra applikationstrafiken i innehållsbaserat publicerings-/prenumerationssystem och publiceras i litteraturen REF. | 55,735,076 | Self-Adapting Routing Overlay Network for Frequently Changing Application Traffic in Content-Based Publish/Subscribe System | {'venue': None, 'journal': 'Mathematical Problems in Engineering', 'mag_field_of_study': ['Engineering']} | 12,731 |
På grund av kostnader måste det finnas ett system för att upptäcka intrång, en avvägning mellan användarens lättillgänglighet och förmågan att upptäcka attacker. Det föreslagna ramverket tillämpar två spelteoretiska modeller för ekonomisk spridning av detektionsmedel för intrång. Det första schemat modellerar och analyserar interaktionsbeteenden mellan en angripare och intrångsdetektionsmedel i ett icke-kooperativt spel, och sedan säkerhetsriskvärdet härleds från den blandade strategin Nash jämvikt. I det andra systemet används säkerhetsriskvärdet för att beräkna Shapley-värdet för detektionsmedel för intrång, samtidigt som man beaktar de olika hotnivåerna. Den effektiva fördelningen av ombud skapar därför en minimiuppsättning av installationskostnader. De experimentella resultaten visar att med den föreslagna tvåstegsspelet teoretiska modellen, nätverksadministratören kan kvantitativt utvärdera säkerhetsrisken för varje IDS-agent och enkelt välja den mest kritiska och effektiva IDS-agent distribution för att uppfylla de olika hotnivåerna till nätverket. | För ekonomisk spridning av detektionsmedel för intrång, Chen et al. I Ref föreslogs en ram som tillämpar två olika spelteoretiska system. | 30,238,775 | A Game Theoretic Framework for Multi-agent Deployment in Intrusion Detection Systems | {'venue': 'Security Informatics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 12,732 |
För att hitta en genomförbar lösning för multimode resurs-konstruerade projekt schemaläggning problem (MRCPSP), en hybrid av partikel svärm optimering (PSO) och differential evolution (DE) algoritm föreslås i detta dokument. Den föreslagna algoritmen använder en kodningsstruktur på två nivåer. Den övre nivåns struktur kodas för schemaläggningssekvensen, som optimeras av PSO-algoritmen. Den lägre nivåns struktur kodas för projektgenomförande och DE-algoritm används för att lösa den optimala schemaläggningsmodellen. Den föreslagna algoritmens effektivitet och fördelar illustreras genom att man använder testfunktionen i problembiblioteket för projektplanering (PSPLIB) och jämför med andra schemaläggningsmetoder. Resultaten visar att den föreslagna algoritmen mycket väl kan lösa MRCPSP. | Resultaten visade att hybriden av PSO och DE algoritm är effektiv för kombinatoriska problem REF. | 55,352,370 | Hybrid Particle Swarm and Differential Evolution Algorithm for Solving Multimode Resource-Constrained Project Scheduling Problem | {'venue': None, 'journal': 'Journal of Control Science and Engineering', 'mag_field_of_study': ['Mathematics']} | 12,733 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.