Datasets:
mteb
/

Modalities:
Text
Formats:
parquet
Languages:
Persian
ArXiv:
Libraries:
Datasets
pandas
License:
Dataset Viewer
Auto-converted to Parquet
_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
5982
ما در تلاش هستیم تا آزمایش شبیه‌سازی را شامل یک روند تصادفی رایج انجام دهیم، که با پیاده‌روی تصادفی (یا فرآیند $I(1)$) $Y_t = Y_{t-1} + \varepsilon_t$، که در آن نوآوری‌ها $\varepsilon_t$ توصیف می‌شود، انجام دهیم. ~ $N(0,1)$. با این حال، چه زمانی می‌توانیم مطمئن باشیم که نوآوری‌های گذشته کم و بیش به طور منطقی در روند تصادفی گنجانده شده‌اند؟ آیا پروکسی خوبی برای دوره سوختگی تصادفی وجود دارد؟ من به دنبال پیشنهاد پیش‌فرض Bur-in R برای بخش $AR(p)$: `ceiling(6/log(minroots))`، به این معنی که در صورت ریشه واحد، بی‌نهایت را در اینجا دریافت می‌کنیم و تقریباً سعی می‌کنیم نزدیک به unity root 1.0001 (در واقع مانند گرفتن 60000 یکباره است). بنابراین آیا پیشنهاد معقولی یا قانون سرانگشتی شما در عمل استفاده می کنید؟
دوره سوختگی برای پیاده روی تصادفی
88391
برای رویکرد BPE، برای p($\theta$)~U(0,1) نشان می‌دهد که p(x|D)= $1/n+2[(x+ \sum_{k=1}^n(x_k)!) $ $ (n+1-x-$($\sum_{k=1}^n(x_k)$!]$/$[$(\sum_{k=1}^n(x_k))$! $(n-\sum_{k=1}^n(x_k))$!] من با استفاده از معادله زیر سعی کردم p(x|D)= $\int p(x|\mu)p(\mu|D )d\mu$ من 2 عبارت را جایگزین کردم اما نتوانستم به راه حل مورد نیاز برسم
مشکل تکلیف تخمین پارامتر بیزی
110557
من سعی می کنم یک تحلیل بیزی انجام دهم که در آن تابع درستنمایی من یک تابع پروبیت بر روی دو پارامتر است. از منابع مختلف متوجه شدم که توزیع نرمال مزدوج قبل از احتمال probit است، اما من قادر به محاسبه پسین توابع نیستم. در اینجا جزئیات مشکل احتمال وجود دارد: $\Phi(\theta-\beta)$ قبلی برای $\beta$: $\phi(\beta-\mu_1)$ قبلی برای $\theta$: $\phi(\ تتا-\mu_2)$ پشتی مشترک: $C\Phi(\theta-\beta)\phi(\beta-\mu_1)\phi(\theta-\mu_2)$ اکنون من می‌خواهم توزیع‌های حاشیه‌ای را از این خلفی مشترک دریافت کنم
مزدوج قبل برای تابع احتمال پروبیت
82997
من یک سوال در مورد مدل های اثر مختلط دارم. آیا ممکن است وقتی از یک مدل با متغیرهای وابسته مختلف استفاده می کنم درجات آزادی متفاوت باشد؟ یا این نشان می دهد که مشکلی رخ داده است؟ من داده های خود را با استفاده از روش MIXED در SPSS تجزیه و تحلیل کردم. دو عامل تصادفی (شرکت کنندگان و محرک ها) و یک عامل ثابت (پیوسته) (PD) در طراحی من وجود دارد. تعداد درجه آزادی برای اولین متغیر وابسته perf من 1201436 است. هنگامی که من از همان مدل استفاده می کنم و فقط یک متغیر وابسته متفاوت (wr) را انتخاب می کنم، تعداد درجه آزادی 1194166 است. تعداد مجموعه داده ها و ابعاد مدل برای هر دو متغیر وابسته یکسان است. معیارهای اطلاعات متفاوت است (به عنوان مثال، AIC برای perf = 3975 و AIC برای wr = 9942). آزمون اثرات ثابت برای هر دو متغیر وابسته معنادار است. آیا منطقی است که درجات آزادی متفاوت باشد؟
درجات مختلف آزادی هنگام استفاده از یک مدل جلوه ترکیبی یکسان (SPSS)
110556
من یک مبتدی در آمار و R هستم، ببخشید اگر این سوال ممکن است بی اهمیت به نظر برسد. من داده هایی را برای اندازه گیری چندین پارامتر مختلف در 40 موضوع در دو نقطه زمانی (t1 و t2) جمع آوری کرده ام. 3 پارامتر اصلی وجود دارد که من به آنها علاقه دارم، اجازه دهید آنها را ParA، ParB، ParC بنامیم. پارآ یک نمره ناتوانی است. این در یک مقیاس دلخواه است (بنابراین، اگر درک من درست باشد، یک مقیاس ترتیبی است) و مقادیر از 0.0 تا 10.0 متغیر است. توجه داشته باشید که افزایش در این مقیاس 0.5 واحد است، بنابراین مقادیری مانند، به عنوان مثال. 1.5 امکان پذیر است. من دو معیار دارم، در t1 و t2، بنابراین می توانم حداقل سه متغیر از ParaA را توصیف کنم: ParaA در t1، ParA در t2، و اینکه آیا یک موضوع پیشرفت کرده است یا نه (0 یا 1). به‌عنوان یک مقیاس نسبت، فکر می‌کنم محاسبه تفاوت چندان منطقی نیست (مثلاً ParaA در t2 - ParaA در t1)، اما مایلم پیشنهاداتی را در این مورد بپذیرم. ParB و ParC اندازه گیری دو ساختار تشریحی هستند. آنها پیوسته هستند. Par B مساحتی است که بر حسب mm2 اندازه گیری می شود، ParC حجمی است که بر حسب mm3 اندازه گیری می شود. من معتقدم که باید آنها را معیار مقیاس نسبت در نظر گرفت. برای هر یک می توانم حداقل 4 متغیر را توصیف کنم: اندازه گیری در t1 و t2 (به عنوان مثال ParB1، ParB2)، تفاوت مطلق بین دو اندازه گیری (ParB2-ParB1)، تفاوت درصدی بین این دو. کاری که می‌خواهم انجام دهم: می‌خواهم نوعی رگرسیون انجام دهم، تا ببینم آیا ParaA در t2 به بهترین وجه توسط B یا C پیش‌بینی می‌شود (تفاوت درصدی، یا شاید ParB یا ParC در t1، من هنوز تصمیم نگرفته‌ام که کدام یک منطقی‌تر است. ) اما من نمی دانم چگونه این کار را انجام دهم. من سعی کردم تحقیقاتی انجام دهم و به این نتیجه رسیدم که می خواهم یک رگرسیون لجستیک ترتیبی انجام دهم، اما اکنون مطمئن نیستم که چگونه نتایج را تفسیر کنم و انتخاب خود را زیر سوال می برم. در صورتی که کسی بخواهد وضعیت من را بازتولید کند، در اینجا چند داده وجود دارد: require(MASS) example.df <- data.frame(ParA1=c(1.5,0.0,0.0,1.0,1.5,1.0,1.0,0.0,0.0,0.0,3.0 ، ParaA2 = c(2.5،1.5،1.0،2.0،2.0،1.5،2.0،0.0،0.0،0.0،6.5)، پیشرفت=c(1,1,1,1,1,1,1,0,0,0,1 ) ParB1=c(222.76,743.07,559.65,642.93,584.36,565.53,590.88,465.31,570.22,543.91,574.80) ParB2=c(214.5,674.71,538.75,560.72,581.9,566.40,499.72, 434.72,528.33,517.61,516.1) ParBAbsolDiff=c(-8.27،-68.36،-20.90،-82.21،-2.46،0.87،-91.16،-30.59،-41.88،-26.31،-58.71)، ParBPercentDiff=c(-3.71،-9.20،-3.73،-12.79،-0.42،0.15،-15.43،-6.57،-7.34،-4.84،-10.21)، ParC1=c(1585354,1600993,1818728,1595059,1445126,1599984,1454398,1540987,1567783,1559505,1523271) ParC2=c(1578834,1512068,1800791,1514774,1472185,1548337,1440284,1505046,1586734,1622379,1496734) ParCAbsolutDiff=c(-6520.26،-88925.62،-17937.04،-80285.40،27059.77،-51646.81،-14114.52،-35940.91،189251.04،-35940.91،189251.04. ParCPercentDiff=c(-0.41،-5.55،-0.99،-5.03،1.87،-3.23،-0.97،-2.33،1.21،4.03،-1.74)) > myregression <- polr(ParA2 ~ ParBPercentffDixae+ParBPercentff .df، Hess=TRUE) خطا در polr(ParA2 ~ ParBPercentDiff + ParCPercentDiff، داده = example.df، : پاسخ باید یک فاکتور باشد > example.df$ParA2 <- factor(example.df$ParA2) > myregression <- polr(ParA2 ~ ParBPercentDiff + ParCPercentDiff، data=example.df، Hess=TRUE) > summary(myregression) فراخوانی: polr(فرمول = ParA2 ~ ParBPercentDiff + ParCPercentDiff، داده = example.df، Hess = TRUE) ضرایب: Value Std. خطای t مقدار ParBPercentDiff -0.04825 0.1114 -0.4330 ParCPercentDiff -0.13650 0.2079 -0.6566 Intercepts: Value Std. خطای t مقدار 0|1 -0.4982 0.9546 -0.5219 1|1.5 -0.0267 0.9367 -0.0285 1.5|2 0.7736 0.9874 0.7835 2|2.5 2.106132.11 2.5|6.5 2.8957 1.3531 2.1400 انحراف باقیمانده: 35.89846 AIC: 49.89846 > ci <- confint(myregression) در انتظار انجام نمایه سازی... > exp(cbind(OR= coef.5 %. ParBPercentDiff 0.9528960 0.7596362 1.200121 ParCPercentDiff 0.8724038 0.5670611 1.321134 من در اینترنت جستجو کردم، اما متوجه نشدم چه چیزی پیدا کردم. چندین سوال در stackoverflow وجود دارد، اما پاسخ ها خیلی پیشرفته بودند. من دانشجوی پزشکی هستم، بنابراین برخی از مفاهیم اولیه در آمار را دارم، اما این چیزهای پیشرفته ای برای سطح درک فعلی من است. من سعی می کنم در اوقات فراغت خود آمار مطالعه کنم، اما در حال حاضر تحت فشار هستم و باید بفهمم این به چه معناست. به نظر من اگر به زبان ساده توضیح داده شود بهتر است. برگردم به سوالم... من با نتایجی که به دست آوردم گیج شده ام، احتمالاً به این دلیل که در مورد برخی از مفاهیم اساسی گیج شده ام. آنچه من از بررسی خلاصه (myregression) نتیجه می‌گیرم این است که ParBPercentDiff پیش‌بینی‌کننده بدتری نسبت به ParCPercentDiff است (افزایش معینی در ParBPercentDiff باعث کاهش 0.04- در مقدار انتظاری ParaA2 در مقیاس شانس ورود به سیستم می‌شود - بنابراین کاهش ParBPercentDiff باید نشان دهد. افزایش 0.04+ این مقادیر برای ParCPercentDiff بالاتر است. با این حال به نظر می رسد OR داستان متفاوتی را بیان می کند. به عنوان مثال، احتمال افزایش ParaA2 با i بیشتر است
آیا این موردی برای رگرسیون لجستیک ترتیبی است؟ مشکلات در تفسیر خروجی
89378
فرمول ماتریس وزن دهی بهینه هنگامی که رگرسیون را با متغیرهای ابزاری بیشتری نسبت به پیش بینی کننده های درون زا انجام می دهید به شرح زیر است: $W_{opt} = (\frac{1}{N}Z'Z)^{-1} $ این به ما می گوید که ما فقط باید به ماتریس کوواریانس واریانس ابزارها نگاه کنیم، اما آیا منطقی نیست که وزن بیشتری به قوی ترین ابزارها (یا به عبارت دیگر، آنهایی که همبستگی بهتری دارند). با پیش بینی های درون زا)؟ پیشاپیش متشکرم
برآوردگر متغیرهای ابزاری ماتریس وزن بهینه
11543
من چند کلاس احتمال را گذرانده‌ام و اکنون می‌دانم که چگونه برخی از معیارهای آماری مانند میانگین و فواصل اطمینان را محاسبه کنم. چیزی که من نمی دانم این است که چه چیزی، چه زمانی و چرا از این اقدامات برای موقعیت های خاص استفاده می شود. من امیدوارم که مجموعه خوبی از هر یک از این اقدامات را جمع آوری کنم، برای چه مواردی استفاده می شود و در چه موقعیت هایی استفاده می شود. به طور خاص من به دنبال این موارد هستم (اما نه محدود به): * میانگین (متوسط) * انحراف استاندارد * واریانس * فواصل اطمینان * میانه
چگونه می توانم بگویم که چه زمانی و چرا از معیارهای آماری خاص استفاده کنم؟
82446
من روی یکی از مجموعه داده‌هایم با ANN‌ها آزمایش می‌کردم، به نظر می‌رسد آنها پتانسیل این را دارند که در توضیح تنوع Y من کاملاً مؤثر باشند. چیزی که من پیدا کردم این است که آنها از برخی مدل‌سازی‌های قبلی با روش‌های دیگر برای کاهش کمیت متغیر x سود می‌برند (من متوجه شدم نمی‌توانم از PCA استفاده کنم زیرا نیاز دارم متغیرهای X خود را حفظ کنند و PCA به دلیل فاکتورگیری در این مورد خاص از انجام این کار من جلوگیری می‌کند. موردی که شبیه چیزی در دنیای واقعی نیست). آنچه به نظر می رسد اگر از همه متغیرهای خود استفاده کنم این است که برخی از متغیرها به عنوان تأثیرات قدرتمند متغیر Y من ظاهر می شوند، علیرغم اینکه در واقعیت مطلقاً چنین نیست. چیزی که در این مورد من را با مشکل مواجه می کند، اغلب آموزش و اعتبار سنجی نشان می دهد که با وجود این، مدل اوکی است، این ممکن است به دلیل نقاط داده کافی نباشد. متغیرهایی که این اتفاق می افتد معمولاً به خوبی توزیع نمی شوند و معمولاً به این دلیل آنها را حذف می کنم. من عمدتاً می پرسم زیرا می خواستم بدانم چرا این اتفاق می افتد؟ و همچنین آیا مدل قبلی با روش های دیگر برای رفع این مشکل خوب است؟ همچنین، اگر از دو نوع مدل‌سازی مرتبط با یکدیگر استفاده کنم، چگونه باید با اعتبارسنجی برخورد کنم؟ آیا مجموعه اعتبارسنجی باید هر بار دوباره تولید شود؟ من قبلاً از شبکه‌های عصبی مصنوعی استفاده نکرده‌ام (غیر از فتنه) و دقیقاً نمی‌دانم که دقیقاً چگونه در اصلاح مجدد وزن‌ها از طریق انتشار کار می‌کنند.
شبکه عصبی: توزیع متغیر، اعتبارسنجی و تعداد متغیرها - نتایج غیرمنتظره
113011
من یک مبتدی در BUGS هستم. من سعی می کنم مدل Dawid Skene را در BUGS کدنویسی کنم. مدل به صورت زیر است: ![](http://i.stack.imgur.com/hQRti.png) در حال حاضر، من در حال تطبیق کد از Stan، اینجا هستم. این کد این است: model { for (i در 1:I) { z[i] ~ dcat(pi[]) } برای (n در 1:M) { y[n] ~ dcat(theta[jj[n] ,z[ii[n]]]) } } داده ها لیست هستند(I=4، M=12، ii=c(1,1,1,2,2,2,3,3,3,4,4,4), jj=c(1,2,3,1,2,3,1,2,3 ,1,2,3),y=c(1,0,1,1,1,0,1,1,1,0,0,1)) من نمی توانم کد را کامپایل کنم زیرا مدام این خطا را دریافت می کنم: متغیر pi در مدل یا داده اعلام نشده است. آیا ایده ای دارید که چگونه می توانم مدل Dawid Skene را در BUGS مدل کنم؟ ویرایش: زمینه این مدل به شرح زیر است: حاشیه نویسان J وجود دارند که باید N مورد را در دسته K برچسب گذاری کنند. حاشیه نویسی M وجود دارد ($M=N \times J$). برچسب حاشیه‌نویس $i$ برای مورد $j$ به صورت $r_{i,j}$ نشان داده می‌شود. من باید برچسب واقعی واقعی هر مورد $z_i$ و صلاحیت هر حاشیه نویس $\Theta$ را پیدا کنم. ویرایش 2: $\Theta$ یک ماتریس $J \times K \times K$ است که هر عنصر در ماتریس به $[0,1]$ است. علاوه بر این، اگر $i,j$ ثابت باشد، $\sum_{k=1:K}\Theta[i,j,k] = 1$. $\rho$ آرایه ای از عناصر $K$ است. هر عنصر در آرایه بر حسب $[0,1]$ است و مجموع عناصر 1 است. ویرایش 3: $r[i,j]$ یک توزیع طبقه‌بندی است که $\Theta[i,j,:]$ را دریافت می‌کند. به عنوان پارامتر آن و یک عدد صحیح در $[1,K]$ برمی گرداند. $z[i]$ همچنین یک توزیع طبقه‌بندی است که $\rho$ را به عنوان پارامتر می‌گیرد و یک عدد صحیح را در $[1,K]$ برمی‌گرداند. سوال این است که من نمی دانم چگونه $\Theta$ را در BUGS مدل کنم. از آنجایی که آن نیز پارامتری است که می خواهم استنباط کنم، فرض می کنم باید $\Theta$ را به عنوان یک ماتریس در مدل مدل کنم (که نمی دانم چگونه).
مدل Dawid Skene برای BUGS
80399
من با دو پیاده سازی متفاوت از یک مشکل طبقه بندی که نتایج متفاوتی ارائه می دهد مشکل دارم. من و کالجم که اجرای دیگر را انجام دادیم، مشکل را به روش محاسبه مساحت زیر منحنی مشخصه عملکرد گیرنده (AUC) محدود کردیم. یک راه حل از فرمولی که حداقل در یک مکان ظاهر می شود مشتق می شود: [1] $$AUC_1 = \frac{1}{mn}\sum_{i=1}^{m}\sum_{j=1}^{n }\mathbf{1}_{p_i<p_j}$$ من پیاده‌سازی را به «R» منتقل کردم و آن را با نتیجه $AUC_2$ از بسته R «pROC»: auc1 مقایسه کردم <- تابع(p) { مقادیر <- p[,1] مثبت <- مقادیر[ p[,2]==1 ] منفی <- مقادیر[ p[,2]==0 ] تعداد <- 0 برای ( p در مثبت ) { برای ( n در منفی ) { if ( p>n ) { count <- count + 1 } } } return(count/(length(positive) * length(ngatives))) } auc2 <- function(p) { library(pROC) c <- roc(p[,2], p[,1], print.auc=TRUE, ci=F, of=auc ) بازگشت (auc(c)) } پیش بینی شده <- c(0, 1, 0, 1, 1, 1, 1, 1, 0, 1, 0, 0, 0، 0، 1، 0، 0، 0، 1، 1) واقعی <- c(0، 1، 0، 1، 1، 1، 1، 1، 0، 1، 0، 0، 0، 1، 1 , 0, 0, 0, 1, 1) p <- cbind(پیش بینی شده، واقعی) auc1(p) auc2(p) آیا کسی می تواند مقداری را از بین ببرد روشن است که چرا دریافت می کنم: $$AUC_1 = 0.9090909 \mbox{ و } AUC_2 = 0.9545\mbox{?}$$
آیا کسی می تواند مرا در مورد محاسبه AUC مرتب کند؟
114775
من یک سوال اساسی در مورد PCA دارم. به من وظیفه کاهش متغیرهای مستقل در مجموعه داده ای از حدود 250000 ورودی و 400 متغیر مستقل داده شده است زیرا برخی از آنها همبستگی بالایی دارند. بنابراین من می خواهم فقط مفیدترین آنها را حفظ کنم. من می‌خواهم آنالیز PCA را روی آن انجام دهم و آن را خوانده‌ام اما هنوز نمی‌دانم که چگونه منجر به کاهش ابعاد می‌شود. من تجزیه و تحلیل را انجام می دهم و اجزای اصلی را بر اساس چندین معیار انتخاب می کنم. حالا چی؟ چگونه از بین آن 400 متغیر مرتبط ترین را انتخاب کنم و بقیه را حذف کنم؟ متشکرم.
کاهش ابعاد با استفاده از تجزیه و تحلیل مولفه اصلی
82447
من دو نوع نمونه دارم: * برخی شبیه مخلوط گاوسی دوقله ای (نوع A)، * و برخی شبیه به گاوسی (نوع B) هستند. چگونه می توانم آنها را به صورت برنامه ای طبقه بندی/برچسب گذاری کنم؟ زبان می تواند R، Python، Matlab یا هر چیز مناسب دیگری باشد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/2zEVR.png) داده های ارائه شده در نمودارها مقادیر قرمز از تصاویر jpeg هستند. در کد R: # من یک تصویر را می‌خوانم I = readJPEG (پرونده، بومی = FALSE) # بنابراین من اکنون یک ماتریس 3 بعدی (ردیف‌ها، ستون‌ها، 3 برای قرمز/سبز/آبی) هستم. یک خط عمودی از تصویر، و فقط قسمت قرمز image_extract <- I[150:260, 194, 1] # پس از خواندن چندین تصویر، 3 تصویر را رسم می کنم image_extract برای هر نوع (A,B) plot(image_extract_1) lines(image_extract_2) lines(image_extract_3) برای نوع A I رسم شده، 3 عصاره تصویر در همان نمودار. برای نوع B هم همینطور. امیدوارم روشن شود.
چگونه گاوسیان را از مخلوط دووجهی 2 گاوسی طبقه بندی کنیم؟
103543
من فهرستی از داده های سری زمانی ماهانه با دوره های زمانی مختلف و ترتیب ادغام متفاوت دارم. من می خواهم همه آنها را به یک دوره ثابت و یکسان تبدیل کنم. متوجه شدم که ترتیب ادغام یک سری زمانی می تواند با تعداد نقاط داده متفاوت متفاوت باشد. برای مثال: * TS_1$ I(1) با 67 obs است. * TS_2$ I(1) با 108 obs.، I(2) با 67 obs.، I(1) با 66 obs. و I(2) با 65 obs. * TS_3$ I(1) با 108 obs.، I(0) با 67 obs. و I(1) با 66 obs. و غیره است. فرض کنید داده های من در زمان های مختلف شروع می شوند، اما در همان تاریخ به پایان می رسند. . بهترین روش برای تبدیل آنها به ثابت چیست؟ متشکرم
تبدیل سری های زمانی افق زمانی مختلف به ثابت
82991
من یک مدل سرسیکی برآمدگی دیسک را روی پروفایل های نور کهکشان نصب می کنم و باید روشی قوی برای یافتن خطاهای پارامترها پیدا کنم. من به اعتبارسنجی متقابل اجرا شده در این مقاله در اینجا (صفحه 9، بخش 4.2) نگاه می کنم. می گوید باید احتمال حذف نقطه را محاسبه کنم. چگونه این را محاسبه کنم؟ من یک آمارگیر نیستم و تحقیقات آنلاین من فقط من را گیج کرده است! من قبلاً هرگز به احتمالات نگاه نکرده بودم!
احتمال اعتبار متقابل
82448
من سری‌های زمانی روزانه همه سهام/اعضای S&P500 را در یک افق 5 ساله دارم و می‌خواهم طبقه‌بندی کنم که آیا سهام یک بازبینی سود را از طریق یک نتیجه باینری گزارش می‌کند (0=بدون تجدیدنظر در سود، 1 = بازنگری سود). من از یک رگرسیون لجستیک استفاده کرده ام، اما می خواهم آن را با روش یادگیری ماشین مقایسه کنم. آیا بسته randomForest در R می‌تواند چندین سری زمانی را برای یک مشکل طبقه‌بندی مدیریت کند؟ هر گونه راهنمایی در مورد شروع کار من بسیار قدردانی خواهد شد. با تشکر
طبقه بندی چند سری زمانی با استفاده از randomForest R
11541
فرض کنید جمعیت اندازه گیری X وجود دارد، و 50٪ از آن X = 1، و بقیه 50٪ = 0. بنابراین، با توجه به یک نمونه تصادفی با اندازه n، میانگین جمعیت = 0.5 است، چگونه SE آن نمونه را تعیین می کنید. ? یا به زبان ساده، اگر یک سکه را n بار بچرخانید، چقدر می توانید انتظار داشته باشید که از 50% سر و 50% دم منحرف شوید؟
چگونه می توان SE را برای یک اندازه گیری دوتایی، با توجه به حجم نمونه n و میانگین جمعیت شناخته شده محاسبه کرد؟
89379
![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qmNwR.png) تصویر بالا مجموعه داده های فرضی مورد علاقه را نشان می دهد. برای مجموعه ای از نقاط در فضای N بعدی (هر ویژگی مجموعه داده مربوط به یک بعد است)، من می خواهم پارتیشن هایی را با تراکم نسبتاً بالاتر ضربه (نقاط قرمز) در مقابل اشتباهات (نقاط سیاه) شناسایی کنم. هدف من این نیست که همه نقاط را طبقه بندی کنم. به عنوان مثال، در مجموعه داده های ارائه شده در بالا، پارتیشنی وجود دارد که با y > 0.7 و y < 0.75، z > 0.7 تعریف شده است که دارای تراکم نسبتاً بالایی از بازدیدها است. من به دنبال الگوریتمی هستم که بتواند چنین پارتیشنی را در فضای N بعدی شناسایی کند (N ممکن است بین 5-20 باشد). آیا کسی راه خوبی برای انجام این کار می شناسد؟ اگر جای بهتری برای پرسیدن این سوال وجود دارد، لطفاً به من بگویید.
به الگوریتم پارتیشن زیرفضا نیاز دارید، نه لزوماً یک طبقه‌بندی کننده کامل
27300
من در انتخاب ویژگی جدید هستم و می‌پرسیدم چگونه از PCA برای انجام انتخاب ویژگی استفاده می‌کنید. آیا PCA امتیاز نسبی را برای هر متغیر ورودی محاسبه می کند که می توانید از آن برای فیلتر کردن متغیرهای ورودی غیر اطلاعاتی استفاده کنید؟ اساساً، من می‌خواهم بتوانم ویژگی‌های اصلی در داده‌ها را بر اساس واریانس یا مقدار اطلاعات موجود مرتب کنم.
استفاده از تجزیه و تحلیل مؤلفه اصلی (PCA) برای انتخاب ویژگی
19398
من یک بار عبارت زیر را از وب شنیدم: توابع از دست دادن محدب و طبقه بندی غیرخطی دو مفهوم مهم در یادگیری نظارت شده هستند. من نمی دانم چرا می توان این جمله را بیان کرد؟ یا نقش توابع از دست دادن محدب و طبقه بندی های غیرخطی در توسعه الگوریتم های یادگیری نظارت شده چیست؟
بهینه سازی از دست دادن محدب و یادگیری تحت نظارت
19390
من داده‌هایی از یک آزمایش شامل 4 گروه از افراد، 2 مداخله احتمالی اول و 3 مداخله ممکن در نقطه دوم، اندازه‌گیری داده‌های مکرر از هر آزمودنی در چندین نقطه زمانی با کاهش تعداد اندازه‌گیری‌ها در هر نقطه زمانی پیشرونده پس از مداخله دوم دارم (این برنامه ریزی شده بود). مشکل من این است که مطمئن نیستم چگونه داده های نامتعادل را تجزیه و تحلیل کنم. به طور خاص، آزمایش من شامل گروه‌ها و مداخلات زیر است: 1. گروه کنترل (بدون درمان اول، بدون درمان دوم) 2. گروه آزمایشی 1 (درمان اول، بدون درمان دوم) 3. گروه تجربی 2 (درمان اول، نوع A 2). درمان) 4. گروه تجربی 3 (درمان اول، درمان نوع B دوم) درمان اول برای همه افراد دریافت کننده یکسان است. همه گروه ها با تعداد مساوی از افراد (24 نفر) در هر گروه (برای مجموع 96 نفر در مطالعه) شروع به کار کردند. از آزمودنی‌ها در مقاطع زمانی مختلف زیر برای اندازه‌گیری یک متغیر وابسته نمونه‌گیری شد: * `t(0)` \- AKA پایه قبل از زمان اولین درمان (یا زمان معادل) برای همه افراد (در کل 96 نفر، بنابراین 96 امتیاز کل داده) * t(1) \- x تعداد هفته بعد از اولین درمان و قبل از درمان دوم (یا زمان معادل) برای همه افراد (96 کل آزمودنی، بنابراین 96 کل امتیاز داده) * t(2) \- x تعداد هفته پس از دومین درمان (یا زمان معادل) برای همه افراد (96 کل آزمودنی ها، بنابراین 96 امتیاز داده کل ). 1/4 از افراد از هر گروه (6 نفر از هر گروه، 24 نفر در کل) محل درمان برای تجزیه و تحلیل برداشته می شود. * t(3) \- y تعداد هفته پس از دومین درمان (یا زمان معادل) برای 3/4 باقیمانده از افراد (72 نفر در کل، بنابراین 72 کل امتیاز داده). 1/4 دیگر از افراد از هر گروه (6 نفر از هر گروه، 24 نفر در کل) محل درمان برای تجزیه و تحلیل برداشته می شود. * `t(4)` \- z تعداد هفته‌ها پس از دومین درمان (یا زمان معادل) برای 2/4 باقیمانده از افراد (48 نفر در کل، بنابراین 48 کل امتیاز داده). 1/4 اضافی از تعداد اولیه افراد از هر گروه (6 نفر از هر گروه، 24 نفر در کل). * `t(5)` \- تعداد zz هفته‌ها پس از دومین درمان (یا زمان معادل) برای 1/4 باقیمانده از افراد (24 کل آزمودنی، بنابراین 24 کل امتیاز داده). تمام افراد باقیمانده از هر گروه، محل درمان را برای تجزیه و تحلیل حذف می کنند. (امیدوارم همه اینها منطقی باشد.) من سعی می کنم تجزیه و تحلیل کنم که آیا اولین درمان تأثیری را که ما انتظار داریم بر روی افراد دارد یا خیر و آیا درمان دوم اثرات بیشتری دارد یا خیر. متأسفانه، ما _نیاز_ داریم که محل درمان را بعد از هر نقطه زمانی «t(2)`-`t(5)» حذف کنیم تا بتوانیم داده های میکروسکوپی را به دست آوریم و ببینیم چه چیزی در حال تغییر است. ناحیه درمان بسیار کوچک است، بنابراین مصرف بخشی از آن واقعاً یک گزینه نیست. از آنجایی که من 1 متغیر وابسته برای اندازه گیری، 3 متغیر درمانی دارم و هیچ متغیر تصادفی در مطالعه خود ندارم، فرض می کنم باید از ANOVA با اندازه گیری های مکرر استفاده کنم. با این حال، با توجه به اینکه من به تدریج نقاط داده کمتری (اما در بین گروه ها برابر) برای 3 نقطه زمانی آخر دارم (AKA که با 96 @ `t(2)` \--> 72 @ `t(3)` \--> 48 شروع می شود. @ `t(4)` \--> 24 @ `t(5)`)، من مطمئن نیستم که چگونه باید آنالیز را شروع کنم یا اینکه چه برنامه ای برای من کار می کند. من GraphPad Prism دارم، اما فقط به من اجازه می دهد تا دو طرفه ANOVA را بالا ببرم، و مطمئن نیستم که آیا باید از ANOVA 3 طرفه استفاده کنم یا نه، یا حتی باید از روش دیگری استفاده کنم. پیشنهاداتی در مورد نحوه تجزیه و تحلیل داده ها و اینکه در صورت وجود چه برنامه ای بسیار مفید خواهد بود. از هرگونه دیدگاه یا پیشنهاد دیگری نیز استقبال می شود.
چگونه یک طرح ANOVA نامتعادل درون موضوعی را تجزیه و تحلیل کنیم؟
106089
من نمونه ای از افراد را دارم که برای آنها زمان نشان دادن یک رفتار خاص را اندازه گیری کرده ام. این رفتار تکراری است (کشنده نیست). من این رویدادها را با متغیرهای وابسته به زمان، با استفاده از نرخ‌های خطر ثابت تکه‌ای (بر اساس توزیع نمایی) مدل‌سازی کرده‌ام. این به من تخمین پارامتر برای اثر متغیرهای کمکی مختلف داد. این پارامترها در طول زمان ثابت هستند. اکنون، با دانستن اینکه یک فرد دارای مقادیری برای متغیرهای کمکی X1(t) و X2(t) در زمان t است، می توانم نرخ خطر برازش آن فرد را در t محاسبه کنم (به عنوان exp(labda0 + labda1*X1(t) + labda2*X2( t)). مقدار برای این متغیرهای کمکی بنابراین، با توجه به مقادیر X1(t) و X2(t) و تخمین پارامتر برای X1 و X2، می‌خواهم تخمین بزنم که چقدر طول می‌کشد (در چند دقیقه) تا فرد درگیر این رفتار شود. بعد چگونه می توانم آن مقدار زمان را تخمین بزنم.
تخمین زمان تا رویداد مشروط برای مدل تاریخچه رویداد تکراری
110558
من یک مجموعه داده نظرسنجی دارم که کیفیت کلی تجربه را به عنوان متغیر وابسته دارد. من همچنین 4 زیر مجموعه مربوط به غذا، منو، تسهیلات و تیم دارم. هر زیر مجموعه سوالاتی دارد (به ترتیب 5،5،3،3). توجه داشته باشید که هیچ یک از زیر مجموعه ها یک سوال کلی مانند کیفیت کلی غذا چگونه است یا کیفیت کلی منو ندارند. پس از اجرای یک رگرسیون لجستیک ترتیبی، می توانم به اهمیت فردی برای هر یک از 16 متغیر مستقل برسم. با این حال، من می‌خواهم اهمیت فردی را برای «غذا، منو، امکانات و تیم» محاسبه کنم. بچه ها می تونید اینجا به من کمک کنید؟ با تشکر
یافتن اهمیت مقوله ای در رگرسیون
82449
من سی متغیر تصادفی گسسته برای یک برنامه مدیریت ریسک دارم. هر یک از متغیرهای تصادفی ممکن است مقدار $0$ (با احتمال $p_1$) یا $X_i>0$ (با احتمال $p_2$) داشته باشد. هر سی $X_i$ ممکن است متفاوت باشد. من به جمع $S=\sum_{i=1}^{30} X_i$ از تمام سی متغیر تصادفی علاقه دارم. آیا در رابطه با افکار زیر درست می گویم: 1) یک راه حل تحلیلی دقیق برای توزیع احتمال S مستلزم محاسبه $2^{30}$ مختلف ارزش-احتمال-جفت است 2) مقدار مورد انتظار S را می توان به راحتی به عنوان مقدار محاسبه کرد مجموع 30 مقدار مورد انتظار 3) انحراف معیار S را فقط می توان به راحتی محاسبه کرد، اگر همه 30 دارای کوواریانس متقابل 0 4) برای یک ریسک باشند. برنامه مدیریت، که باید مقادیر و همچنین احتمالات را در نظر بگیرد، ما باید یک رویکرد مونت کارلو را به دلیل 1)-3 اعمال کنیم، زیرا هیچ الگوریتم سریعی برای یک راه حل تحلیلی وجود ندارد. Carlo-Approach مانند 4)، اگر برای 30 متغیر تصادفی به جای دو مقدار متفاوت، سه مقدار متفاوت داشته باشیم، قبل از ارسال سوال، بررسی کردم. http://math.stackexchange.com/questions/295363/sum-of-two-random-variables که فقط در مورد توزیع های گسسته یکسان صحبت می کند. سؤالات دیگری که در تأیید متقابل دیدم به نظر می رسد به توزیع های گسسته خاصی مانند برنولی یا توزیع های پیوسته مانند توزیع عادی می پردازد.
مجموع متغیرهای تصادفی گسسته - آیا درست فکر می کنم؟
103549
فرض کنید من یک مدل رگرسیون با e.g. 2 پارامتر $y = ax + b$ اما داده ها غیر عادی هستند، بنابراین قبل از رگرسیون، هر دو طرف را با تخمین Box-Cox تبدیل می کنم. بنابراین من دو پارامتر Box-Cox را نیز دریافت می کنم، $\lambda_x$ و $\lambda_y$. اکنون می خواهم AIC را برای این مدل محاسبه کنم. چند پارامتر وجود دارد؟ غریزه من این است که $\lambda_y$ به عنوان یک پارامتر به حساب می‌آید اما $\lambda_x$ نیست، زیرا اگر این مدل برای پیش‌بینی $y$ از $x$ اعمال شود، $\lambda_x$ را می‌توان در هر زمان از $x موجود تخمین زد. $ اما ما باید به خاطر داشته باشیم که $\lambda_y$ از کدام $ استفاده کنیم زیرا ما نمی‌دانیم $y$ که می‌خواهیم پیش‌بینی کنیم.
آیا تخمین پارامتر Box-Cox در پارامترهای AIC لحاظ می شود؟
64671
هنگام انجام مقایسه مدل، چرا آزمون نسبت احتمال نیاز به دو مدل تودرتو دارد در حالی که این مورد در هنگام استفاده از AIC لازم نیست؟
آزمون نسبت درستنمایی در مقابل AIC برای مقایسه مدل
91072
من دو سوال -احتمالاً ساده- دارم که مرا آزار می‌دهند، هر دو مربوط به برنامه‌نویسی درجه دوم: **1).** دو شکل استاندارد از تابع هدف وجود دارد که من پیدا کردم، که با ضرب منفی 1 متفاوت هستند. بسته R 'quadprog'، تابع هدفی که باید مینیمم شود به صورت $-d^{T}b + \frac{1}{2}b^{T}Db$ و در Matlab هدف به صورت داده شده است. $d^{T}b + \frac{1}{2}b^{T}Db$. چطور ممکن است اینها یکسان باشند؟ به نظر می رسد که یک در یک منفی 1 ضرب شده است (که همانطور که می فهمم از یک مشکل min به یک مشکل حداکثر تغییر می کند. **2).** مربوط به سوال اول، در مورد استفاده از quadprog برای کمینه کردن حداقل مربعات، برای اینکه تابع هدف با فرم استاندارد مطابقت داشته باشد، باید هدف را در مثبت 2 ضرب کنیم. آیا ضرب در عدد مثبت جواب را تغییر نمی دهد؟ **ویرایش:** من علامت اشتباهی برای تابع هدف Matlab داشتم.
بهینه سازی درجه دوم (برنامه نویسی): ضرب در اسکالر
52462
من با داده‌های تک متغیره ساعتی بازی می‌کنم و سعی می‌کنم یک مدل آریما را با بیش از یک فصلی (روزانه، هفتگی) با استفاده از یک ساختگی برای فصلی هفتگی جا بدهم. من یک پست خیلی خوب پیدا کردم که مشکل مشابهی را توضیح می دهد، اما پس از آزمایش های زیاد، ایده هایم با خطای زیر تمام می شود: خطا در optim(init[mask]، armaCSS، روش = optim.method، hessian = FALSE، : non- مقدار محدود ارائه شده توسط optim کد من به شرح زیر است: library(lubridate) start=dmy_hms(25/02/2011 00:00:00) index=start + c(0:1000) * hours(1) week = wday(index) xreg_w = ​​model.matrix(~0+as.factor(week)) colnames(xreg_w) = c («دوشنبه»، «سه‌شنبه»، «چهارشنبه»، «پنج‌شنبه»، «جمعه»، «شنبه»، «یکشنبه») freq=24 set.seed(1234) y=ts(log(35+10*rnorm(1001))، f=freq) مدل کتابخانه (پیش‌بینی) = Arima(y، سفارش=c(0,0,0)، فصلی=لیست(ترتیب=c(1 ,0,0)، period=24)، xreg=xreg_w)
ARIMA دو برابر فصلی با ساختگی در R خطا xreg
11544
> آیا زمانی که یک سری زمانی معین تثبیت شده است، روش استاندارد (یا بهترین) برای آزمایش وجود دارد؟ * * * ### برخی انگیزه‌ها من یک سیستم پویا تصادفی دارم که در هر مرحله زمانی $t \in \mathbb{N}$ مقدار $x_t$ را خروجی می‌دهد. این سیستم تا مرحله زمانی $t^*$ رفتار گذرا دارد و سپس با مقداری خطا در اطراف مقدار متوسط ​​$x^*$ تثبیت می شود. هیچکدام از $t^*$، $x^*$ یا خطاها برای من شناخته شده نیستند. من مایلم برخی فرضیات را مطرح کنم (مثلاً خطای گاوسی در حدود $x^*$) اما هرچه به فرضیات پیشینی کمتری نیاز داشته باشم، بهتر است. تنها چیزی که من با اطمینان می دانم، این است که تنها یک نقطه پایدار وجود دارد که سیستم به سمت آن همگرا می شود، و نوسانات اطراف نقطه پایدار بسیار کمتر از نوسانات در طول دوره گذرا است. این فرآیند همچنین یکنواخت است، می‌توانم فرض کنم که $x_0$ نزدیک $0$ شروع می‌شود و به سمت $x^*$ بالا می‌رود (ممکن است قبل از تثبیت در $x^*$ کمی بیش از حد شود). داده‌های x_t$ از یک شبیه‌سازی می‌آیند، و من به تست پایداری به عنوان شرط توقف شبیه‌سازی نیاز دارم (زیرا من فقط به دوره گذرا علاقه دارم). ### سوال دقیق با توجه به دسترسی به مقدار زمانی $x_0 ... x_T$ برای مقداری $T$ محدود، آیا روشی وجود دارد که با دقت معقول بگوییم که سیستم دینامیکی تصادفی در حدود یک نقطه $x^*$ تثبیت شده است. ? اگر تست $x^*$، $t^*$، و خطای حدود $x^*$ را نیز برگرداند، امتیاز جایزه. با این حال، این ضروری نیست زیرا راه‌های ساده‌ای برای پی بردن به آن پس از پایان شبیه‌سازی وجود دارد. * * * ### رویکرد ساده لوحانه رویکرد ساده لوحانه ای که برای اولین بار به ذهن من خطور می کند (مثلاً من دیده ام که به عنوان شرایط برد برای برخی از شبکه های عصبی استفاده می شود) این است که پارامترهای $T$ و $E$ را انتخاب کنم، سپس اگر برای آخرین گام های زمانی $T$ دو نقطه $x$ و $x'$ وجود ندارد به طوری که $x' \- x > E$ سپس نتیجه می گیریم که تثبیت شده ایم. این رویکرد آسان است، اما نه چندان دقیق. همچنین من را مجبور می کند حدس بزنم که مقادیر خوب $T$ و $E$ باید چقدر باشد. به نظر می رسد باید رویکرد بهتری وجود داشته باشد که به تعدادی از مراحل در گذشته نگاه کند (یا شاید به نحوی داده های قدیمی را کاهش دهد)، خطای استاندارد را از این داده ها محاسبه کند، و سپس آزمایش کند که آیا برای تعدادی دیگر از مراحل (یا موارد دیگر) وجود دارد. طرح تخفیف) سری زمانی خارج از این محدوده خطا نبوده است. من چنین استراتژی کمی کمتر ساده اما هنوز ساده را به عنوان پاسخ درج کردم. * * * هر گونه کمک یا ارجاع به تکنیک های استاندارد قدردانی می شود. ### یادداشت‌های من نیز این سوال را همانطور که هست در MetaOptimize و در توضیحی با طعم شبیه‌سازی بیشتر برای علوم محاسباتی ارسال کردم.
تست پایداری در یک سری زمانی
89370
اگر چندین مدل خطی دارید، مثلا model1، model2 و model3، چگونه می توانید آن را اعتبار متقاطع کنید تا بهترین مدل را انتخاب کنید؟ (در R) من این را تعجب می کنم زیرا AIC و BIC من برای هر مدل به من در تعیین یک مدل خوب کمک نمی کند. در اینجا نتایج: مدل - اندازه (شامل پاسخ) - Mallows Cp - AIC - BIC Intercept فقط - 1 - 2860.15 - 2101.61 - 2205.77 1 - 5 - 245.51 - 1482.14 - 1502.97 -2314 -2316 - 2860.97 - 1497.87 3 - 7 - 179.76 - 1436.29 - 1465.45 4 - 8 - 161.05 - 1422.43 - 1455.75 5 - 9 - 85.77 - 1360.06 - 1360.06 - 1379 - 1422.43 1354.79 - 1396.44 7 - 17 - 27.00 - 1304.23 - 1375.04 All Variables - 25 - 37.92 - 1314.94 - 1419.07 توجه - فرض کنید مدل ها تو در تو هستند.
AIC BIC Mallows Cp Cross Validation Model Selection
12015
آیا کسی پیاده سازی درخت تصمیم را در R (یا دیگر) برای نتایج سانسور شده می شناسد؟ من می خواهم از درخت تصمیم استفاده کنم تا متغیرهای پیوسته را قبل از تجزیه و تحلیل بقا به نوعی اصولی گسسته/بین کنم. من تنها با یک درخت تصمیم گیری سنتی با استفاده از یک هدف باینری (رویداد/بدون رویداد) بدون توجه به ماهیت سانسور شده داده ها در حال حاضر باقی مانده ام.
درخت تصمیم برای داده های سانسور شده
277
هنگام مدل‌سازی داده‌های منطقه‌ای مرتبط با ارجاع جغرافیایی، چه زمانی ترجیح می‌دهیم از مدل خودرگرسیون شرطی نسبت به مدل خودرگرسیون همزمان استفاده کنیم؟
مدل‌های آمار فضایی -- CAR در مقابل SAR
11547
من با توجه به مهارت بسیار کم در متن کاوی با چالش سختی روبرو هستم ... اساساً من یک لیست تقریباً دارم. 200 فرد در یک فایل متنی ساده با ساختاری ساده شرح داده شده اند: > «N: (نام)» > «Y: (سال تولد)» > «S: (خواهر و برادر)» > «N: (نام)» > « Y: (سال تولد)` > `S: (خواهر و برادر)` > > `[و غیره]` نتیجه این است: * هر فرد می تواند داده های گم شده داشته باشد، در این صورت خط _حذف می شود. * چند خواهر و برادر، در این صورت ورودی او بیش از یک خط «S:» دارد. تنها ثابت های واقعی در فایل متنی عبارتند از: * هر فرد با یک فایل خالی از یکدیگر جدا می شود. * همه خطوط دارای پیشوند «N:»، «Y:» یا «S:» هستند. آیا روشی وجود دارد که با استفاده از تقریباً هر چیزی از Excel (!) گرفته تا Stata و R یا حتی Google Refine یا Wrangler، آن آشوب سازمان‌یافته را به یک مجموعه داده استاندارد تبدیل کند، که منظور من از آن، یک ستون در هر توصیفگر، با 'S1, S2 است. ... Sn` ستون برای خواهر و برادر؟ اگر انجمن اشتباه است، لطفاً مرا تغییر مسیر دهید. من فقط متوجه شدم که گروه آمار بیشترین آشنایی را با متن کاوی دارند.
انتقال داده ها از ردیف های خوشه ای به ستون ها
97151
یکی از روش‌های استاندارد برای استخراج فاصله اطمینان یک پارامتر، روش LRT است که در آن سعی می‌کنیم منطقه پذیرش آزمون LRT را با اندازه $1-\alpha$ پیدا کنیم، سپس با معکوس کردن آن، یک بازه اطمینان از اطمینان $1 دریافت می‌کنیم. -\alpha$. اثبات آن را می توان در Berger & Casella، صفحه 421 یافت. با این حال، در عمل پیاده سازی این روش حتی برای توزیع های ساده ای مانند توزیع پواسون، توزیع دو جمله ای و غیره آسان نیست. استراتژی این است: برای هر $\theta_0\ در \Theta_0$، اجازه دهید $A(\theta_0)$ منطقه پذیرش آزمون سطح $\alpha$ از $H_0:\theta=\theta_0$ باشد. برای هر $x\in \mathcal{X}$، یک مجموعه $C(x)$ در فضای پارامتر با $$ C(x)=\\{\theta_0:x\in A(\theta_0)\\ تعریف کنید } $$ از آنجایی که در عمل ما واقعاً نمی دانیم $\theta_0$ چیست و باید به تخمین های مختلفی مانند MME یا MLE پاسخ دهیم، استراتژی فوق از نظر محاسباتی فشرده است. برای پیاده سازی آن در R، باید یک بازه باز $O$ حاوی $\theta$ را انتخاب کنیم، به طور تصادفی $N$ امتیاز را در $O$ انتخاب کنیم، سپس برای هر نقطه $\theta_{i}$ منطقه پذیرش را پیدا کنیم و آیا $x$ در آن است (معمولاً به صورت عددی با ارزیابی بیش از $M$ امتیاز در $\mathcal{X}$). در نهایت کوچکترین و بزرگترین $\theta_i$ را به عنوان فاصله اطمینان انتخاب می کنیم. پیچیدگی در آمار LRT نهفته است. برای هر $\theta_i$، برای یافتن منطقه پذیرش ابتدا باید $c_{\alpha,i}$ را محاسبه کنیم. سپس تست LRT را معکوس کنید تا بازه پذیرش $\lambda(x)>c_{\alpha,i}$ را پیدا کنید. و این بی اهمیت نیست زیرا ما باید یک $c_{\alpha,i}$ معتبر را محاسبه کنیم که یک منطقه رد را با سطح $\alpha$ تعیین می کند. در عمل، حتی برای توزیع دوجمله‌ای این کار آسان نیست (اگرچه می‌توان آن را انجام داد). و برای توزیع پیچیده تر ممکن است فرآیند بسیار پیچیده ای باشد. این، همراه با این واقعیت که ما باید بیش از $N$ امتیاز را ارزیابی کنیم، منجر به پیچیدگی محاسباتی بیش از $O(NM)$ یا شاید حتی $O(NM^2)$ می شود. علاوه بر این، تقریب‌ها در هر مرحله در محاسبات عددی، نتیجه واقعی را کمتر دقیق می‌کند. پس چگونه در عمل این کار را انجام دهیم؟ آیا تلاشی برای کاهش این پیچیدگی محاسباتی صورت گرفته است؟ من اینجا می پرسم چون جواب ساده ای از جای دیگر پیدا نکردم. فکر می‌کنم دیگران هم قبلاً همین سؤال را می‌پرسیدند.
راه خوبی برای پیاده سازی فاصله اطمینان LRT معکوس چیست؟
64672
اگر چندین بعد برای داده های خود دارید، جایی که امکان تجسم آنها با هم وجود ندارد، چگونه تصمیم بگیرید که مدل شما باید خطی یا چند جمله ای باشد؟
رگرسیون خطی در مقابل چند جمله ای
88399
این شبیه به مزدوج قبلی است، با این تفاوت که در اینجا من در نظر می‌گیرم که آیا ممکن است توزیع نمونه‌گیری و توزیع خلفی تحت یکنواخت قبلی به یک خانواده از توزیع‌ها تعلق داشته باشند؟ به عبارت دیگر، هنگامی که $p(x|\theta)$ را به عنوان تابع احتمال $\theta$ با توجه به $x$ مشاهده می‌کنیم، و سپس آن را عادی می‌کنیم تا توزیعی برای $\theta$ باشد، مثال‌هایی وجود دارد که $p( x|\theta)$ و توزیع $\theta$ متعلق به یک خانواده است؟ به طور کلی تر، آیا نمونه هایی برای پیشین ها به جز توزیع های یکنواخت و نمونه گیری وجود دارد که در آن قسمت های پسین در همان خانواده توزیع های توزیع های نمونه قرار می گیرند؟ با تشکر
هنگامی که توزیع نمونه و توزیع پسین تحت یکنواخت قبلی متعلق به یک خانواده است؟
11548
با توجه به مجموعه داده زیر برای یک مقاله واحد در سایت من: مقاله 1 2/1/2010 100 2/2/2010 80 2/3/2010 60 Article 2 2/1/2010 20000 2/2/2010 25000 2/3/ 2010 23000 که در آن ستون 1 تاریخ و ستون 2 تعداد است بازدید از صفحه برای یک مقاله یک محاسبه شتاب اولیه چیست که می‌توان برای تعیین اینکه آیا این مقاله برای روزهایی که داده‌های مشاهده صفحه برای آن دارم روند صعودی یا نزولی دارد، انجام داد؟ به عنوان مثال با نگاه کردن به اعداد می توانم ببینم که ماده 1 روند رو به پایین دارد. چگونه می توان آن را در یک الگوریتم به راحتی منعکس کرد؟ با تشکر
بهترین راه برای تعیین اینکه آیا بازدید از صفحه روند صعودی یا نزولی دارد چیست؟
52463
من با آزمایش معمولی نمونه های بزرگ سر و کار دارم. همانطور که در اینجا بیان شد: آیا تست نرمال بودن اساساً بی فایده است؟ اگر نمونه خیلی بزرگ باشد، معمولاً آزمایش اساساً بی فایده است. حتی تست بصری نمی تواند بیانیه روشنی در مورد توزیع بدهد؟ بنابراین، اگر توزیع نرمال باشد، چگونه یک نمونه بزرگ را آزمایش کنیم؟
چگونه یک نمونه بزرگ را در صورت توزیع نرمال آزمایش کنیم؟
100011
من در حال حل مشکلات توزیع پواسون هستم و به مشکلی برخوردم که در آن باید نرخ (لامبدا) یک چیز خاص را با احتمال 0.001 (1 در 1000) p(4) بررسی کنم. به طور خاص، من باید احتمال پیدا کردن یک کوکی از هر 1000 را که کمتر از 5 کشمش داشته باشد، پیدا کنم. بنابراین باید بگویم قبل از مخلوط شدن خمیر باید چند عدد کشمش وجود داشته باشد تا احتمال بالا را مشخص کنم. ** چگونه می توانم این کار را در R انجام دهم؟ ** در اینجا سؤال واقعی در دست است (من به **Q.7a** علاقه مند هستم)، و در اینجا پیوند با پاسخ ها وجود دارد، لطفاً به پاسخ ها نگاه کنید. > **7.** یک دسته از خمیر کوکی به 100 کوکی بریده می شود و سپس > پخته می شود. 400 عدد کشمش در دسته خمیر گنجانده شده است و خمیر > کاملاً مخلوط شده است تا مواد به صورت تصادفی درآیند. چه شانسی وجود دارد که با وجود این اقدامات احتیاطی، یک یا چند کوکی در دسته > اصلاً کشمش نداشته باشد؟ > > **7a. چه تعداد کشمش باید در دسته خمیر ریخته شود تا 99% مطمئن شوید که هیچ کوکی بدون کشمش بیرون نمی آید؟**
چگونه لامبدا را در R پیدا کنیم، اگر پارامترهای دیگر شناخته شده باشند
16709
**زمینه:** اغلب مقادیری در میان مجموعه نمونه‌گیری وجود دارد که به نظر می‌رسد با سایر مجموعه‌ها سازگاری چندانی ندارد. آنها را به عنوان مقادیر افراطی یا صرفاً پرت نامیده می شود. برخورد با عوامل پرت همیشه یک موضوع چالش برانگیز بوده است. چند رویکرد برای حل مشکل وجود پرت وجود دارد: * انتقال آنها به یک مجموعه جدا * جایگزینی آنها با نزدیکترین مقادیر از مجموعه غیر پرت * ... **سوال:** بهترین روش پیشنهادی چیست؟ ) برای مقابله با موارد پرت؟ (با جزئیات و مثال)
چگونه با موارد پرت برخورد کنیم؟
89376
من در حال حاضر دانشجوی دکتری آمار زیستی هستم (سال دومم را تمام می کنم). هدف اصلی من از ورود به مقطع کارشناسی ارشد این بود که وارد دانشگاه شوم. اخیراً در مورد این انتخاب بحث کرده‌ام و به این فکر می‌کنم که آیا شاید صنعت مناسب‌تر باشد. من از یک پیشینه برنامه نویسی قوی آمده ام. من عاشق استفاده از R هستم زیرا بسیار شبیه به زبان های برنامه نویسی است که من با آنها بزرگ شده ام و حتی می توانم با آنها ارتباط برقرار کنم. من از SAS متنفرم هر وقت مجبور می شوم از آن استفاده کنم، احساس می کنم 2 کفش چپ می پوشم که 3 سایز خیلی کوچک است. من می دانم که SAS در صنعت غالب است. بچه ها فکر می کنید من فقط باید آن را بنوشم و SAS را به طور ماهرانه یاد بگیرم یا می توانم با R کنار بیایم؟
اگر بخواهم وارد صنعت شوم باید SAS را یاد بگیرم؟
88021
من یک مدل رگرسیون لجستیک نصب کرده‌ام که احتمال پرواز با فاصله تا یک رویداد اختلال را نشان می‌دهد. حجم نمونه من 140 مشاهده است که 45 مورد آن برای پرواز مشاهده شده است. فاصله تا اختلال تنها پیش‌بینی‌کننده مهم در میان بسیاری از کاوش‌شده‌ها است (تعامل‌های مرتبط بیولوژیکی نیز). در اینجا خروجی از کنسول R است. خطای z مقدار Pr(>|z|) (فاصله) -0.1233 0.3438 -0.359 0.7199 approach_km -0.4530 0.2225 -2.036 0.0418 * انحراف صفر: 175.82: 175.82 در 1319 درجه انحراف 1319 درجه آزادی AIC: 175.3 تعداد تکرارهای امتیازدهی فیشر: 4 در اینجا نموداری از احتمالات پیش بینی شده پرواز است. ![رگرسیون لجستیک باینری، پرواز~ فاصله](http://i.stack.imgur.com/V60uB.jpg) همانطور که می بینید هیچ نقطه ای در طول پیوستار فاصله وجود ندارد که احتمال پرواز در آن از 0.5 تجاوز کند. از آنجایی که چنین است، جداول طبقه بندی هرگز یک پرواز را پیش بینی نمی کند (67.9٪ را به درستی پیش بینی می کند، ALL THE NO FLIGHT EVENTS!). مک فادن psuedo R2 = 0.026. من از تناسب مدل راضی هستم، اما معتقدم که باید این نوع آمارهای خوب تناسب را هنگام انتشار درج کنم. من ترجیح می دهم نشان دهم که در محدوده مشخصی از داده ها، مثلاً 1 کیلومتر، تقریباً 0.40 احتمال پرواز وجود دارد. اگر 20 مشاهده مرتبط با این تخمین وجود داشت، 8 رویداد پروازی و 12 رویداد غیر پروازی وجود داشت. آیا راهی برای نشان دادن این موضوع وجود دارد؟ چگونه می‌توانم این نتایج را بنویسم تا یافته‌هایم را بدون تردید داور در مورد تست‌های عدم تناسب نشان دهم؟ هر گونه فکر یا مرجع بسیار قدردانی خواهد شد. با تشکر به روز رسانی: در پاسخ به @Drew75. در اینجا منحنی ROC است. آیا این به این معنی است که مدل آنطور که فکر می کردم عملکرد خوبی ندارد؟ ![منحنی ROC](http://i.stack.imgur.com/p8uqj.jpg)
رگرسیون لجستیک حسن تناسب
82442
آیا تکنیک‌هایی وجود دارد که اهمیت مقادیر مشخصه‌های فردی را در یک نقطه داده خاص، از نظر اهمیت کلی / دلالت / مشارکت ویژگی در منحصربه‌فرد بودن نقطه داده (یکتا بودن با توجه به کل مجموعه داده) کمیت کند. من کاملاً مطمئن نیستم که آیا آن را کاملاً بیان کرده ام. ببخشید اگر در ارائه ام کامل نیستم. من در وب، به ویژه در Google Scholar، زیاد جستجو کرده‌ام، اما در حالی که کلمات کلیدی‌ای که فکر می‌کنم تمام شده است، چیزی مرتبط پیدا نکردم. لطفاً اگر چیزی مشابه آنچه که من نوشتم وجود دارد به من اطلاع دهید.
آیا تکنیک هایی وجود دارد که اهمیت/معنای مقادیر مشخصه های فردی یک نقطه داده خاص را کمیت کند؟
88027
من دو نمونه داده S1 و S2 دارم که هر دو از خود همبستگی فضایی رنج می برند. نمونه‌ها اندازه‌های متفاوتی دارند و جفت نیستند (به طور خاص، S1 از M زیرنمونه از k نقطه داده‌های همبسته فضایی تشکیل شده است، در حالی که S2 حاوی N از این نمونه‌های فرعی است). داده‌ها عمدتاً پیوسته هستند، با این حال، به دلیل کمیت اندازه‌گیری شده، مقادیری وجود دارد که تعریف نشده‌اند اما در مقایسه با بقیه نمونه‌ها بالا هستند و روی مقادیر بالای مصنوعی ثابت تنظیم شده‌اند. به همین دلیل فقط می توان از آمار میانه استفاده کرد و سفید کردن داده ها با استفاده از ماتریس کوواریانس امکان پذیر نیست. می‌خواهم بررسی کنم که آیا S1 و S2 از یک جمعیت هستند یا خیر، اما نمی‌توانم چیزی ناپارامتریک پیدا کنم که با داده‌های همبسته کار کند. میخواستم بدونم کسی از تستی اطلاع داره که در این شرایط قابل اجرا باشه.
آزمون 2 نمونه ای ناپارامتریک برای داده های همبسته
110559
من این سوال را در زمینه یک رگرسیون خطی با متغیر پیش‌بینی‌شده تک $Y$ و پیش‌بینی‌کننده‌های چندگانه $X$ می‌پرسم. $X$ از نظرسنجی با استفاده از مجموعه آیتم بدست می آید که نشان می دهد همه اقلام به هر پاسخ دهنده ارائه نمی شود، اما فقط زیر مجموعه ای از موارد ارائه می شود. این زیر مجموعه به طور تصادفی انتخاب می شود (اما در مورد فعلی $Y$ همیشه به همه پاسخ دهندگان ارائه می شود). هدف این است که یک مدل رگرسیون خطی را بر روی همه X$ بدون اطلاعات گمشده به دلیل انتخاب تصادفی اقلام تخمین بزنیم. من سه سوال زیر را دارم: 1) با توجه به تصادفی‌سازی، به نظر می‌رسد که داده‌ها به طور تصادفی (MCAR) گم شده‌اند. بنابراین، تخمین های آمار کافی (ماتریس همبستگی و میانگین ها) بی طرفانه است. از این رو، من استنباط می کنم که ضرایب رگرسیون باید بی طرفانه باشد. آیا این درست است؟ 2) نرم افزار استاندارد موارد را به صورت فهرستی حذف می کند که منجر به مجموعه ای خالی از مشاهدات می شود. آیا باید ضرایب را فقط با استفاده از آمار کافی برآورد کنم؟ چه رویکردهای مناسبی در R (به عنوان مثال، توابع موجود) خواهد بود؟ 3) برای افزودن پیچیدگی به مسئله، فرض کنید موارد در احتمال (معلوم) ظاهر شدن در نظرسنجی متفاوت است. بنابراین اندازه نمونه به ازای هر جفت آیتم به عنوان تابعی از $np_1p_2$ متفاوت است، که اینها حجم نمونه و احتمال ظاهر شدن در نظرسنجی برای هر دو مورد هستند. چگونه باید اندازه های مختلف نمونه در تخمین خطاهای استاندارد تخمین گنجانده شود، و باز هم توابع موجود در R چگونه می توانند با این موضوع مقابله کنند؟
رگرسیون خطی را با استفاده از مواردی که به طور تصادفی از یک مجموعه آیتم انتخاب شده اند، تخمین بزنید
19972
... که در آن معنی داری نتایج با آزمون های آماری بررسی شده است. اگر نه، پس چرا؟ **نکته جانبی:** داده ها بر اساس احتمالات قبلی مشخص شده تولید می شوند.
آیا قضاوت در مورد برتری یک تکنیک طبقه بندی تنها با استفاده از داده های مصنوعی معتبر است؟
5987
بدترین کلاسی که در مسائل عملی بد یاد می گیرد کدام است؟ ویرایش: به خصوص در مورد داده های تست بد است.. با تشکر
بدترین طبقه بندی کننده
46134
آیا کسی می داند چگونه یک ضریب را تفسیر کند وقتی متغیر در مدل متقابل متغیر اصلی است؟ من یک معادله معکوس دارم، که در آن $\text{time} = \beta_0 + \beta_1(1/\text{horsepower})$، که در آن $\text{time}$ مدت زمان لازم برای شتاب دادن به یک ماشین است. من باید علامت متغیر $\text{horsepower}$ را فرض کنم. اما برای انجام این کار، باید معنی آن را بفهمم.
چگونه یک ضریب رگرسیون را برای متقابل یک متغیر مستقل تفسیر کنیم؟
82999
در حال حاضر در حال یادگیری استفاده از تجزیه و تحلیل اجزای اصلی (PCA) هستم. ایده کلی روش برای من کاملاً واضح است و در این مورد سؤالی ندارم. با این حال، من به توضیحی در مورد چگونگی تفسیر خروجی محاسباتم نیاز دارم. من پست‌ها، تفسیر امتیازات PCA و امتیازات مؤلفه اصلی چیست؟ را دیده‌ام که به من کمک زیادی کرد، اما هنوز نمی‌توانم چیزی از داده‌هایم دریافت کنم. من یک مجموعه داده متشکل از متغیرهای $x$، $y$، $z$ ایجاد کرده‌ام. متغیر $z$ بسیار به $y$ بستگی دارد، در حالی که $y$ و $z$ تقریباً به متغیر $x$ وابسته نیستند. من محاسبات PCA را انجام داده ام، که از آنها مقادیر ویژه و بردارهای ویژه (مرتب شده در جهت کاهش مقادیر ویژه) بدست آورده ام. سوال من این است: چگونه می توانم نتیجه بگیرم که کدام متغیرها معنی دار و کدام بی معنی هستند؟ چگونه می توانم بگویم که کدام متغیرها با یکدیگر همبستگی دارند؟ چه چیز دیگری را می توانم از داده ها حذف کنم و چگونه؟ ویرایش: می پرسم با داده های اصلاح شده چه کار کنم؟ من مجموعه جدیدی از داده ها دارم که ابعاد کمتری دارند. حالا چی؟ چگونه به من در درک داده ها کمک می کند؟
چگونه می توانم نتایج تجزیه و تحلیل مؤلفه های اصلی را تفسیر کنم؟
52469
من یک طرح آزمایشی برای آزمایشی در حوزه علوم شناختی طراحی کرده ام، اما 100٪ مطمئن نیستم، اگر ایده من در مورد تجزیه و تحلیل آماری درست باشد. من این آزمایش را برای پایان نامه کارشناسی ارشد خود انجام می دهم. مروج من بیشتر یک فیلسوف است تا یک آماردان، بنابراین من به عنوان افراد با تجربه در این زمینه به شما مراجعه می کنم. ( **سوال 1** :)میشه لطفا یه نگاهی بندازید و بگید خوب به نظر میاد یا نه؟ علاوه بر این من دو سوال دیگر دارم، اگر اشکالی ندارد بپرسم :) # آزمایش دو گروه محرک وجود دارد: 1. تصاویر 1. از نوع _A_ 2. از نوع _B_ 2. جملات 1. از نوع _x_ 2. از نوع _y_ به شخص ابتدا یک محرک (تصویر) از نوع _A_ یا _B_ داده می شود و سپس یک محرک دوم (یک جمله) از نوع _x_ یا _y_. سپس فرد باید نشان دهد که آیا جمله برای تصویر قبلی صحیح است یا خیر. بنابراین من 4 سناریو ممکن دارم: 1. _A_ -> _x_ 2. _A_ -> _y_ 3. _B_ -> _x_ 4. _B_ -> _y_ می خواهم بدانم: 1. _اگر_ تفاوت های جالبی بین، مثلاً، (1) وجود دارد. ) و (3). 2. _جهت_ تفاوت بین موارد (مثلاً افراد در مورد (1) نسبت به مورد (3) پاسخ صحیح تری دادند). 3. _قدرت_ تفاوت بین موارد. # آمار ## Intro Factors یا متغیرهای مستقل، برای تصاویر _I_ و برای جملات _S_ هستند. عامل _I_ دارای دو سطح (_A_ و _B_) و همچنین عامل _S_ دارای دو سطح (_x_ و _y_) است. نتیجه / متغیر وابسته تعداد پاسخ های صحیح است. طرح به صورت فاکتوریل _I_ x _S_ (دو طرفه) می باشد. به هر موضوعی طیف کاملی از محرک ها داده می شود، بنابراین طرح یک اندازه گیری درون آزمودنی ها و اقدامات مکرر است. ## نتایج پس از بررسی اینکه آیا مفروضات لازم (مانند همگنی واریانس های خطا) برآورده شده اند یا خیر... برای اینکه بدانیم: 1. _اگر_ تفاوت های جالبی بین مثلا (1) و (3) وجود داشته باشد، ابتدا نیاز دارم. برای بررسی اینکه آیا تعامل بین _I_ و _S_ وجود دارد یا خیر. اگر چنین است، پس من یک تست پس از پایان (Tuckey's) انجام خواهم داد تا بفهمم دقیقاً کجا تفاوت ها وجود دارد. 2. _جهت_ تفاوت های بین موارد (مثلاً افراد در مورد (1) پاسخ های صحیح تری نسبت به مورد (3) دادند)، من می بینم که میانگین در موقعیت صحیح در آزمون تعقیبی بزرگتر است. 3. _قدرت_ تفاوت بین موارد. اندازه افکت $R^{2}$ یا $\eta^{2}$ است. ( **سوال 2** :) اما چگونه می توان آن را برای موارد فردی دید؟ آخرین چیزی که من نمی دانم این است که چگونه می توانم موقعیت را تفسیر یا اصلاح کنم، اگر چنین اتفاقی بیفتد که مثلاً بین _I_ (تصاویر) تفاوت (اثر اصلی) وجود داشته باشد. من ترجیح می دهم هیچ تفاوتی بین تصاویر و جملات نداشته باشم، فقط تعامل. البته من نمی توانم روی آن حساب کنم. ( **سوال 3** :)آیا راهی برای مقابله با چنین مشکلاتی وجود دارد؟
در تأیید طرح آزمایش من کمک کنید
19391
تفاوت (ها) بین طراحی فاکتوریل 2x2 و ANOVA دو طرفه چیست؟ آیا آنها همین پیش فرض ها را دارند؟
تفاوت بین آزمایش طراحی فاکتوریل 2x2 و ANOVA دو طرفه چیست؟
88025
من در حال انجام پروژه ای برای طبقه بندی حضور ماشین ها/دوچرخه ها در یک تصویر هستم. ویژگی ها را از تصاویر (مجموعه داده ماشین ها و تصاویری که متعلق به ماشین ها نیستند) استخراج کرده ام و برای به دست آوردن یک فرم خوشه بندی K-means را اعمال کرده ام. بردار ویژگی X برای همه تصاویر طبقه‌بندی کننده SVM (کرنل RBF). در این مورد، آیا کاهش تعداد ویژگی‌ها گزینه خوبی است (قبل از دادن ویژگی به دست آمده از تصویر قبل از دادن آن به خوشه‌بندی)؟ با تشکر و احترام
وقتی دقت در فرآیند اعتبارسنجی متقابل کمتر است، آیا کاهش ویژگی ها ایده خوبی است؟
89374
در این مطالعه: روزنبلوم، سارا و همکاران. دست خط به عنوان ابزاری عینی برای تشخیص بیماری پارکینسون. مجله عصب شناسی 260.9 (2013): 2357-2361 محققان تلاش می کنند تا بیماری پارکینسون (PD) را با یک گروه کنترل 20 شرکت کننده و یک گروه بیماران PD متشکل از 20 شرکت کننده طبقه بندی کنند، در حالی که شرکت کنندگان در حال نوشتن بر روی یک قلم و کاغذ دیجیتالی هستند. محققان دریافتند که یک تحلیل MANOVA پیش‌بینی می‌کند که با دقت 95 درصد. من با MANOVA کاملاً تازه کار هستم، اما به نظر می رسد که نیاز به جداسازی گروه ها از مجموعه آموزشی و مجموعه های اعتبار سنجی وجود دارد. درست میگم؟ به عبارت دیگر، آیا MANOVA مستعد اضافه تناسب است؟
استفاده از MANOVA برای طبقه بندی بدون جدا کردن مجموعه های آموزشی و تست
82990
آیا راه ساده ای برای ارزیابی pdf دامنه مجموع بردارها با دامنه های ثابت و فازهای تصادفی وجود دارد؟ به صراحت، اجازه دهید $Ae^{i\phi}=\sum_{n=1}^NA_ne^{i\phi_n}$، که در آن $N$ یک عدد صحیح مثبت ثابت است، $A_n$ اعداد حقیقی مثبت ثابت هستند، و $\phi_n$ به طور مستقل به طور یکنواخت روی $[0,2\pi)$ توزیع شده است. سپس $A$ قدر واقعی غیر منفی مجموع است، و $\phi$ فازی است که من به آن اهمیتی نمی‌دهم. آیا یک عبارت ساده برای pdf $A$ وجود دارد؟ (یا به طور معادل، یک عبارت ساده برای pdf $A^2$؟) در صورت عدم موفقیت، آیا تقریب معقولی وجود دارد که برای $N$ بزرگ و کوچک کار کند؟ من از این بررسی تحقیقاتی در مورد سؤالات مرتبط کار می کنم: * Abdi et al. 2000، در PDF مجموع بردارهای تصادفی، IEEE Trans. اشتراک. **48** (1) 7-12. DOI: 10.1109/26.818866، پیش چاپ رایگان: http://web.njit.edu/~abdi/srv.pdf من منابع ارائه شده در صفحه اول برای مورد (3) و (c) تحلیلی های مختلف را مرور کردم تقریبی، اما من چیزی رضایت بخش پیدا نکردم. به نظر می رسد به طور کلی مشکل سختی است. خبر خوب این است که من به دامنه های ثابت $A_n$ علاقه مند هستم که باید مشکل را ساده کند. خبر بد این است که من به مقادیر دلخواه $A_n$ علاقه مند هستم. ممکن است 100 بردار با بزرگی مشابه وجود داشته باشد، یا ممکن است 1 بردار غالب و 5 بردار بسیار کوچکتر وجود داشته باشد، و غیره. من می‌خواهم پی‌دی‌اف را میلیون‌ها بار در ثانیه ارزیابی کنم، این یکی از دلایلی است که از انتگرال‌های بخش دوم نظرسنجی اجتناب می‌کنم. اگر انتگرال‌ها برای $A_n$ ثابت دچار یک ساده‌سازی گسترده شوند، برای من واضح نیست، پس لطفاً اگر چنین است به من اطلاع دهید! امیدوارم از پاسخ این سوال در رویکرد بیزی برای ردیابی زمین چندصدایی استفاده کنم. ارزیابی احتمال پاسخ فیلتر مشاهده شده ناشی از مجموعه ای از زنگ های پیشنهادی با دامنه های فیلتر شده خاص و فازهای ناشناخته مفید خواهد بود. اگر راه حل عالی وجود نداشته باشد، می توانم دوباره به یک هک زشت بازگردم: اگر $N=2$ باشد، راه حل دقیق را محاسبه کنید. اگر $N> 2$ باشد، توزیع $A$ را با یک توزیع Rayleigh تقریبی کنید که به پشتیبانی صحیح کوتاه شده است. بنابراین، حدس می‌زنم به دنبال راه‌حلی هستم که کمی بهتر از آن باشد. به عنوان مثال، قرار دادن قله ها در مکان های صحیح زمانی که $N=3$ باشد، عالی خواهد بود.
مجموع بردارهای تصادفی با دامنه های ثابت
103542
من می‌دانم که وقتی عامل کمی است، تعامل $AB$ می‌تواند یک جزء خطی و یک جزء درجه دوم داشته باشد و بنابراین $AB^2$ در آنجا معنا پیدا می‌کند. اما وقتی عناصر کیفی داریم این چگونه ترجمه می شود؟ _طراحی و تجزیه و تحلیل آزمایشات_ توسط مونتگومری می گوید که اجزای $AB$ و $AB^2$ معنای واقعی ندارند. اما چرا باید از آنها استفاده کنیم؟ آیا کسی می تواند پاسخی شهودی برای این موضوع به من بدهد یا به جایی که می توانم تفسیر بهتری پیدا کنم اشاره کند؟
معنی تعامل $A(B^2)$ در فاکتوریل 3 سطحی با 2 عامل $A$ و $B$، زمانی که عوامل کیفی هستند چیست؟
80596
من در حال حاضر یک رگرسیون خطی اجرا می کنم و $R^2$ آن را پس از آن محاسبه می کنم. من فاصله کوک از همه نقاط را محاسبه می‌کنم و تمام نقاط با فاصله بالاتر از $d_i >\frac{4}{\text{No را از تحلیل دور می‌کنم. مشاهدات}}$. در کمال تعجب، $R^2$ بدتر است. این چگونه ممکن است؟
فاصله کوک و R^2$
66109
من یک سری نقاط (x1,y1) دارم که چگونه می توانم یک سری از نقاط (x2,y2) را برگردانم که روی یک منحنی گاوسی هستند که با داده ها مطابقت دارند.
نحوه تناسب گاوسی
17251
من به دنبال یک تعریف غیر فنی از کمند و آنچه که از آن استفاده می شود هستم.
کمند در تحلیل رگرسیون چیست؟
88023
فرض کنید یک نظرسنجی ماهانه دارید که سؤالات مختلفی می پرسد که پاسخ ها و خطای استاندارد را جمع آوری می کنید. با این حال، برخی از پاسخ دهندگان شروع به ارائه پاسخ به نظرسنجی ماهانه به صورت مکرر، اما نامنظم می کنند. توجه داشته باشید که برخی از پاسخ دهندگان هستند، اما نه همه، و پاسخ های آنها در روزهای مختلف، به طور بالقوه با همپوشانی های مختلف خواهد آمد. بهترین گزینه برای به روز رسانی نظرسنجی به صورت روزانه برای ارائه اطلاعات نظرسنجی انبوه (یا یک سری زمانی از پاسخ سوال اساسی) چیست؟ جایگزینی؟ میانگین متحرک؟ فیلتر کالمن؟ تکنیک های دیگر؟ متناوباً، موقعیتی را در نظر بگیرید که در آن چندین نظرسنجی دارید که سؤالات کافی مشابه می پرسند. شما اطلاعات مربوط به نظرسنجی ها را در روزهای مختلف (میانگین، شمارش، خطاهای استاندارد) به دست می آورید، به طور بالقوه بیش از یک مورد در روز. بهترین راه برای تجمیع اطلاعات مختلف نظرسنجی در یک سری اصلی چیست؟
جمع آوری اطلاعات نظرسنجی در طول زمان
276
آیا یک قاعده کلی یا اصلاً راهی وجود دارد که بگوییم یک نمونه باید چقدر بزرگ باشد تا بتوان یک مدل را با تعداد مشخصی از پارامترها تخمین زد؟ بنابراین، برای مثال، اگر بخواهم رگرسیون حداقل مربعات را با 5 پارامتر تخمین بزنم، نمونه باید چقدر باشد؟ آیا مهم است که از چه تکنیک تخمینی استفاده می کنید (مثلاً حداکثر احتمال، حداقل مربعات، GMM)، یا چند یا چه آزمایش هایی را که قرار است انجام دهید؟ آیا هنگام تصمیم گیری باید تنوع نمونه را در نظر گرفت؟
یک نمونه برای یک تکنیک و پارامترهای تخمین مشخص چقدر باید بزرگ باشد؟
89373
برای یک پروژه لیسانس تشخیص احساسات بالقوه، فکر می‌کردم وقتی نتایجم را می‌گیرم، چه آزمون آماری را باید انجام دهم تا آزمایش کنم که آیا مهم است یا خیر. من آزمایش خواهم کرد که کدام ترکیب از استخراج ویژگی و الگوریتم یادگیری ماشین بهترین درصد طبقه بندی صحیح را به من می دهد. نتایج از ترکیب A وجود خواهد داشت ...٪ طبقه بندی شده، ترکیب B ...٪، ترکیب C ...٪ و غیره. از کدام آزمون آماری برای آزمایش اینکه آیا ترکیب ... به طور قابل توجهی بهتر از بقیه است یا خیر استفاده کنم و چرا؟ به عنوان مثال: 6 احساس باید در یک پایگاه داده با 100 چهره برای هر احساس شناسایی شوند (مجموع 600). هر الگوریتم یادگیری ماشینی از 2/3 برای آموزش و 1/3 برای آزمایش استفاده می کند. کدام چهره در هر احساس در مجموعه آموزشی و کدام یک در مجموعه آزمایشی است به طور تصادفی در هر دوره برای 100 دوره انتخاب می شود. نتیجه نهایی به عنوان مثال: ترکیب A طبقه بندی شده 93.4٪ صحیح، ترکیب B 91.2٪، ترکیب C 86.3٪ و غیره. برای آزمایش اینکه آیا ترکیب A به طور قابل توجهی بهتر از ترکیب B (و C) است، از کدام آزمون آماری استفاده کنم و چرا؟ همچنین آیا دوقطبی است؟ زیرا احتمال موفقیت در انتخاب احساس مناسب 16.67 درصد است.
آزمون آماری درصد صحیح طبقه بندی شده توسط تشخیص احساسات
52464
چگونه می توانم یک مدل چندسطحی بیزی را با ساختار همبستگی AR(1) منطبق کنم؟ من سعی می‌کنم مدل‌سازی بیزی را به خودم بیاموزم و در تعجب هستم که چگونه می‌توان یک مدل چند سطحی با ساختار همبستگی AR(1) را مشخص کرد. مثلاً چگونه می توانم معادل را از nlme با استفاده از «JAGS» یا «stan» دریافت کنم؟ lme(y ~ زمان + x، تصادفی=~زمان|موضوع، corr=corAR1())
بیزی چند سطحی با ساختار همبستگی AR1
46136
من سعی می کنم اندازه اثر را برای یک صفت که برای مجموعه متغیرهای مزاحم من تنظیم شده است محاسبه کنم. مدل‌های من به این شکل هستند: Trait ~ Dx + Age + Sex که در آن Trait یک متغیر پیوسته است و Dx یک متغیر عضویت گروه باینری است. من از این فرمول اولیه برای به دست آوردن تخمین اندازه اثر استفاده می کنم: (میانگین(خصیصه[که(Dx==0)])-میانگین(خصیصه[که(Dx==1)]))/SDpooled اما بیشتر علاقه مند هستم در اندازه اثر پس از تصحیح «سن» و «جنس». من میانگین حاشیه ای (یعنی تصحیح شده برای سن و جنس) را برای تقسیم «خصیصه» توسط گروه «Dx» محاسبه کردم، همانطور که در اینجا نشان داده شده است: در صفحه 15، بخش 7.5 (PDF) اما می خواهم بدانم از کدام انحراف معیار باید استفاده کنم. آیا لازم است که انحراف استاندارد تلفیقی توسط متغیرهای کمکی نیز تنظیم شود؟ آیا راه بهتری برای به دست آوردن تخمین اندازه اثر با مجموعه ای از متغیرهای مزاحم وجود دارد؟
انحراف استاندارد برای برآورد اندازه اثر تعدیل شده
88024
اگر نتایج لاجیت و شبکه عصبی شما از نظر دقت بسیار به هم نزدیک باشند، چه نتیجه‌گیری می‌کنید؟ جایی که logit هر متغیر را به طور مستقل وارد می کند. آیا باید نتیجه بگیرید که مدل قابل تفکیک افزایشی شما در لاجیت احتمالاً درست است زیرا به نتیجه شبکه عصبی نزدیک است، که می تواند هر شکل عملکردی را تقریبی کند؟ متشکرم
اگر لاجیت و شبکه عصبی خیلی نزدیک هستند؟
82444
من آزمایشی دارم که در آن پاسخ دهندگان در دو مقطع زمانی مورد آزمایش قرار گرفتند. با این حال، پاسخ دهندگان در t1 و t2 OR t1 و t3 OR t1 و t4 مورد آزمایش قرار گرفتند. بنابراین، داده ها در t2، t3، و t4 برای 3/4 از پاسخ دهندگان از دست رفته است. من با فرض تصادفی موارد گمشده را برآورده می‌کنم، اما آیا چیز دیگری وجود دارد که قبل از راه‌اندازی دستگاه انتساب باید در نظر بگیرم؟ با تشکر
انتساب چندگانه برای یک مطالعه طولی
88028
این سوال قبلا مطرح شده بود. اما تاکنون هیچ پاسخ قانع کننده ای دریافت نکرده ام. بنابراین دوباره آن را مطرح می کنم. فرض کنید مدل خطی $$ y = X \beta + v, \quad v \sim (0, \sigma^2 I)، $$ که $X$ دارای رتبه ستون کامل است را داریم. برآوردگر حداقل مربعات $\hat{\beta}=X^\dagger y$ ادعا شده است که بهترین برآوردگر خطی بی طرفانه بردار پارامتر واقعی $\beta$ است. من تمام کتاب‌ها و مطالب آنلاینی را که می‌توانستم برای اثبات پیدا کنم بررسی کردم، اما متوجه شدم که به نظر می‌رسد همه آنها مشکل اشتقاق دارند. برای اثبات آن، $\bar{\beta} = Cy$ هر برآوردگر خطی بی طرفانه $\beta$ است. با استفاده از این واقعیت که $\bar{\beta}$ یک برآوردگر بی طرفانه است، می توانیم به راحتی $(CX-I)\beta = 0$ را بدست آوریم. سپس تمام کتاب ها و مطالب آنلاین فقط به این نتیجه می رسند که $CX-I$ باید 0 باشد. من اصلاً این را نمی فهمم. اگر $\beta$ دلخواه بود، مطمئناً ما $CX-I = 0$ خواهیم داشت. اما $\beta$ در اینجا یک بردار پارامتر خاص است. چرا می توان $CX-I=0$ را ادعا کرد؟
اثبات برآورنده حداقل مربعات آبی است
89375
بنابراین من سعی می کنم نشان دهم که ${\rm Var}(Z) \le 2({\rm Var}(X)+{\rm Var}(Y))$ برای $Z = X + Y$. به نظر می رسد با توجه به اینکه $X$ و $Y$ همبستگی ندارند نشان دادن این بسیار آسان باشد. اما من در این مرحله با مشکل مواجه شدم: $$ {\rm Var}(Z) = {\rm Var}(X) + {\rm Var}(Y) + 2E[XY] - 2E[X]E [Y] $$ معمولاً می‌توانید بگویید، $X$، $Y$ غیر همبسته $\rightarrow E[XY] = E[X]E[Y]$، اما وقتی نمی‌توانید این کار را انجام دهید، من گم می‌شوم. هر گونه راهنمایی؟
واریانس Z برای Z = X + Y، زمانی که X و Y همبستگی دارند
17110
من یک مدل OLS با متغیر شاخص دارایی پیوسته به عنوان DV اجرا می کنم. داده های من از سه جامعه مشابه در مجاورت جغرافیایی نزدیک به یکدیگر جمع آوری شده است. با وجود این، من فکر کردم مهم است که از جامعه به عنوان یک متغیر کنترل کننده استفاده کنم. همانطور که به نظر می رسد، جامعه در سطح 1% معنی دار است (نمره t 4.52-). جامعه یک متغیر اسمی/طبقه ای است که به صورت 1،2،3 برای 1 از 3 جامعه مختلف کدگذاری شده است. سوال من این است که آیا این درجه از اهمیت بالا به این معنی است که من باید به جای تجمیع، رگرسیون هایی را بر روی جوامع انجام دهم. در غیر این صورت، آیا استفاده از جامعه به عنوان یک متغیر کنترل کننده اساساً این کار را انجام می دهد؟
آیا باید برای هر جامعه رگرسیون های جداگانه ای اجرا کنم یا اینکه جامعه می تواند به سادگی یک متغیر کنترل کننده در یک مدل انبوه باشد؟
16702
من سعی کرده ام از رگرسیون وزنی در برخی از داده ها استفاده کنم که در آن سه متغیر طبقه بندی با دستور lm(y ~ A*B*C) در R وجود دارد. این برای مقابله با مشکلی بود که نمودار باقیمانده من ثابت نیست. واریانس، و اینکه برای یکی از عوامل، واریانس دو سطح بسیار کوچکتر از سطح دیگر و در سایر عوامل است، بنابراین من وزن ها را در یک بردار ww برای هر مشاهده تعریف می کنم، بنابراین که مشاهدات مربوطه به اندازه مشاهدات دیگر کمک نمی کند، و از lm(y ~ A*B*C، وزن ها=ww) استفاده می کنم. از وزنه استفاده کنید آیا قرار است این اتفاق بیفتد؟ آیا به این دلیل است که همه متغیرهای A، B، C دسته بندی هستند؟ به نظر می رسد تا حدی منطقی باشد زیرا ضرایب رگرسیون (بتا در مدل خطی) فقط میانگین و تفاوت با میانگین مرجع در مدل غیر وزنی هستند و من فکر می کنم که با استفاده از رگرسیون وزنی نیز چنین خواهد بود. ، اما مطمئن نیستم. آیا کسی می تواند در این مورد به من کمک کند؟ من کمی گم شده ام. یعنی آیا کسی می تواند به من بگوید که آیا نباید از حداقل مربعات وزنی برای رفع مشکلات واریانس ناهمگن باقیمانده ها استفاده کنم؟ (من همچنین سعی کردم متغیر پاسخ، $\log(y)$ را تبدیل کنم، کمک کرد اما مشکل برطرف نشد.
رگرسیون وزنی برای متغیرهای طبقه بندی شده
88398
در یک مجموعه داده کوچک ($n\sim100$) که من با آن کار می‌کنم، چندین متغیر به من پیش‌بینی/جداسازی کاملی می‌دهند. بنابراین من از رگرسیون لجستیک فرث برای مقابله با این موضوع استفاده می کنم. اگر بهترین مدل را توسط AIC یا BIC انتخاب کنم، آیا هنگام محاسبه این معیارهای اطلاعاتی باید عبارت جریمه Firth را در احتمال آن لحاظ کنم؟
انتخاب مدل با رگرسیون لجستیک فرث
278
هنگامی که یک تجزیه و تحلیل خوشه ای غیر سلسله مراتبی انجام می شود، ترتیب مشاهدات در فایل داده، نتایج خوشه بندی را تعیین می کند، به خصوص اگر مجموعه داده کوچک باشد (یعنی 5000 مشاهده). برای مقابله با این مشکل، من معمولاً یک مرتبه مجدد تصادفی از مشاهدات داده ها را انجام می دادم. مشکل من این است که اگر تجزیه و تحلیل را n بار تکرار کنم، نتایج به دست آمده متفاوت است و گاهی اوقات این تفاوت ها بسیار زیاد است. چگونه می توانم با این مشکل مقابله کنم؟ شاید بتوانم چندین بار آنالیز را اجرا کنم و پس از آن در نظر بگیرم که یک مشاهده متعلق به گروهی است که زمان های بیشتری در آن اختصاص داده شده است. کسی رویکرد بهتری برای این مشکل دارد؟ مانوئل رامون
چگونه می توان با تأثیر ترتیب مشاهدات در تحلیل خوشه ای غیر سلسله مراتبی برخورد کرد؟
80592
در ویکی نمودار زیر ترسیم شده و متن زیر نوشته شده است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Jr13M.png) > از نمودار مشخص است که توزیع احتمال شرطی > متغیر پنهان x(t) در زمان t، با توجه به مقادیر متغیر x پنهان > همیشه، فقط به مقدار متغیر پنهان بستگی دارد > x(t − 1): مقادیر در زمان t − 2 و قبل از آن هیچ تأثیری ندارند. حالا مشکل اینجاست که نمی‌فهمم چرا این برای X_1$ درست است، زیرا یک حلقه در آنجا وجود دارد و در نتیجه نمی‌توانم ببینم چرا این شکل زیر است: $$p(X_1|X_2,X_3)=p(X_1|X_0 =\emptyset)=p(X_1)$$ اما در واقع باید اینگونه باشد: $$p(X_1|X_2,X_3)=p(X_1|X_2)$$
سردرگمی در مورد تعریف مدل های پنهان مارکوف؟
16708
هر وقت در فیزیک آزمایشی انجام می دهیم، به عنوان مثال. با اندازه گیری ثابت پلانک، میانگین چندین مشاهدات تجربی را می گیریم. به نظر می رسد این واضح ترین راه برای گزارش یک نتیجه باشد. آیا استدلالی مبتنی بر MLE یا سایر مفاهیم آماری وجود دارد که بتوان از آن برای توجیه اینکه میانگین بهترین راه برای اندازه گیری مقدار در چندین مشاهدات است استفاده کرد؟
دلیل گرفتن میانگین مشاهدات تجربی
17258
با استفاده از truehist() از MASS یا فقط تابع hist() عادی در R با گزینه prob=TRUE، مقادیر بسیار عجیبی برای محور y دریافت می کنم. تصور من این بود که همه این مقادیر باید زیر 1.00 باشد، زیرا فرکانس نسبی هر مقدار باید زیر 1.00 باشد و ناحیه زیر منحنی به آن اضافه می‌کند. در عوض، من محورهایی با دامنه‌های 1500 و اندازه گام‌ها در صدها را دریافت می‌کنم. کسی میدونه جریان چیه؟ مقادیر با رویداد سازگار نیستند، بنابراین به نظر نمی رسد که مقیاس نسبی نسبت به آنها داشته باشند. برای مرجع، من از کد زیر استفاده می کنم: `hist(g1$Betweenness, main=, xlab=Betweenness, sub=Generation 1, prob=TRUE)` داده های یکی از این نمودارها: 0.009619951 0.009619951 0.006750843 0.006750843 0.006750843 0.006750843 0.014497435 0.006750843 0.006750843 0.006750843 0.006750843 0.00670850843 0.00670850843 0.006750843 0.006750843 0.006750843 0.006750843 0.006750843 0.006750843 0.006750843 0.00670850843 0.006750843 0.006750843 0.006750843 0.008663582 0.008663582 0.006750843 0.012058693 0.012489059 0.0245835832 0.01248905 0.012489059 به طرز آزاردهنده ای، JMP به خوبی از پس این کار برمی آید، اما من سبک ترسیم R را ترجیح می دهم.
مشکل عجیب و غریب با یک هیستوگرام در R با یک محور فرکانس نسبی
97153
من می خواهم تأثیر عوامل مختلف را بر روی لیستی از y محاسبه کنم. مشکل این است که برخی از y نیز در ماتریس ضرایب گنجانده شده اند، بنابراین cv.glmnet ضریب 1 را برای این ضریب محاسبه می کند، اما من می خواهم که صفر باشد، بنابراین فقط عوامل دیگر برای ماتریس ضریب در نظر گرفته می شوند. . بنابراین سوال من این است که آیا گزینه هایی برای حذف ضریب در این مورد یا تغییر ضریب به صفر در حین محاسبه وجود دارد؟ راه حل آسان من این است که مقادیر فاکتور را روی صفر قرار دهم تا نتواند تأثیری داشته باشد. اسکریپت: برای ( i in 1:dim(allsamples)[1]) { #allsamples= x genes, Y samples gene=as.data.frame(allsamples[x,]) #for one gene --> Y observations gene= به عنوان. colnames(tfs)=tfgenes[,1] tfs=tfs[-1,] # عبارت را صفر کنید اگر gene=ضریب تاثیر؟ if(length(intersect(gene,colnames(tfs)))==1) { tfs[, intersect(gene,colnames(tfs))]=rep(0,125) #ردیف یا ستون؟ }else { tfs=tfs } z=NULL #repeat regression for(i در 1:100) { cv.fit=cv.glmnet(data.matrix(tfs),gene,family=gaussian,nfolds=10, alpha =1,type.measure=mse) lambda=cv.fit$lambda.min z=rbind(z,lambda) } # all lambda.min mean_lambda_min=mean(z) #رگرسیون با میانگین لامبدا حداقل fit=glmnet(data.matrix(tfs),gene,family=gaussian,lambda=mean_lambda_min, آلفا=1) # ماتریس ضرایب برای هر ژن ماتریس=rbind(ماتریس،t(as.matrix(ضریب(مناسب))))}
عوامل مستثنی
64676
من همبستگی پیرسون را با استفاده از pearsonr(var1, var2) محاسبه کرده‌ام. می‌دانم که عدد اول همبستگی پیرسون و عدد دوم معنی‌دار است. چند سوال دارم: * بالاتر از کدام مقدار می توانیم همبستگی معنی داری در نظر بگیریم؟ * آیا مربع R فقط «R**2» است؟ * چگونه مربع R تنظیم شده را محاسبه کنم؟
معنی آماری خروجی pearsonr() در پایتون
88026
من 6 علامت آناتومیکی روی یک استخوان (بازو) و روی 2 نقطه روی استخوان دیگر (زندان) دارم. من فواصل بین هر ترکیب مختلف از آن نقاط را در دامنه حرکت (هر 10 درجه از 10 درجه تا 90 درجه) از آن 2 استخوان (آرنج) اندازه‌گیری کردم. من در نهایت به یک طرح اندازه گیری مکرر $2\times6\times9$ می رسم. اساسا من 6 ترکیب روی زاویه خم شدن برای 1 نقطه روی استخوان زند و 6 ترکیب دیگر روی زاویه خم شدن برای نقطه دیگر روی استخوان زند وجود دارم. و سوال من این است که آیا تفاوت کلی بین 6 ترکیب اول و 6 ترکیب دیگر وجود دارد؟ آیا می توان با ANOVA اقدامات مکرر 3 طرفه با در نظر گرفتن اثرات اصلی به این سوال پاسخ داد؟ من قبلاً هر ترکیب را با تجزیه و تحلیل post-hoc مقایسه کردم، اما خوب است بدانیم آیا تأثیر کلی وجود دارد یا خیر. من واقعاً از تخصص شما در این زمینه قدردانی می کنم. پیشاپیش از شما بسیار سپاسگزارم
اقدامات مکرر ANOVA 3 طرفه: اثرات اصلی
97155
من یک مجموعه داده دارم که در آن دو سطح از متغیرهای درونی دارم. من مجموعه‌ای از «سناریوها» دارم و هر سناریو مجموعه‌ای از «محاکمه‌ها» دارد، و همه سناریوها توسط افراد مشابهی بازی می‌شوند. همانطور که از اینجا فهمیدم «آزمایشات» من در «سناریو» قرار دارند. در این صورت چگونه می توانم میانگین و انحراف معیار را محاسبه کنم؟ و اگر مجموعه‌ای از افراد متعدد دارم - در دسته‌های مستقل، مانند مثال مرجع، یک قدم بیشتر بردارم، چگونه می‌توانم مدل ANOVA را که داده‌های من را توصیف می‌کند، مشخص کنم؟ (مثلاً مجموعه افراد در شرایط مختلف بازی می کنند، اما سناریوها یکسان با همان محاکمه).
چگونه می توان آمار خلاصه برای عوامل تو در تو را محاسبه کرد؟
46130
چگونه می توان نرخ یادگیری بهینه را برای نزول گرادیان تعیین کرد؟ من فکر می کنم اگر تابع هزینه مقدار بیشتری نسبت به تکرار قبلی برمی گرداند (الگوریتم همگرا نمی شود) می توانم به طور خودکار آن را تنظیم کنم، اما واقعاً مطمئن نیستم که چه مقدار جدیدی باید بگیرد.
نرخ یادگیری بهینه را برای نزول گرادیان در رگرسیون خطی تعیین کنید
270
به دلیل فاکتوریل در توزیع پواسون، تخمین مدل‌های پواسون (مثلاً با استفاده از حداکثر احتمال) زمانی که مشاهدات بزرگ هستند غیرعملی می‌شود. بنابراین، به عنوان مثال، اگر من بخواهم مدلی را تخمین بزنم که تعداد خودکشی ها در یک سال مشخص را توضیح دهد (فقط داده های سالانه در دسترس است) و بگویم هر سال هزاران خودکشی وجود دارد، آیا بیان صدها خودکشی اشتباه است. ، به طوری که 2998 می شود 29.98 ~ = 30؟ به عبارت دیگر آیا تغییر واحد اندازه گیری برای قابل مدیریت شدن داده ها اشتباه است؟
رگرسیون پواسون با داده های بزرگ: آیا تغییر واحد اندازه گیری اشتباه است؟
10703
من فاکتورسازی QR را بر اساس بازتاب‌های خانوار (به منظور محاسبه تناسب OLS) پیاده‌سازی کرده‌ام. از نظر ریاضی، ماتریس $R$ مثلث بالایی است. با این حال، به دلیل مسائل مربوط به ممیز شناور، من معمولاً با ورودی های کوچک غیرصفر زیر قطر مواجه می شوم. با آنها چه باید بکنم - رها کنم یا روی صفر تنظیم کنم و چرا؟ برای مثال، ورودی زیر: [[ 1 1 10] [ 3 3 5] [ 2 4 -6] [ 1 10 8]] ماتریس $R$ زیر را تولید می کند: [[ -3.87298335e+00 -7.22956891e+00 -5.42217668e+00] [ -8.88178420e-16 8.58681159e+00 4.86793026e+00] [ -4.44089210e-16 -3.33066907e-16 1.31111882e+01]] زیر ضلع اصلی را توجه کنید. برای مقایسه، هم «numpy» و هم «R» صفرهای دقیق را برمی‌گردانند، بنابراین نمی‌دانم آیا دلایلی برای انجام همین کار وجود دارد یا خیر.
فاکتورسازی QR: مسائل مربوط به ممیز شناور
97150
> یک بیمارستان دو پزشک دارد، دکتر داوسون و دکتر بایک. دکتر داوسون برای پاسخگویی به تماس‌های بیماران برای بازه‌های زمانی که به صورت نمایی > با میانگین 2 ساعت توزیع می‌شوند، در دسترس است. بین این دوره‌ها، او به استراحت می‌پردازد که هر یک از آن‌ها مدت زمان تصاعدی با 30 دقیقه است. دکتر بایک مستقل از دکتر داوسون کار می کند، اما با الگوهای کاری مشابه. زمان > دوره هایی که او برای دریافت تماس های بیماران در دسترس است و زمان های استراحت > متغیرهای تصادفی نمایی با میانگین 90 و 40 دقیقه > هستند. در درازمدت، چه نسبت زمانی است که > هیچ یک از دو پزشک برای پاسخگویی به تماس بیماران در دسترس نیستند؟ مشکلی که من با این سوال دارم، یافتن احتمالات حالت پایدار نیست، بلکه نحوه تنظیم ماتریس نرخ گذار برای این سوال است. رویکرد من به شرح زیر است: اگر نه دکتر داوسون و نه دکتر بایک برای پاسخگویی به تماس‌های بیماران در دسترس نیستند، اجازه دهید X(t) = 0 دلار باشد. اگر هر دو برای برقراری تماس در دسترس هستند، اجازه دهید X(t) = 2 دلار باشد. اجازه دهید $X(t) = d$ اگر دکتر داوسون برای تماس در دسترس است و دکتر بایک نیست. اجازه دهید $X(t) = b$ اگر دکتر Baick برای گرفتن تماس در دسترس است اما دکتر داوسون نیست. سپس $\\{X(t), t\ge 0\\}$ یک زنجیره مارکوف با زمان پیوسته با فضای حالت $S=\\{0,2,d,b\\}$ است. اجازه دهید $q_{ij}$ نرخ انتقال از حالت $i$ به حالت $j$ را برای $i,j \در S$ نشان دهد. سپس می توان نشان داد که $Q$ (ماتریس همه $q_{ij}$ها) به وسیله: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/hwrjg.jpg ) که در آن سطرها به ترتیب برچسب گذاری شده اند: $0، 2، d، b$ و همان ستون ها. چیزی که من گیج شدم این است که $q_{20} = 0$ چگونه است؟ آیا امکان انتقال از حالتی وجود ندارد که هر دو پزشک برای پاسخگویی به تماس‌ها در دسترس هستند و هیچ پزشک در دسترس نیست؟
زمان پیوسته نرخ گذار زنجیره مارکوف
63026
من روی پروژه‌ای کار می‌کنم که می‌خواهم اطلاعاتی در مورد محتوای یک سری مقاله‌های پایان باز استخراج کنم. در این پروژه خاص، 148 نفر به عنوان بخشی از یک آزمایش بزرگتر، مقالاتی درباره یک سازمان دانشجویی فرضی نوشتند. اگرچه در رشته من (روانشناسی اجتماعی)، روش معمولی برای تجزیه و تحلیل این داده ها، کدنویسی مقاله ها با دست است، اما من می خواهم این کار را به صورت کمی انجام دهم، زیرا کدگذاری دستی برای من هم کار فشرده و هم کمی ذهنی است. طعم در طول تحقیقاتم در مورد روش‌های تجزیه و تحلیل کمی داده‌های پاسخ رایگان، به طور تصادفی به رویکردی به نام مدل‌سازی موضوع (یا تخصیص دیریکله پنهان یا LDA) برخوردم. مدل‌سازی موضوع، نمایشی از داده‌های شما (یک ماتریس سند اصطلاحی) را ارائه می‌کند و از اطلاعات مربوط به هم‌روی کلمات برای استخراج موضوعات پنهان داده‌ها استفاده می‌کند. این رویکرد برای برنامه من عالی به نظر می رسد. متأسفانه، وقتی مدل‌سازی موضوع را برای داده‌هایم اعمال کردم، دو مسئله را کشف کردم: 1. موضوعاتی که توسط مدل‌سازی موضوعی کشف می‌شوند گاهی اوقات تفسیر آنها سخت است. به نظر می رسد موضوعات به طور چشمگیری تغییر می کنند. شماره 2 به طور خاص به من مربوط می شود. بنابراین، من دو سوال مرتبط دارم: 1. آیا کاری می توانم در روش LDA انجام دهم تا روش مناسب مدل خود را برای تفسیرپذیری و پایداری بهینه کنم؟ من شخصاً به یافتن مدلی با کمترین گیجی و/یا بهترین تناسب مدل اهمیتی نمی دهم -- عمدتاً می خواهم از این روش برای کمک به درک و توصیف آنچه شرکت کنندگان در این مطالعه در مقالات خود نوشته اند استفاده کنم. با این حال، من مطمئناً نمی خواهم نتایج من مصنوع از دانه تصادفی باشد! 2. در رابطه با سوال بالا، آیا استانداردهایی برای انجام LDA وجود دارد؟ اکثر مقالاتی که من دیده‌ام و از این روش استفاده کرده‌اند، مجموعه‌های بزرگ را تجزیه و تحلیل می‌کنند (مثلاً آرشیو تمام مقالات علمی ۲۰ سال گذشته)، اما از آنجایی که من از داده‌های تجربی استفاده می‌کنم، مجموعه اسناد من بسیار کوچک‌تر است. من داده‌های مقاله را برای هرکسی که می‌خواهد دست‌هایش را کثیف کند، اینجا پست کرده‌ام و کد R را که از آن استفاده می‌کنم در زیر قرار داده‌ام. require(tm) require(topicmodels) # یک پیکره از مقاله c <- Corpus(DataframeSource(essays)) inspect(c) # علامت گذاری را حذف کنید و کلمات را با حروف کوچک c قرار دهید <- tm_map(c, removePunctuation) c < - tm_map (c، tolower) # یک DocumentTermMatrix ایجاد کنید. کلید واژه ها دسته های کلمه تابع LIWC هستند # من یک کپی از فرهنگ لغت LIWC دارم، اما اگر می خواهید تحلیل مشابهی انجام دهید، # از کلمات توقف پیش فرض در tm dtm <- DocumentTermMatrix(c, control = list(stopwords = c استفاده کنید (dict$funct، dict$pronoun، dict$ppron، dict$i، dict$we، dict$you، dict$shehe، dict$they، dict$inpers، dict$article، dict$aux))) # فرکانس اصطلاحی معکوس فرکانس سند برای انتخاب کلمات مورد نظر term_tfidf <- tapply(dtm$v/rowSums(as.matrix(dtm))[dtm $i]، dtm$j، میانگین) * log2(nDocs(dtm)/colSums(as.matrix(dtm))) خلاصه (term_tfidf) dtm <- dtm[، term_tfidf >= 0.04] lda <- LDA(dtm، k = 5، seed = 532 (lda) سرگشتگی ) (شرایط <- شرایط(lda, 10)) (موضوعات <- موضوعات(lda)) **ویرایش:** من سعی کردم nstart را همانطور که توسط Flounderer در نظرات پیشنهاد شده است، تغییر دهم. متأسفانه، همانطور که در زیر نشان داده شده است، حتی تنظیم «nstart» روی 1000 به موضوعاتی منجر می‌شود که از دانه‌های تصادفی به دانه‌های تصادفی کاملاً متفاوت هستند. فقط برای تاکید مجدد، تنها چیزی که من در تخمین دو مدل زیر تغییر می‌دهم، بذر تصادفی مورد استفاده برای شروع تخمین مدل است، و با این حال به نظر می‌رسد موضوعات در این دو اجرا اصلاً سازگار نیستند. lda <- LDA(dtm، k = 5، seed = 535، control = list(nstart = 1000)) (شرایط <- شرایط(lda، 10)) مبحث 1 مبحث 2 مبحث 3 مبحث 4 مبحث 5 [1،] بین المللی قومیت رایگان اعتبار مهربان [2،] ارتباط راست تیم اجباری پل [3،] به دست آوردن آسیایی ها همکاری موسیقی بستن [4،] استفاده دست سفارش دیده شده معامله [5، ] بزرگ نگهداری بازی موانع طراحی شده [6،] ارتباط موثر بزرگ کلیشه ها تلاش [7،] آمریکا تاکید شروع آسیایی اجرا [8،] چینی تالار چین فوق العاده وب سایت [9،] قومیت اقلیت تفاوت تمرکز برنامه ریزی [10،] شبکه جمعیت آسان تر نیرو بدن lda <- LDA(dtm, k = 5, seed = 536, control = list(nstart = 1000)) (شرایط <- Terms(lda, 10)) مبحث 1 مبحث 2 مبحث 3 مبحث 4 مبحث 5 [1,] نوع بین المللی مسئله میل بازی [2،] آسان تر قومیت نزدیک استفاده
ثبات موضوع در مدل های موضوعی
100019
با خواندن در مورد خوشه‌بندی جریان داده، با شرایط بعدی آشنا شدم: * مدل پنجره برجسته، * مدل پنجره کشویی، * پنجره میرا. در مورد پنجره کشویی واضح است - قدیمی ترین داده ها از محدوده خارج می شوند، داده های جدید داخل می شوند. اما مفاهیم دو مورد دیگر چیست؟ من می توانم فرض کنم که پنجره میرایی مانند یک بافر است که پس از پر شدن پاک می شود، اما توضیحی که من پیدا کرده بودم، بیان می کند که Dumped از وزن کم داده ها به عنوان تابعی از زمان استفاده می کند.
مدل‌های پنجره در پردازش داده‌های جریانی
95795
از آنچه در دوره داده کاوی مطالعه کرده ام (لطفاً اگر اشتباه می کنم اصلاح کنید) - در رگرسیون لجستیک، زمانی که متغیر پاسخ باینری است، از روی منحنی ROC می توانیم آستانه را تعیین کنیم. اکنون سعی می کنم رگرسیون لجستیک را برای یک متغیر پاسخ طبقه بندی ترتیبی با بیش از دو دسته (4) اعمال کنم. من از تابع 'polr' در r استفاده کردم: > polr1<-polr(Category~Division+ST.Density,data=Versions.data) > summary(polr1) re-fitting برای دریافت تماس Hessian: polr(formula = Category ~ Division + ST.Density، data = Versions.data) ضرایب: Value Std. مقدار خطای t DivisionAP -0.8237 0.5195 -1.586 DivisionAT -0.8989 0.5060 -1.776 DivisionBC -1.5395 0.5712 -2.695 DivisionCA -1.8102 0.5240 -3.405 -3.405 -8EM -1.211 DivisionNA -1.7568 0.4704 -3.734 ST.Density 0.3444 0.0750 4.592 Intercepts: Value Std. خطای t مقدار 1|2 -1.3581 0.4387 -3.0957 2|3 -0.5624 0.4328 -1.2994 3|4 1.2661 0.4390 2.8839 انحراف باقیمانده: 707.87274 AIC چگونه باید تفسیر شود؟ و چگونه می توانم آستانه را برای هر گروه تعیین کنم؟ با تشکر
نحوه تعیین آستانه در رگرسیون لجستیک مرتب شده
21613
تفاوت بین یک مدل GLM (رگرسیون لجستیک) با یک متغیر پاسخ باینری که شامل موضوع و زمان به عنوان متغیرهای کمکی است و مدل مشابه GEE که همبستگی بین اندازه‌گیری‌ها را در چند نقطه زمانی در نظر می‌گیرد چیست؟ GLM من به نظر می رسد: Y (دودویی) ~ A + B1X1 (شناسه موضوع) + B2X2 (زمان) + B3X3 (متغیر کمکی پیوسته جالب) با تابع پیوند logit. من به دنبال یک توضیح ساده (با هدف دانشمند اجتماعی) هستم که چگونه و چرا در این دو مدل به طور متفاوت با زمان برخورد می شود و چه پیامدهایی برای تفسیر خواهد داشت.
تفاوت بین GLM و GEE چیست؟
49562
من می خواهم بدانم چگونه نمودارهای چگالی شرطی را به درستی تفسیر کنم. من دو مورد را در زیر درج کردم که در R با 'cdplot' ایجاد کردم. به عنوان مثال، آیا احتمال _Result_ برابر با 1 وقتی _Var 1_ 150 است تقریبا 80% است؟ ![نقشه چگالی شرطی](http://i.stack.imgur.com/hst5c.png) ناحیه خاکستری تیره همان چیزی است که احتمال شرطی «نتیجه» برابر با 1 است، درست است؟ ![نقشه چگالی مشروط](http://i.stack.imgur.com/y3KbF.png) از مستندات «cdplot»: > cdplot چگالی های شرطی x را با توجه به سطوح y محاسبه می کند > وزن شده با توزیع حاشیه ای y چگالی ها به صورت تجمعی بیش از سطوح y مشتق شده اند. این انباشت چگونه بر نحوه تفسیر این طرح ها تأثیر می گذارد؟
تفسیر نمودارهای چگالی شرطی
44798
این اولین پست من در اینجا است، اما از نتایج این انجمن که در نتایج جستجوی گوگل ظاهر می شود، سود زیادی برده ام. من رگرسیون نیمه پارامتریک را با استفاده از اسپلاین های جریمه شده به خودم آموزش داده ام. اساساً، $$ \hat{y} = X(X'X + \lambda D)^{-1}X'y $$ که در آن X علاوه بر متغیرهای اصلی من پر از گره است، $\lambda$ یک جریمه است اصطلاحی که به گره ها اطلاق می شود. (اگر می خواهید این موارد را یاد بگیرید، به عنوان مثال Wood 2006 یا Ruppert, Wand & Carrol 2003 را ببینید). داده‌های من دارای همبستگی خودکار خوشه‌ای و احتمالاً ناهمگونی هستند. آموزش من در اقتصاد سنجی است، بنابراین طبیعتاً می خواهم ماتریس واریانس-کوواریانس را به صورت $$ X(X'X + \lambda D)^{-1}\left(\displaystyle\sum_j X'_j \epsilon_j \epsilon_j' نشان دهم. X\right)(X'X + \lambda D)^{-1}X' $$ موارد فوق استقلال بین خوشه‌ها را فرض می‌کند، اما نه درون آنها، و همجنسگرایی را فرض نمی کند. این باید نظرات درستی به من بدهد. مشکل من این است که من فقط به se ها اهمیت نمی دهم. با نیمه پارامتریک، من به فواصل اطمینان در نمودارها نیاز دارم. **ویرایش** مدتی بعد: من یک روش شبه brute-force برای انجام این کار با هک کردن mgcv ایجاد کردم. رویکرد کلی این است که ماتریس کوواریانس پارامتر خودم را محاسبه کنم و آن را در mgcv قرار دهم. سپس توسط توابع دیگر برای محاسبه CI و دادن CI در نمودارها استفاده می شود. که کار می کند، بازخورد را دعوت می کند و شاید در نهایت برای دیگران مفید باشد. در اینجا به این صورت است: **ویرایش دیگری**: تابع اکنون سعی می کند ماتریس جریمه کامل را با معکوس کردن ماتریس کوواریانس پارامتر و کم کردن X'X$$ بدست آورد. **به طور عجیبی، ماتریس کوواریانس پارامتر ارائه شده توسط `mgcv` اغلب معکوس نیست. من نمی‌دانم چرا چنین می‌شود، ** پس از حذف ساختگی‌های اضافی که به‌طور خودکار حذف می‌شوند. **کسی ایده ای در اینجا دارد؟** من در حال حاضر از معکوس های تعمیم یافته به عنوان هک استفاده می کنم و مطمئن نیستم که دقیقاً چه نوع اعوجاجی به نتایج من اضافه می کند. clusterGAM = function(m,clustvar){ require(MASS) mm = predict(m,type='lpmatrix') #Get model X ماتریس mm = mm[,colnames(mm) %in% names(ضرایب(m))[ rowSums(m$Vp)!=0]] #ضرایب را از ماتریس مدل که به دلیل همخطی بودن گوشت به طور خودکار حذف می شوند حذف کنید = ماتریس(rep(0,ncol(mm)*ncol(mm)),ncol(mm)) #ماتریس گوشت را از قبل پر کنید برای (i در 1:length(unique(clustvar))){#این مجموع روی خوشه ها است X = mm[clustvar == منحصر به فرد(clustvar)[i]،] e = باقیمانده (m)[clustvar == منحصر به فرد(clustvar)[i]] گوشت = meat+t(X) %*% e %*% t(e) %*% X } M <- length(unique(clustvar)) N <- length(clustvar) K <- sum(m$edf) #use EDF به جای K dfc <- (M/(M-1))*((N-1)/(N-K))#درجات اصلاح آزادی Vp = vcov(m,dispersion=1) Vp = Vp[rowSums(m$Vp)!=0,rowSums(m$Vp)!=0] S = tryCatch(solve(Vp) - t(mm)%*%mm, error=function(e) e, final=NA) if(herits(S, error)) { S = ginv(Vp) - t(mm)%*%mm print(هشدار: معکوس تعمیم یافته استفاده می شود برای استخراج ماتریس جریمه) } vcv = tryCatch(dfc*solve(t(mm)%*%mm+S)%*%meat %*% solve(t(mm)%*%mm+S), error= تابع(e) e، در نهایت=NA) if(به ارث می برد(vcv، خطا)) { vcv = dfc*ginv(t(mm)%*%mm+S)%*%meat %*% ginv(t(mm)%*%mm+S) print(هشدار: معکوس تعمیم یافته برای محاسبه ماتریس Vp) } #دریافت vcv if (length(which(rowSums(m$Vp)==0)!=0)){ #اگر هر ردیف صفر شکست خورد بیرون، آنها را به صفر برگردانید = which(rowSums(m$Vp)==0) for (i in 1:length(صفر)){ vcv = rbind(vcv[0:(صفر[i]-1)،] ,0,vcv[(صفر[i]):nrow(vcv)،]) vcv = cbind(vcv[,0:(صفر[i]-1)],0,vcv[,(صفر[i]):ncol(vcv)]) } } m$Vp = vcv #vcv جدید را در محل قرار دهید جایی که نمودارها و خلاصه از m ساخته می شود } *ویرایش شده تا بتوان تانسورها را مدیریت کرد برخی از داده ها برای اجرای آن load(url('http://andrewcd.berkeley.edu/sdat')) head(sdat) N = nrow(sdat) #set.seed(417) sdat$x = with(sdat,log(y+1+ runif(N)*T)+rexp(N)) #ساخت یک نمودار کمکی هموار جعلی(sdat$x,sdat$y) m = گام (y~ID+G:t+T+s(x)-1، داده=sdat) مدل پانل #LSDV با زمان x گروه FE و یک تابع صاف par(mfrow=c(1،2)) نمودار(m ,ylim=c(-.75,2)) summary(m) m = clusterGAM(m,sdat$G) plot(m,ylim=c(-.75,2)) #اعتماد فاصله ها کمی کوچک می شود. به نظر می رسد این امر خلاف واقع است. summary(m) #SE در T کمی بزرگتر می شود، همانطور که اگر مشاهدات مکرر را در نظر بگیرید احتمالاً باید این کار را انجام دهید #حالا آن را با یک تانسور امتحان کنید sdat$z = با (sdat,y+x+rnorm(N)) m = gam(y~ID+G:t+T+te(x,z)-1,data=sdat) خلاصه (m) vis.gam(m,view=c('x','z'),se=2,theta=150,phi=20) m = clusterGAM(m,sdat$G) vis.gam(m,view=c ('x','z'),se=2,theta=150,phi=20)
فواصل اطمینان اسپلاین جریمه شده بر اساس VCV خوشه ای ساندویچ
69179
من با استفاده از شبکه های عصبی مشکل دارم. من با یک چیز ساده شروع کردم. من فقط از nntool با یک لایه پنهان (با یک نورون) با تابع فعال سازی خطی استفاده کردم. برای خروجی نیز از تابع فعال سازی خطی استفاده کردم. من فقط Xs و Ys خود را به ابزار شبکه عصبی تغذیه کردم و نتایج را در مجموعه آزمایش دریافت کردم. من آن را با تابع نرمال ریج در متلب مقایسه کردم. می‌توانستم ببینم که شبکه عصبی یک بسیار بدتر از عملکرد ریج است. دلیل اول این است که مقادیر منفی زیادی در پیش بینی ها وجود دارد، در حالی که هدف من فقط مثبت است. رگرسیون ریج حدود 800 مقدار -ve داد در حالی که nn حدود 5000 -ve را ارائه داد که به طور کامل دقت nntool را از بین برد. از آنجایی که nntool می تواند برای انجام رگرسیون خطی استفاده شود، چرا nntool به خوبی رگرسیون ridge عمل نمی کند؟ در مورد ارزش های منفی، دلیل آن چیست و چگونه می توان ارزش های مثبت را اعمال کرد؟
مشکلات استفاده از شبکه عصبی
101351
1. من کنجکاو هستم که در مورد رابطه بین آنتروپی و محتوای اطلاعات یک سیگنال یا خط سیر سری های زمانی بدانم. هنگامی که یک سیستم در تعادل است، آنتروپی حداکثر است. آیا آنتروپی به معنای اندازه گیری از دست دادن اطلاعات است؟ آنتروپی بالاتر == از دست دادن اطلاعات؟ در درک من، آنتروپی تئوری اطلاعات شانون میزان نامطمئن بودن ما در مورد نماد ورودی بعدی را اندازه گیری می کند. از این رو، آنتروپی = اندازه گیری عدم قطعیت. آنتروپی زمانی به حداکثر می رسد که ما کاملاً از نتیجه رویدادها مطمئن نیستیم. بنابراین، آیا این به این معنی است که حداکثر آنتروپی = حداقل اطلاعات است؟ 1. اگر یک مسیر در فضای فاز و هر عنصر از مسیر را یک نماد در نظر بگیریم، آیا تکامل مسیر به معنای ایجاد اطلاعات است؟ چگونه آنتروپی را برای یک مسیر استنباط کنیم؟ پیشاپیش از راهنمایی و راهنمایی شما سپاسگزارم.
آنتروپی و محتوای اطلاعاتی
21618
در زمینه مجموعه‌های ژنومی در زیست‌شناسی (مشکل بازسازی ژنوم از قطعات تصادفی بسیار کوتاه آن است، که در آن ژنوم یک یا چند رشته بلند از یک الفبای محدود است)، معیاری به نام N50 برای یک مجموعه وجود دارد. رشته ها (تکه هایی از توالی DNA). طول N50 به عنوان طول رشته ای که 50٪ از همه کاراکترها در رشته هایی با آن طول یا بیشتر هستند تعریف می شود. برای مثال http://seqanswers.com/forums/showthread.php?t=2332 را ببینید. من گاهی اوقات این معیار را دیده ام که به آن میانگین وزنی طول گفته می شود. آیا این درست است؟
میانگین وزنی طول
45449
من مجموعه بزرگی از پیش بینی کننده ها (بیش از 43000) برای پیش بینی یک متغیر وابسته دارم که می تواند 2 مقدار (0 یا 1) بگیرد. تعداد مشاهدات بیش از 45000 است. بیشتر پیش‌بینی‌کننده‌ها تک‌گرام‌ها، بیگرام‌ها و سه‌گرام‌های کلمات هستند، بنابراین درجه بالایی از هم‌خطی بودن بین آن‌ها وجود دارد. در مجموعه داده من نیز پراکندگی زیادی وجود دارد. من از رگرسیون لجستیک بسته glmnet استفاده می کنم که برای نوع مجموعه داده ای که دارم کار می کند. مشکل من این است که چگونه می توانم اهمیت p-value پیش بینی کننده ها را گزارش کنم. من ضریب بتا را دریافت می کنم، اما آیا راهی وجود دارد که ادعا کنیم ضرایب بتا از نظر آماری معنی دار هستند؟ این کد من است: داده های library('glmnet') <- read.csv('datafile.csv', header=T) mat = as.matrix(data) X = mat[,1:ncol(mat)-1] y = mat[,ncol(mat)] fit <- cv.glmnet(X,y, family=binomial) سوال دیگر این است: من از آلفا=1 پیش فرض استفاده می کنم، جریمه lasso که باعث این مشکل اضافی می شود که اگر دو پیش بینی کننده هم خط باشند، کمند یکی از آنها را به طور تصادفی انتخاب می کند و وزن بتای صفر را به دیگری اختصاص می دهد. من همچنین با پنالتی ریج (آلفا = 0) امتحان کردم که به جای انتخاب یکی از آنها، ضرایب مشابهی را به متغیرهای بسیار همبسته اختصاص می دهد. با این حال، مدل با پنالتی لاسو انحراف بسیار کمتری نسبت به پنالتی ریج به من می دهد. آیا راه دیگری وجود دارد که بتوانم هر دو پیش بینی کننده را که بسیار هم خط هستند گزارش کنم؟
هنگام استفاده از glmnet چگونه می توان اهمیت p-value را برای ادعای اهمیت پیش بینی کننده ها گزارش کرد؟
45446
مدل‌های افزودنی تعمیم‌یافته آن‌هایی هستند که برای مثال $$ y = \alpha + f_1(x_1) + f_2 (x_2) + e_i$$. توابع صاف هستند و باید تخمین زده شوند. معمولا توسط اسپلاین های جریمه شده. MGCV بسته ای در R است که این کار را انجام می دهد و نویسنده (سایمون وود) کتابی در مورد بسته خود با مثال های R می نویسد. روپرت و همکاران (2003) کتابی به مراتب در دسترس تری در مورد نسخه های ساده تری از همان چیز می نویسند. سوال من در مورد تعاملات درون این نوع مدل ها است. اگر بخواهم کاری شبیه به زیر انجام دهم: $$ y = \alpha + f_1 (x_1) + f_2 (x_2) + f_3 (x_1\times x_2) + e_i$$ اگر در زمین OLS بودیم (جایی که f است). فقط یک نسخه بتا)، من با تفسیر $\hat{f}_3$ مشکلی ندارم. اگر ما از طریق splines جریمه شده تخمین بزنیم، من نیز مشکلی با تفسیر در زمینه افزودنی ندارم. اما پکیج MGCV در GAM دارای این موارد است که به آن Tensor Product smooths می گویند. «محصول تنسور» را در گوگل جستجو می‌کنم و چشمانم بلافاصله در تلاش برای خواندن توضیحاتی که پیدا می‌کنم خیره می‌شود. یا من به اندازه کافی باهوش نیستم یا ریاضیات خیلی خوب توضیح داده نشده است یا هر دو. به جای کدگذاری نرمال = gam(y~s(x1)+s(x2)+s(x1*x2)) یک حاصلضرب تانسور همان کار (؟) را توسط what = gam(y~te(x1,x2) انجام می دهد. ) وقتی طرح (چه) یا vis.gam (چه) را انجام می دهم، خروجی بسیار جالبی دریافت می کنم. اما من هیچ ایده ای در داخل جعبه سیاه که te() است، ندارم، و نه اینکه چگونه خروجی جالب فوق الذکر را تفسیر کنم. همین دیشب کابوس دیدم که داشتم سمینار می دادم. من یک نمودار جالب به همه نشان دادم، آنها از من پرسیدند که چه معنایی دارد، و من نمی دانستم. بعد متوجه شدم که لباسی به تن ندارم. آیا کسی می تواند با دادن کمی مکانیک و شهود در مورد آنچه در زیر کاپوت اینجا می گذرد، هم به من و هم به آیندگان کمک کند؟ ایده آل است که کمی در مورد تفاوت بین حالت اندرکنش عادی و حالت تانسور بگوییم؟ امتیازات پاداش برای گفتن همه چیز به زبان انگلیسی ساده قبل از رفتن به ریاضی.
شهود پشت تعاملات محصول تانسور در GAM (بسته MGCV در R)
45444
من اطلاعاتی دارم که باید آنها را تجسم کنم و مطمئن نیستم که چگونه بهترین کار را انجام دهم. من مجموعه ای از آیتم های پایه $Q = \\{ q_1، \cdots، q_n \\}$ با فرکانس های مربوطه $F = \\{f_1، \cdots، f_n \\}$ و نتایج $O \in \\ دارم. {0,1\\}^n$. اکنون باید ترسیم کنم که روش من چقدر آیتم‌های فرکانس پایین را «پیدا می‌کند» (یعنی یک پیامد). من در ابتدا فقط یک محور x فرکانس و یک محور y 0-1 با نمودارهای نقطه ای داشتم، اما وحشتناک به نظر می رسید (مخصوصاً هنگام مقایسه داده ها از دو روش). یعنی هر آیتم $q \در Q$ است یک نتیجه (0/1) دارد و بر اساس فراوانی آن مرتب می شود. > در اینجا یک مثال با نتایج یک روش است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ELfGN.png) ایده بعدی من تقسیم داده ها به فواصل و محاسبه حساسیت محلی بود. در فواصل زمانی مختلف، اما مشکل این ایده این است که توزیع فرکانس لزوما یکنواخت نیست. بنابراین چگونه باید فواصل زمانی را به بهترین نحو انتخاب کنم؟ > آیا کسی راهی بهتر/مفیدتر برای تجسم این نوع داده ها > برای به تصویر کشیدن اثربخشی یافتن موارد نادر (به عنوان مثال، با فرکانس بسیار پایین) > می شناسد؟ ویرایش: برای دقیق تر بودن، من توانایی برخی روش ها را برای بازسازی توالی های بیولوژیکی یک جمعیت خاص نشان می دهم. برای اعتبارسنجی با استفاده از داده های شبیه سازی شده، باید توانایی بازسازی انواع را بدون توجه به فراوانی (فرکانس) نشان دهم. بنابراین در این مورد من موارد گم شده و یافت شده را به ترتیب مرتب شده بر اساس فراوانی آنها تجسم می کنم. این نمودار شامل انواع بازسازی شده که در $Q$ نیستند نمی شود.
چگونه نتایج باینری را در مقابل یک پیش بینی پیوسته تجسم می کنید؟
45440
من تقریباً همان سؤالی را دارم که در این پست مطرح شده است: وضعیتی دارم که می‌خواهم 50 مشاهده روزانه از بازده سوآپ نرخ بهره را بر اساس چهار عامل عقب نشینی کنم. در واقع این مدل نلسون سیگل اسونسون است http://en.wikipedia.org/wiki/Fixed-income_attribution بخش مدل‌سازی منحنی بازده را ببینید در حال حاضر من یک فرآیند بهینه‌سازی دارم که مجموعه پارامترهای بهینه را برای فاکتورها و بتا پیدا می‌کند. (وزن) ضرایب. همانطور که مشاهده می شود اگر فاکتورهای tau1 و tau2 یکسان باشند، ماتریس مدل مفرد خواهد بود و یا اگر نزدیک باشند، شرطی نامطلوب خواهد بود. فرآیند بهینه‌سازی برای مجموعه داده‌های آزمایشی که در آن پارامترهای مورد استفاده برای تولید منحنی‌های زرد انتخاب می‌شوند تا اطمینان حاصل شود که شرایط نامناسبی وجود ندارد، به خوبی کار می‌کند. با این حال، زمانی که من آن را روی داده های واقعی اعمال می کنم، به نظر می رسد پارامترهای بهترین تناسب روز به روز زیاد می پرند، حتی زمانی که منحنی به سختی حرکت می کند. من فکر می‌کنم این ممکن است به این دلیل باشد که تناسب بهینه با داده‌های واقعی بر اساس مجموعه‌های پارامتری است که ماتریس‌های نامشخص تولید می‌کنند به این معنی که نگاشت وزن‌های بتا نادرست است. من فقط می‌توانم جریمه‌ای را در فرآیند بهینه‌سازی بگنجانم که از در نظر گرفتن ماتریس‌های شرطی بد جلوگیری می‌کند. با این حال، هیچ چیز در اصل (که بتوانم به آن فکر کنم) وجود ندارد که به این معنی باشد که نگاشت بهینه این 50 مشاهدات بر روی فاکتورها منجر به ماتریسی می شود که حداقل شرایط بدی ندارد. بنابراین من واقعاً به راهی برای رسیدگی به این موارد شرطی شده بد نیاز دارم و بتوانم نتایج حاصل از ماتریس‌هایی را که در آن شرایط غیرمشابه وجود دارد، مقایسه کنم. من این موضوع را دوباره بررسی کرده ام و روش های اصلی برای مقابله با چنین شرایطی استفاده از رگرسیون ریج، رگرسیون اجزای اصلی و حداقل مربعات جزئی است. با رگرسیون ریج به طور کلی به عنوان بهترین دیده می شود. (آیا موافقید). حتی در آن زمان نیز به نظر می رسد انواع مختلفی از رگرسیون ریج، رگرسیون خط الراس بی طرفانه، روش های مخلوط وجود دارد. به عنوان مثال http://www.utgjiu.ro/math/sma/v04/p08.pdf من نمی‌خواهم هیچ یک از 4 عامل را حذف کنم. من فقط می خواهم بهترین تناسب را با این عوامل داشته باشم. من فقط فکر کردم بهترین روش برای مشکل من چیست؟ در حالت ایده آل، من همچنین به خطاهای استاندارد برای ضرایب نیاز دارم. آیا کسی می تواند کدهای ایده آل را در MATLAB یا R توصیه کند که بتواند بهترین روش را پیاده سازی کند؟ آیا اعتبار سنجی متقاطع بهترین راه برای مقایسه مدل های رقیب است؟ اشکالی ندارد که مدل های بد شرطی شده و غیر مشروط را از این طریق مقایسه کنیم؟
رگرسیون ریج
63028
من می‌دانم که SVM‌های یک‌کلاس (OSVM) با نبود داده‌های منفی در ذهن پیشنهاد شده‌اند و آن‌ها به دنبال یافتن مرزهای تصمیمی هستند که یک مجموعه مثبت و برخی از نقاط لنگر منفی را از هم جدا می‌کنند. یک کار اخیر SVMهای نمونه (ESVM) را پیشنهاد می‌کند که یک «طبقه‌بندی کننده واحد در هر دسته» را آموزش می‌دهد که ادعا می‌شود با OSVM‌ها متفاوت است، به این ترتیب که ESVM‌ها «نیازی به نگاشت نمونه‌ها در یک فضای ویژگی مشترک ندارند که می‌توان بر روی آن یک هسته شباهت ایجاد کرد. محاسبه شده. من کاملاً نمی دانم که این به چه معناست و چگونه ESVM ها با OSVMS متفاوت هستند. و بنابراین چگونه آنها متفاوت هستند؟ و چگونه از این محاسبه هسته شباهت در ESVM جلوگیری می شود؟
SVM یک کلاس در مقابل SVM نمونه
10700
آیا کسی از اجرای موجود رگرسیون لجستیک ترتیبی در اکسل اطلاعی دارد؟
صفحه گسترده اکسل برای رگرسیون لجستیک ترتیبی
10702
من یک سوال در مورد تفسیر مقادیر p حاصل از آزمون دو نمونه کولموگروف اسمیرنوف دارم. اساس تحلیل من این است که سعی کنم گروه هایی را شناسایی کنم که تفاوت توزیع آنها را در مقایسه با کل نشان می دهند. من از دو نمونه تست کولوگروف اسمیرنوف در R برای این کار استفاده کردم. اندازه های نمونه: کامل = 2409 Group_1 = 25 Group_2 = 26 Group_3 = 33 Group_4 = 43 نمودار مجموعه داده: ![Boxplots of databases](http://i.stack.imgur.com/rQqU0.png) Other حاوی یک مجموعه ای از گروه های حاوی کمتر از 20 نقطه داده. مقادیر p حاصل که وقتی هر گروه را با گروه کامل مقایسه می کنم به شرح زیر است: گروه 1: 2.6155e-002 گروه 2: 2.1126e-003 گروه 3: 7.2113e-002 گروه 4: 7.3466e -003 چگونه می توانم این نتایج را تفسیر کنم - به ویژه با توجه به تعداد کم نقاط داده در هر گروه به عنوان تفاوت در حجم نمونه برای کامل (N=2409) و گروه ها (N=25-43)؟ آیا انتخاب یک تست KS خوب است یا ممکن است تست دیگری در این مورد مناسب تر باشد؟
دو نمونه آزمون کولموگروف اسمیرنوف و تفسیر p-value
17256
از 312 نفر پرسیدم که چند بار در یک ماه از سوپرمارکت محلی مورد علاقه خود بازدید کردند. نتایج به شرح زیر است: * 5٪ اصلاً بازدید نکردند * 7٪ یک بار در ماه بازدید کردند * 33٪ دو بار در ماه بازدید کردند * 22٪ سه بار بازدید کردند. یک ماه * 15٪ چهار بار در ماه بازدید می کنند * 18٪ پنج بار و بیشتر در ماه بازدید می کنند در صورت عدم وجود تعداد واقعی بازدید (من فقط درصد مراجعه کنندگان به شرح بالا را دارم)، چگونه آیا میانگین و انحراف معیار را برای اهداف گزارش محاسبه می کنید؟
چگونه می توان میانگین و انحراف معیار یک متغیر شمارش را وقتی که داده های خام بر اساس دسته های فرکانس است محاسبه کرد؟
21619
من سعی می‌کنم تست دقیق فیشر را در R انجام دهم. نسبت شانس را مانند این $$\frac{(\text{تعداد موفقیت‌ها در مجموعه من}) \cdot (\text{تعداد شکست‌ها در پس‌زمینه) محاسبه می‌کنم. set})}{\text{(تعداد موفقیت‌ها در مجموعه پس‌زمینه)} \cdot (\text{تعداد شکست‌ها در مجموعه من})}$$ در مخرج، من برای برخی موارد 0 دریافت می کنم، زیرا برای برخی موارد 0 شکست در مجموعه من وجود دارد. آیا کسی می تواند به من بگوید که چگونه p-value را از نسبت شانس محاسبه کنم؟ همچنین اگر بگوییم نسبت شانس باید بزرگتر یا کمتر از 1 باشد به چه معناست؟ اگر بخواهم نمایش بیش از حد را در مجموعه خود در برابر مجموعه پس زمینه آزمایش کنم، نسبت شانس چقدر باید باشد و چگونه می توانم آن را محاسبه کنم؟
چگونه نسبت شانس و p-value را برای آزمون فیشر محاسبه کنیم؟
95790
من در تلاش برای درک و پیاده سازی تست اندرسون-دارلینگ برای توزیع نرمال در C ++ هستم. من پیاده سازی Octave/Matlab تست اندرسون-دارلینگ را در اینجا پیدا کرده ام، اما مقادیر بحرانی با مقادیر فهرست شده در ویکی پدیا متفاوت است. نویسندگان کد منبع مذکور، قبل از آزمایش فرضیه، نوعی تعدیل را انجام داده بودند. می خواهم بدانم این تنظیم برای چه کاری خوب است، چرا ساخته شده است؟
تست اندرسون-دارلینگ - تنظیم برای چه چیزی خوب است
End of preview. Expand in Data Studio

CQADupstackStatsRetrieval-Fa

An MTEB dataset
Massive Text Embedding Benchmark

CQADupstackStatsRetrieval-Fa

Task category t2t
Domains Web
Reference https://huggingface.co/datasets/MCINext/cqadupstack-stats-fa

How to evaluate on this task

You can evaluate an embedding model on this dataset using the following code:

import mteb

task = mteb.get_tasks(["CQADupstackStatsRetrieval-Fa"])
evaluator = mteb.MTEB(task)

model = mteb.get_model(YOUR_MODEL)
evaluator.run(model)

To learn more about how to run models on mteb task check out the GitHub repitory.

Citation

If you use this dataset, please cite the dataset as well as mteb, as this dataset likely includes additional processing as a part of the MMTEB Contribution.

 

@article{enevoldsen2025mmtebmassivemultilingualtext,
  title={MMTEB: Massive Multilingual Text Embedding Benchmark},
  author={Kenneth Enevoldsen and Isaac Chung and Imene Kerboua and Márton Kardos and Ashwin Mathur and David Stap and Jay Gala and Wissam Siblini and Dominik Krzemiński and Genta Indra Winata and Saba Sturua and Saiteja Utpala and Mathieu Ciancone and Marion Schaeffer and Gabriel Sequeira and Diganta Misra and Shreeya Dhakal and Jonathan Rystrøm and Roman Solomatin and Ömer Çağatan and Akash Kundu and Martin Bernstorff and Shitao Xiao and Akshita Sukhlecha and Bhavish Pahwa and Rafał Poświata and Kranthi Kiran GV and Shawon Ashraf and Daniel Auras and Björn Plüster and Jan Philipp Harries and Loïc Magne and Isabelle Mohr and Mariya Hendriksen and Dawei Zhu and Hippolyte Gisserot-Boukhlef and Tom Aarsen and Jan Kostkan and Konrad Wojtasik and Taemin Lee and Marek Šuppa and Crystina Zhang and Roberta Rocca and Mohammed Hamdy and Andrianos Michail and John Yang and Manuel Faysse and Aleksei Vatolin and Nandan Thakur and Manan Dey and Dipam Vasani and Pranjal Chitale and Simone Tedeschi and Nguyen Tai and Artem Snegirev and Michael Günther and Mengzhou Xia and Weijia Shi and Xing Han Lù and Jordan Clive and Gayatri Krishnakumar and Anna Maksimova and Silvan Wehrli and Maria Tikhonova and Henil Panchal and Aleksandr Abramov and Malte Ostendorff and Zheng Liu and Simon Clematide and Lester James Miranda and Alena Fenogenova and Guangyu Song and Ruqiya Bin Safi and Wen-Ding Li and Alessia Borghini and Federico Cassano and Hongjin Su and Jimmy Lin and Howard Yen and Lasse Hansen and Sara Hooker and Chenghao Xiao and Vaibhav Adlakha and Orion Weller and Siva Reddy and Niklas Muennighoff},
  publisher = {arXiv},
  journal={arXiv preprint arXiv:2502.13595},
  year={2025},
  url={https://arxiv.org/abs/2502.13595},
  doi = {10.48550/arXiv.2502.13595},
}

@article{muennighoff2022mteb,
  author = {Muennighoff, Niklas and Tazi, Nouamane and Magne, Lo{\"\i}c and Reimers, Nils},
  title = {MTEB: Massive Text Embedding Benchmark},
  publisher = {arXiv},
  journal={arXiv preprint arXiv:2210.07316},
  year = {2022}
  url = {https://arxiv.org/abs/2210.07316},
  doi = {10.48550/ARXIV.2210.07316},
}

Dataset Statistics

Dataset Statistics

The following code contains the descriptive statistics from the task. These can also be obtained using:

import mteb

task = mteb.get_task("CQADupstackStatsRetrieval-Fa")

desc_stats = task.metadata.descriptive_stats
{
    "test": {
        "num_samples": 42921,
        "number_of_characters": 37808958,
        "num_documents": 42269,
        "min_document_length": 0,
        "average_document_length": 893.7330904445338,
        "max_document_length": 7532,
        "unique_documents": 42269,
        "num_queries": 652,
        "min_query_length": 11,
        "average_query_length": 48.70245398773006,
        "max_query_length": 133,
        "unique_queries": 652,
        "none_queries": 0,
        "num_relevant_docs": 913,
        "min_relevant_docs_per_query": 1,
        "average_relevant_docs_per_query": 1.4003067484662577,
        "max_relevant_docs_per_query": 18,
        "unique_relevant_docs": 913,
        "num_instructions": null,
        "min_instruction_length": null,
        "average_instruction_length": null,
        "max_instruction_length": null,
        "unique_instructions": null,
        "num_top_ranked": null,
        "min_top_ranked_per_query": null,
        "average_top_ranked_per_query": null,
        "max_top_ranked_per_query": null
    }
}

This dataset card was automatically generated using MTEB

Downloads last month
29