8R.Z.1880.J.S.10.D.20G.

前言:本站编辑为你整理我有祖传的墨西哥花边鹰洋想转让价格是多少相关百科知识以及网友最关心的问题,希望对您有帮助
关于我有祖传的墨西哥花边鹰洋想转让价格是多少,网友们最关心的问题
答:我是一个收藏家,据我所知,这个大约价值30000元,因为不是很旧嘛。如果有1837年的,那就值钱了,大约150000元。
答:1897年以前的花边鹰洋,墨西哥花边鹰洋,美品市场价320--350元左右.
答:你好,两三百元。
答:1867年出版的墨西哥鹰洋花边银元,真品品相好的市场上一般喊价在700左右;真品喜欢就可以当一个品种收藏!
答:你好,品相太烂了,二百多元。
答:墨西哥鹰洋拍卖价一百多万,只是拍卖风险大,投资须谨慎。
答:400元左右。
答:银币墨西哥鹰洋,属普通银元,目前市场价位不是很高,具体价格要看品相等多种因素,且各地价格不尽一致。你的这枚如果品相好的,大约在200元左右一枚。
答:价钱能低我就要了
答:鹰洋(墨西哥银元)现在的市场价是多少 一、墨西哥鹰洋现在价格:是在300-1000元左右。 二、墨西哥鹰洋铸造时间:1823年 三、墨西哥鹰洋铸造规格:花边鹰洋;直边鹰洋。直径39毫米,重量27.07克 四、墨西哥鹰洋概述: 墨西哥鹰洋是指1821年墨西...
答:你好,两三百元。
答:是墨西哥鹰洋 背面的文字标注是:“8R·Do·1888·A·M·10D·20G”,其中前后的“8R”为鹰洋货币单位,相当于“元”,即“4R”相当于“半元”,“2R”相当于“1/4元”,依此类推;“Do”为铸造厂标识,是每一个铸造厂的标记;“1888”是铸造年号;“AM”是批量检验师名称...
答:不是很特殊的年号与版别,这个在后期ZS厂的鹰洋中很多见的。具体价格要看品相的(币面的磨损程度、光洁程度等)。一般的在230元左右,品相好的要贵些。
答:鹰洋(墨西哥银元)现在的市场价是多少 一、墨西哥鹰洋现在价格:是在300-1000元左右。 二、墨西哥鹰洋铸造时间:1823年 三、墨西哥鹰洋铸造规格:花边鹰洋;直边鹰洋。直径39毫米,重量27.07克 四、墨西哥鹰洋概述: 墨西哥鹰洋是指1821年墨西...
答:1869年墨西哥花边鹰洋普品市场价格大致300元左右,稀有铸币局的、品相极美的价格较高。不知道这个错版错在哪里确实无法估价,建议你重新提问发钱币清晰的正反面照片以便鉴别估价。
答:值钱。值几百。
答:据说一般300元左右
答:是什么银元?请上传照片,就算是真的,不同种类的银元价格差距很大,同一种银元,品相不同,差距也会很大。不知道品种和品相,我无法向阁下估价。
答:300RMB左右,花边鹰洋,1864年的价格最高。直边鹰洋价格也在300RMB左右。如果是中国制造的,正面或背面刻有“工”字,价格也在300左右。
答:1890年墨西哥花边鹰洋普品市场价格大致200---300元之间,品相极美的价格较高。
答:普通鹰洋目前360元左右一枚,由于鹰洋版别有上千种,个人没有很深研究。
答:不错、、、、、
答:“8R”为鹰洋货币单位,里亚尔。“4R”相当于“半元”,“2R”相当于“1/4”,Zs造厂标识(鹰洋的铸造厂家一共有14个,简称分别是Pi、Zs、Ho、Go、Mo、Do、Ga、As、Ca、Cn、EoMo、GC、O\Oa、Ce)(克台克斯“ZACATECAS”的缩写,克台克斯是墨西哥中部一个州的首...
答:你好!1895年的墨西哥鹰洋比较常见,现在的市场价格不高,品相较好的现在的市场价格在350--400元一枚,祝你好运!
答:银币墨西哥鹰洋,属普通银元,目前市场价位不是很高,具体价格要看品相等多种因素,且各地价格不尽一致。你的这枚如果品相好的,大约在200元左右一枚。
答:发行于1823年至1897年期间的为邪自由帽”鹰洋,边齿为花边,面值8瑞尔(Real),直径39毫米,重量27.07克,成色90.30%,含纯银0.7盎司,正面为墨西哥国徽图案,背面为自由帽图案。 发行于1898年至1905年期间为大“自由帽”,边齿为直边,直边鹰洋面值...
答:与工作人员联系,适合就参加。 藏品交易与拍卖常识:请仔细阅读,避免上当受骗 藏友问某某公司是否正规?是不是骗子?可靠吗? 任何单位都是法制注册营业的,至于服务质量,收费的标准,得自己去考察衡量,一定谨慎避免高收费,不成交造成的伤害...
答:这个是1890的墨西哥鹰洋 由于传世量比较大,所以不会太值钱.而且造币场验币师对价格是有影响的,我不知道你的这个东西到底是什么样子所以告诉你普遍的价格 最常见的Mo(墨西哥城)造币厂的比较便宜,普品大概在180~200元 晚清民国年间,外国银元...
答:据说一般300元左右
答:Clear air spring clothing let you fondle admiringly 1. The spring season is about dreams come true, free and beautiful blessing. Is about pure and fresh feeling, charismatic and cheung classic: loose body design dress,ray ban s...
答:与工作人员联系,适合就参加。 藏品交易与拍卖常识:请仔细阅读,避免上当受骗 藏友问某某公司是否正规?是不是骗子?可靠吗? 任何单位都是法制注册营业的,至于服务质量,收费的标准,得自己去考察衡量,一定谨慎避免高收费,不成交造成的伤害...
答:1886年的墨西哥鹰洋,知道“8R”为鹰洋货币单位,是相当于货币单位“元”的面值,墨西哥鹰洋,背面的英文是,8r G.1886.rr10d.20g',其价值如下: 墨西哥直边鹰洋,上佳品市场价350--400元左右. 墨西哥直边鹰洋,美品市场价400--450元左右. 墨西哥直边鹰...
答:墨西哥鹰洋 晚清民国年间,外国银元输入中国者,属墨西哥鹰洋最多。据清朝宣统二年(1910)度支部调查统计,当时中国所流通的外国银元约有十一亿枚,其中有三分...
答:190元 墨西哥鹰洋 REPUBLICA MEXICANA(墨西哥共和国) 鹰洋 墨西哥的铸币史可以追溯到16世纪以前。由于墨西哥盛产白银等有色金属,古代印第安阿兹特加人早就掌握了把金、银、铜等贵金属加工成生活用品、装饰品和祭祀器具的高超技艺。《梁书》中...
答:东西真的,花边鹰洋,可惜戳太多,品相太差,只值银子价格了··
答:墨西哥银元,正面是张翅雄鹰,嘴叼长蛇,单腿立在仙人掌(墨西哥国花)上,边缘上书“墨西哥共和国”。墨西哥银元正面张翅叼蛇的立鹰图案,是墨西哥国徽。这一国徽图案,是根据以前传说而来的。背面中央为一顶自由软帽,帽沿书有“自由”字样,帽周...
答:背面的文字标注是:“8R·Do·1890·F·G·10D·20G”,其中前后的“8R”为鹰洋货币单位,相当于“元”,即“4R”相当于“半元”,“2R”相当于“1/4元”,依此类推;“H”为铸造厂标识,是每一个铸造厂的标记;“1890”是铸造年号;“F.G”是批量检验师名称的缩写,责任制...
答:1862年的墨西哥鹰洋,普品现在值400--450元左右,品好价好.
墨西哥 鹰洋-墨西哥鹰洋-墨西哥鹰洋银元价格-墨西哥鹰洋价格-墨西哥鹰洋哪种最贵-墨西哥鹰洋市值 80万-墨西哥鹰洋币-墨西哥鹰洋最新价格Familles exponentielles naturelles quadratiques (PDF Download Available)
See all >43 References
24.34Institute of Mathematics of Marseille / Aix-Marseille University
Familles exponentielles naturellesquadratiquesDenys PommeretCREST-ENSAIOFPR
IntroductionLes familles exponentielles (FE) ont connu un large succès depuis le livrede Barndorff-Nielsen “Information and exponential families” (1978). Plus ac-cessible, l’ouvrage de Brown (1986) est également devenu un classique sur lesfamilles exponentielles en statistique. Citons égalemet le livre (quasi introu-vable) de Letac (1992) qui parle des familles exponentielles avec un langageassez moderne. Depuis, peu de livres traitant directement de ce sujet sont sor-tis, mais la plupart des ouvrages de statistique consacrent de larges passagesaux familles exponentielles. Mais s’il y a peu de livres, les articles sont nom-breux sur le sujet, en particulier deux articles de Morris (1982 et 1983) sur lesfamilles exponentielles quadratiques. Ces deux articles contiennent en sub-stance une grande part des résultats que nous allons voir dans ce mini-cours.Nous allons donc étudier ces résultats de Morris, en utilisant principalementles notations de Letac et aussi pas mal d’améliorations que ce dernier a ap-porté dans son livre. L’objectif principal est de montrer comment construirel’estimateur sans biais de variance minimum d’une fonction du paramètrede la famille, et, surtout, comment obtenir sans difficulté sa variance. Nousverrons également une version bayésienne de ce résultat. Nous étudieronsaussi les probabilités de Lancaster, la classe de Meixner, et des propriétés demartingale inverse liées aux familles exponentielles quadratiques.1
Contents1 Les familles exponentielles naturelles 41.1 Définitions............................. 41.2 Exemples ............................. 72 Les familles exponentielles naturelles quadratiques 92.1 La fonction variance . . . . . . . . . . . . . . . . . . . . . . . 92.2 La propriété “quadratique” . . . . . . . . . . . . . . . . . . . . 102.3 le cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . 123 Construction d’une base orthogonale 153.1 Construction d’une base de polyn?mes . . . . . . . . . . . . . 153.2 Caractérisation de l’orthogonalité . . . . . . . . . . . . . . . . 164 Estimation d’une fonction du paramètre 194.1 Echantilloni.i.d........................... 194.2 Estimateur sans biais de variance minimum . . . . . . . . . . 194.3 Casbiaisé ............................. 234.4 Cas i.i.d. par blocs . . . . . . . . . . . . . . . . . . . . . . . . 234.5 Exemples ............................. 245 Propriétés asymptotiques de l’estimateur 266 La classe de Meixner 286.1 Définition ............................. 286.2 Une caractérisation de Meixner . . . . . . . . . . . . . . . . . 286.3 Les polyn?mes d’Appell . . . . . . . . . . . . . . . . . . . . . 296.4 Extension multidimensionnelle . . . . . . . . . . . . . . . . . . 292
7 Propriétés de martingale et de martingale inverse 317.1 Une propriété de martingale . . . . . . . . . . . . . . . . . . . 317.2 Applications............................ 337.3 Une propriété de martingale inverse . . . . . . . . . . . . . . . 347.4 Applications............................ 368 Les probabilités de Lancaster 378.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . 378.2 Construction d’une probabilité sur R2à partir de ces marges . 388.3 Exemple.............................. 399 Quelques extensions bayésiennes 409.1 lesloisconjuguées......................... 409.2 Les risques bayésiens . . . . . . . . . . . . . . . . . . . . . . . 419.3 Exemples ............................. 439.4 Orthogonalité a priori et a posteriori . . . . . . . . . . . . . . 443
Chapter 1Les familles exponentiellesnaturelles1.1 DéfinitionsNous allons définir les principaux outils que nous utiliserons tout au long dece cours. Certaines démonstrations “standards” seront laissées au lecteur.Pour commencer, considérons une mesure positive usur Rqui ne soit pasune masse de Dirac. On noteLu(θ) = ZRexp(θx)u(dx),la transformée de laplace de u, et Θ(u)est l’intérieur du domaine de définitionde Lu, soitΘ(u) = int{θ∈R;Lu&+∞}.On supposera par la suite que Θ(u)est non vide, ce qui exclura en particulierles lois de Cauchy. Le logarithme de Lu, noté ku= log(Lu), est appeléfonction des cumulants de u. On a la propriété suivante.Proposition 1.1 L’application θ7→ Lu(θ)(Θ→R+*) est analytique.Démonstration : Soit θ∈Θ(u). Il existe r & 0tel que, ?h∈Rvérifiant|h| ≤ r, on ait θ+h∈Θ(u). En particulier, exp((θ+r)xest uintégrable et4
on a |exp((θ+h)x)| ≤ exp((θ+r)x. On peut donc utiliser le théorème deconvergence dominée qui nous donneLu(θ+h) = Xn∈Nhnn!ZRxnexp(θx)u(dx),ce qui montre l’analycité de Lu.Maintenant, remarquons que si θappartient à Θ, alors en intégrant la quan-tité exp(θx)/Lu(θ)par rapport à uon trouve 1, i.e.Zexp(θx)Lu(θ)u(dx)=1.Ainsi, on définit des mesures de probabilité associée à chaque valeur de θ.PosonsP(θ, u)(dx) = exp(θx -ku(θ))u(dx),et définissons l’ensemble de probabilités suivant :F={P(θ, u); θ∈Θ},où chaque P(θ, u)est donc une mesure de probabilité par rapport à u.Définition 1.1 La famille de probabilité Fest appelée famille exponentiellenaturelle (notée F EN ) engendrée par u.Remarquons que la mesure génératrice un’est pas unique et n’appartientpas forcément à la famille F(et ce n’est pas forcément une probabilité). Parcontre toute mesure P(θ, u)engendre la famille F. On a alorsdP (θ, u)dP (θ0, u0)= exp{(θ-θ0)x-(ku(θ)-ku(θ0))}.On a les deux propriétés fondamentales suivantes :Proposition 1.2 Avec les notations précédentes on ak0u(θ) = ZRxP (θ, u)(dx)k00u(θ) = ZR(x-k0u(θ))2P(θ, u)(dx).5
Démonstration : Montrons la première propriété. En dérivant kuet enutilisant le fait que l’on peut inverser somme et dérivation pour une fonctiongénératrice on obtientk0u(θ) = L0u(θ)Lu(θ)=Zxexp(θx)(Lu(θ))-1u(dx).Ces résultats signifient que si Xsuit une loi P(θ, u)∈Falors on a lesdeux égalités : E(X) = k0u(θ)et V(X) = k00u(θ). Une propriété tout aussiimportante est celle qui nous servira a changer de paramétrisation dans notrefamille, en prenant comme paramètre non plus θ(souvent appelé paramètrenaturel) mais la moyenne.Proposition 1.3 L’application k0udéfinit une C∞bijection de Θ(u)dansMF=k0u(Θ(u)). Son inverse est notée ψuDémonstration : D’après la proposition 1.1. kuet k0usont analytiques.De plus (exo) l’application θ7→ ku(θ)est strictement convexe ce qui entra?neque θ7→ k0u(θ)est injective. En effet, si k0u(θ1) = k0u(θ2)avec θ16=θ2, alorsen posant g(t) = ku((1-t)θ1+tθ2)serait strictement convexe sur [0,1]. Maisg0(0) = g0(1) entra?ne alors la contradiction : g0=constante. On en déduitque c’est une bijection de Θdans MF.Ainsi nous pouvons reparamétrer notre famille Fpar MF, appelé domainedes moyennes de F, de la fa?on suivante : on poseP(m, F ) = P(ψu(m), u),avec un choix arbitraire de u. AlorsF={P(m, F ), m ∈MF},où chaque P(m, F )est une probabilité de moyenne met de densité par raportàunotée :fu(x, m) = exp{ψu(m)-ku(ψu(m))}.6
1.2 Exemples(i) Loi normaleSoit σ & 0un paramètre fixé et soitu(dx) = exp(-x22σ2)dx(√2πσ)-1.Alors la famille exponentielle naturelle engendrée par uest la familledes lois normales de variance σ2. On a pour θ∈R= Θ(u)Lu(θ) = exp(θ2σ2/2),P(θ, u)(dx) = exp(-(x-σ2θ)22σ2)dx/√2πσ,qui est de moyenne m=k0u(θ) = θσ2.(ii) Loi de PoissonPrenons comme mesure génératriceu(dx) = Xn∈Nδn(dx)n!.On obtient alors la famille des lois de Poisson de paramètre λen écrivantpour X~P(θ, u),Lu(θ) = exp(exp(θ)),P(X=x) = exp(xθ -exp(θ))/n!,et en posant λ= exp(θ).(iii) Loi binomialePour un entier Nfixé on poseu=NXk=0CkNδk,qui peut aussi s’écrire (δ0+δ1)*N(on voit appara?tre la somme de NBernoulli). Alors si X~P(θ, u),Lu(θ) = (1 + exp(θ))N,P(X=x) = CkNexp(kθ)(1 + exp(θ))N,qui est la loi d’une binomiale B(N, p)avec p= exp(θ)/(1 + exp(θ)).7
(iv) Loi binomiale négativeSoit λ & 0, on poseu=Xn∈NCnλ+n-1δn,avec comme conventionCnλ+n-1=λ(λ+ 1) · ··(λ+n-1)/(n!),=Γ(λ+n)n!Γ(λ).même lorsque λn’est pas un entier. Rappelons queXn∈NCnλ+n-1zn= (1 -z)-λ,dès que |z|&1. On aLu(θ) = (1 -exp(θ))-λ,et P(θ, u)est une binomiale négative de paramètre λet p= 1-exp(θ).(v) Loi gammaPour α & 0fixé, on poseu(dx) = xα-1Γ(α)I]0,∞[(x)(dx).Alors P(θ, u)est la loi γ(α, -θ)avec θ & 0.(vi) Loi hyperboliqueSoit λ & 0fixé. On poseu(dx) = 2λ-2|Γ(λ/2 + ix)|2πΓ(λ)dx.On montre queLu(θ) = (cos(θ))-λ,pour 2θ∈]-π, π[et uengendre une famille exponentielle naturelleappelée famille des lois hyperboliques. Lorsque λ→0on trouve unedistribution de Cauchy.8
Chapter 2Les familles exponentiellesnaturelles quadratiques2.1 La fonction varianceUne classe remarquable de F EN est celle des familles exponentielles na-turelles quadratiques. Elle est déterminée par la forme de sa fonction varianceque nous allons définir.Définition 2.1 Soit Fune FEN sur Rengendrée par uet notons VF(m)la variance de P(m, F )∈F, i.e. VF(m) = VF(k0u(θ)) = k00u(θ). Alorsl’applicationVF:MF→R+*,est appelée fonction variance de F.La notion de fonction variance est très importante car elle caractérise la FE.En effet, si F1et F2sont deux FEN telles que VF1=VF2sur un ouvert, alorsF1=F2. De plus, la fonction variance a souvent une expression plus simpleque la densité, et elle est souvent plus facile à manipuler. Elle réagit de lamanière suivante aux affinités et convolutions.Proposition 2.1 Soit VF(m)une fonction variance définie sur un domainedes moyennes MF. Soit Ala transformation affine x7→ ax +b(R→R) etsoit A(F)la famille image de Fpar A, c’est-à-dire l’ensemble des probabilitésA(P(m, F )) (image de P(m, F )par A). On a9
(i) Si uengendre Falors A(u)engendre A(F).(ii) Θ(A(u)) = a-1Θ(u)(iii) kA(u)(θ) = ku(aθ) + bθ(iv) MA(F)=A(MF)(v) ψA(u)(m) = a-1ψu(a-1(m-b))(vi) VA(F)(m) = a2VF(A-1m)La démonstration est facile en revenant à la définition de la transformée delaplace et en utilisant le théorème du transport.2.2 La propriété “quadratique”Définition 2.2 Une famille exponentielle naturelle est quadratique si sa fonc-tion variance peut se mettre sous la forme :VF(m) = am2+bm +c,avec a, b, c ∈R.Les paramètres a, b, et cdoivent être indépendants de m. Dans le tableau(2.1), six FEN quadratiques sont proposées. Morris (1982) a montré que lessix familles quadratiques de ce tableau sont les seules F EN quadratiquesaux affinités et convolutions près. Ce qui signifie qu’il n’y a que six types deF EN quadratiques sur R. Nous précisons ce terme :Définition 2.3 Deux familles F1et F2engendrée respectivement par u1et u2sont du même type s’il existe une affinité Aet une puissnace de convolutionk & 0, telles queu1=A(u*k2).On montre facilement la propriété suivante :10
Table 2.1: Exemples de FEN quadratiquesNom VF(m)met P(m, F )(dx)N(m, 1) 1 0 et exp(-x22)dx/√2πP(m)m1 et Xn≥0exp(-1)δn/n!B(1, m)-m2+m12et 1/2(δ0+δ1)NB(1, m)m2+m1 et Xn≥0(1/2)x+1δnγ(1,1/m)m21et exp(-x)I(0,+∞)(dx)Hyperbolic m2+ 1 0 et dx/2ch(πx2)11
Proposition 2.2 Soit Fune F E N engendrée par une mesure uet de fonc-tion variance notée VF. Soit u*kla kième puissance de convolution de u(k & 0). Alors en notant Fkla F E N engendrée par u*kon aVFk(m) = kVF(m/k).On dit que la mesure génératrice uest indéfiniment divisible lorsque l’ensembledes puissances de convolution est ]0,∞[, c’est-à-dire lorsque pour tout k & 0,Lkuest encore la transformée de Laplace d’une mesure positive. A l’exceptiondes F EN quadratiques de type binomial, toutes sont indéfiniment divisible.Pour les binomiales, l’ensemble de convolution est N*.Remarque : en utilisant les propiétés 2.1 et 2.2, et le tableau (2.1), on peutretrouver toutes les F E N dont les fonctions variance s’écrivent VF(m) =am2+bm +c.2.3 le cas multidimensionnelCasalis (1996) a généralisé la classe des F EN quadratiques (appelée aussiclasse de Morris) en dimension d.Définition 2.4 Soit F={P(m, F ); m∈MF?Rd}une F EN sur Rddefonction variance notée VF(i.e. VF(m)co?ncide avec la matrice de variancecovariance de P(m, F )). On dit que Fest quadratique simple si il existea∈R,B:Rd→Rdlinéaire et Cune matrice d×dsymétrique définiepositive telles queVF(m) = am ?m+B(m) + C.On montre (Casalis, 1996) qu’il y a d+4 types de familles que nous résumonsdans le tableau (2.2) Il s’agit de mélanges conditionnels de F EN quadra-tiques sur R. En effet, dans le tableau (2.2), pour les Poisson-normales,les variables sont indépendantes, dont ksont de Poisson et d-ksont nor-males. Pour les négatives multinomiales-gamma-normales, les kpremièresvariables sont négative multinomiales, la (k+ 1)ième sachant les précédentesest gamma, et les dernières sachant les k+ 1 autres sont normales. Pourla négative multinomiale-hyperbolique, les d-1premières variables sont12
négative multinomiale, et la dernière variable, sachant les premières, est hy-perbolique.Remarque : Il y a d+ 1 types de familles Poisson-Normale et d+ 1 typesde familles négatives multinomiales-gamma-normales, ce qui fait bien 2d+ 4types au total (soit 6 types sur R).13
Table 2.2: Les 2d+ 4 types de F E N quadratiques simples sur RdTypes a MFVF(m)Poisson-Normale0]0,+∞[k×Rd-kk∈ {0, . . . , d}diag(m1, . . . , mk,1, . . . , 1)Nég-multinomiale-Gamma-Normalea & 0 ]0,+∞[k+1×Rd-k-1k∈ {0, . . . , d}am tm+diag(m1,. . ., mk,0, mk+1,. . ., mk+1)Nég-multinomiale-hyperboliquea & 0 ]0,+∞[d-1×Ram tm+diag(m1, . . . , md-1,d-1Xi=1mi+ 1)Multinomiale -1/a =N∈N*dXj=1mj& N andmj&0-1Nmtm+diag(m1, . . . , md-1,d-1Xj=1mj+ 1)14
Chapter 3Construction d’une baseorthogonale3.1 Construction d’une base de polyn?mesLorsque l’on a une mesure positive finie, u, sur un intervalle ouvert Itelle quetous les moments de uexistent alors l’ensemble des polyn?mes est dense dansL2(u). L’existence des moments est assurée pour toute famille exponentiellenaturelle Fet nous allons voir comment construire une base de polyn?mes àpartir de la densité d’une probabilité de F. Pour n∈Non poseQn(x, m) = ?/?m(fu(x, m))fu(x, m).Par récurrence on montre facilement que la famille (Qn(., m))n∈Nforme unebase de polyn?mes, où chaque Qnest un polyn?me de degré nen x.Remarques :(i) Les premiers termes sontQ0(x, m)=1Q1(x, m) = ??m {exp(ψu(m)x-ku(ψu(m)))}/exp(ψu(m)x-ku(ψu(m)))= (x-m)ψ0u(m)= (x-m)/VF(m).15
On a ici utilisé la propriété (importante) suivanteψ0u(m) = VF(m)-1.(ii) La remarque précédente montre que le coefficient du degré ndans Qn(x, m)est VF(m)-n, i.e. Qn(x, m) = VF(m)-nxn+··· .3.2 Caractérisation de l’orthogonalitéLe tableau (3.1) donne quelques équations de récurrence à trois termes quicaractérisent les polyn?mes orthogonaux. Le résultat suivant nous dit que siFest quadratique, les polyn?mes (Qn)n∈Nsont P(m, F )orthogonaux. Pourla démonstration, on pourra se référer à Letac (1992).Théorème 3.1 Soit Fune famille exponentielle naturelle sur Ret soit (Qn)n∈Nles polyn?mes définis précédemment. Il y a équivalence entre :i) La famille Fest quadratique.ii) Les polyn?mes Qn(., m)sont P(m, F )orthogonaux (?m∈MF).iii) Pour tout m∈MF, il existe des réels a, b, c tels quexQn(x, m) = cQn+1(x, m) + nbQn(x, m) + n(1 + a(n-1))Qn-1(x, m) + mQn(x, m).Dans ce cas on a ?m1∈MFVF(m1) = a(m1-m)2+b(m1-m) + c,avec c=VF(m).Le tableau (3.2) donne les polyn?mes orthogonaux pour chaque type de F E Nquadratique. Nous détaillons seulement le calcul des polyn?mes d’Hermite.On a par exemple, pour la famille F={N(m, 1); m∈R}, on aVF(m) = 1.En utilisant le théorème on obtient les équations des polyn?mes Qn:xQn(x, m) = Qn+1(x, m) + nQn-1(x, m) + mQn(x, m),et en posant Qn(x) = (√2)-nHn((x-m)/√2) on a la solution.16
Table 3.1: Polyn?mes classiques sur RNom Notation Premiers termes Relations de récurrenceHermite HnH0= 1 2xHn(x) = Hn+1(x)+2nHn-1(x)H1(x) = 2xCharlier CαnCα0= 1 xCαn(x) = -αCαn+1(x) + (n+α)Cαn(x)(α & 0) Cα1(x) = (α-x)/α -nCαn-1(x)Laguerre LαnLα0= 1 -xLαn(x) = (n+ 1)Lαn+1(x)Lα1(x) = -x+α+1 -(2n+α+ 1)Lαn(x)(α & -1) +(n+α)Lαn-1(x)Krawchouk Kp,NnKp,N0= 1 xKp,Nn(x) = (n+ 1)Kp,Nn+1(x)(0 & p &1)Kp,N1(x) = x-pN +(n+p(N-2n))Kp,Nn(x)(N∈N) +p(1-p)(N-n+1)Kp,Nn-1(x)Meixner Mc,βnMc,β0= 1 xMc,βn(x) = Mc,βn+1(x)(firsttype)(c6= 1) Mc,β1(x) = x-βc/(1 -c)+(1 + c)n+βc1-cMβ,cn(x)(β∈R) +cn(n+β-1)1-cMβ,cn-1(x)Pollaczek PλnPλ0= 1, xP λn(x) = (n+λ)Pλn+1(x) + nP λn-1(x)(λ∈R*)Pλ1(x) = x/λ17
Table 3.2: Polyn?mes P(m, F )-orthogonaux pour la classe de MorrisType m P (m, F )(dx)Qn(x, m)Normale 0 exp(-x22)dx/√2π(√2)-nHn(x/√2)VF(m) = 1Poisson 1 Xn≥0exp(-1)δn/n! (-1)nC1n(x)VF(m) = mBinomiale 121/2(δ0+δ1)n!(4)-nK1/2,1n(x)VF(m) = -m2+mNégative binomiale 1 Xn≥0(1/2)x+1δn(1/√2)3nM1/2,1n(x-1)VF(m) = m2+mGamma 1 exp(-x)I(0,+∞)(dx) (-1)nn!L0n(x)VF(m) = m2Hyperbolique 0 dx/2ch(πx2)n!P1n(x)VF(m) = m2+ 118
Chapter 4Estimation d’une fonction duparamètre4.1 Echantillon i.i.d.Si X1, . . . , Xqsont qv.a. i.i.d. de loi P(θ, u)alors la loi de ?X= 1/qqXi=1Xiest P(qθ, uq), où uqest la mesure image par l’application x7→ x/q de ν*q,*désignant le produit de convolution. De plus, la loi P(qθ, uq)appartient àune F EN , notée Fq, qui vérifieFq=F(uq) = {P(qθ, uq); θ∈Θ(u)}={P(m, Fq); m∈MF}.VFq(m)=1/qVF(m).4.2 Estimateur sans biais de variance minimumSoit F={P(m, F ); m∈MF}une famille exponentielle quadratique sur Ret soit X1,··· , Xqun échantillon i.i.d. de loi P(m, F )avec minconnue. Onconsidère le problème suivant :Soit g:MF→Rune fonction analytique connue.oQuel est l’Estimateur Sans Biais de Variance Minimum (ESBVM) deg(m)?oQuelle est sa variance ?19
oQuand existe-t-il ?On sait que si gest de carré intégrable par rapport à P(m0, F )alors on peutdévelopper gdans une base orthogonale de L2(g(m0)). Cette base va être labase des polyn?mes (Qn(., m0))n∈Nintroduite précédemment. On remarqueraque cette base est finie dans le cas de la famille binomiale. Nous étudieronsce cas à part. On a le résultat suivant :Théorème 4.1 Soit Fune F E N sur Rde type Normale, Poisson, gamma,binomiale négative, ou hyperbolique. Soit g:MF→Rune application C∞connue et soit X1,··· , Xqdes observations i.i.d. de loi P(m, F )∈F, avecmparamètre inconnu. Alors1) Si la série |g(n)(m)|/kQnkmconverge alors l’estimateur sans biais de vari-ance minimum de g(m), noté T, existe.2) Dans ce cas sa variance est donnée parV ar(T) = ?????????Xn∈N*(g(n)(m))2qnn!VF(m)na= 0Xn∈N*(g(n)(m))2n!anΓ(qa)Γ(qa+n)VF(m)na & 0où aest le coefficient du terme de degré 2 dans VF(m), et oùΓ(qa+n)Γ(qa)= (qa+n-1)(qa+n-2) ···(qa).3) De plus, ?~m∈MFtel que la série |g(n)( ~m)|/kQnk~mconverge on aT=Xn∈Ng(n)( ~m)kQnk~mQn(?X, ~m).20
Démonstration : développons Tdans la base de L2(P( ~m, F )). On aT(?X) = Xn∈N& T , Qn(., ~m)&Qn(?X, ~m)kQnk~m=Xn∈NZT(x)f(n)u(x, ~m)u(dx)Qn(?X, ~m)kQnk~m=Xn∈N?n?mn(ZT(x)fu(x, ~m)u(dx)) Qn(?X, ~m)kQnk~m=Xn∈Ng(n)( ~m)kQnk~mQn(?X, ~m).A partir de cette écriture, et à l’aide d’un développement de Taylor, on trouvela variance de T.Remarque :1) On peut tronquer l’estimateur en ne prenant que les Kpremiers termesde la série.2) On peut remarquer que la variance de l’estimateur Tatteint la borne deBhattacharrya. Ce résultat est d? à Blight et Rao (1974). Rappelons ici toutestimateur sans biais a une variance qui dépasse les bornes de Bhattacharyya(dont celle de Cramer-Rao), et que ces bornes sont définies de la manièresuivante : Si Testime g(m)sans biais pour un échantillon i.i.d. de taille qalorsV ar(T)≥Xn,r∈N*gn(m)gr(m)RQnQrdP (mq, Fq).Ici il s’agit de la borne de rang infini (la somme porte sur N*×N*) mais onpeut considérer la borne de rang K∈Nen sommant sur net rplus petitsque K. Pour K= 1 on a la borne de Cramer-Rao.Dans le cas binomial, on ne peut faire le développement de Taylor de ladensité en fonction des polyn?mes car il n’y en a qu’un nombre fini. Aussinous allons nous restreindre aux fonctions dont les dérivées s’annulent à partird’un certain rang (les polyn?mes). La démonstration du théorème suivantest proche de celle du théorème 4.1.21
Théorème 4.2 Soit Fune F E N de type binomiale de fonction varianceVF(m) = -1Nm2+m.Soit X1, . . . , Xqi.i.d de loi P(m, F )∈Fet soit ?X= 1/qqXi=1Xq.Si g:MF→Rest une application vérifiant g(n)(m)=0pour n & Nq, alorsl’estimateur SBV M ,T, de g(m)a la variance suivanteV ar(T) = Xn∈N*n≤qN(g(n)(m))2n!Γ(qN -n+ 1)Γ(qN + 1) NnVF(m)n.De plus, ?~m∈MF, on aT=Xn∈Nn≤qNg(n)( ~m)kQnk2~mQn(?X, ~m)où kQnk2m=n!( 1N)nΓ(qN + 1)Γ(qN -n+ 1) (1VF(m)n.L’existence de l’estimateur n’est pas toujours assuré, mais s’il existe alorssa variance atteint la borne de Bhatacharrya, comme le montre le théorèmesuivant de Blight et Rao (1974).Théorème 4.3 Soit Fune F E N sur Ret soit g:MF→Rune fonctionC∞. Soient X1, . . . , Xqi.i.d de loi P(m, F )∈F. Alors, si l’estimateurSBV M ,T, de g(m)a une variance finie, elle vautV ar(T) =?????????????????????????Xn∈N*(g(n)(m))2qnn!VF(m)na= 0Xn∈N*(g(n)(m))2n!anΓ(qa)Γ(qa+n)VF(m)na & 0Xn∈N*n≤qN(g(n)(m))2n!Γ(qN -n+ 1)Γ(qN + 1) NnVF(m)na & 022
où aest le coefficient de degré deux de la fonction variance et avec la con-vention N=-1/a ∈Ndans le cas de la binomiale.Remarque : en reprenant les théorèmes 4.1 et 4.3 on s’aper?oit queX|g(n)|kQnkcv =>Texiste =>X(g(n))2kQnk2cv4.3 Cas biaiséEn reprenant les résultats précédents on obtient le risque d’un estimateurbiaisé de g(m).Théorème 4.4 Soit Fune FEN quadratique sur Rde fonction variancedonnée en VF(m) = am2+bm +cet soit Tun estimateur de g(m)fonctionde la statistique exhaustive. Si la série Xn∈N|DnEm(T)|/kQnkmconverge alorsle risque quadratique de Test fini et vautR(T, g(m)) = {g(m)-E(T)}2+Xn∈N*(DnE(T))2/kQnk2m.CXomme précédemment, on peut également écrire Ten fonction de son mo-ment d’ordre 1, i.e.T=XE(T)(n)kQnk2Qn(?X, m0).4.4 Cas i.i.d. par blocsThéorème 4.5 Soit F1et F2deux familles exponentielles naturelles quadra-tiques sur Rengendrées respectivement par u1et u2. Soient X1,··· , Xli.i.d.de loi P(m1, F1)et Y1,··· , Yki.i.d. de loi P(m2, F2). On suppose que cesl+kvariables sont indépendantes. Soit g:MF1×MF2→Rune applicationindéfiniment dérivable et soit Tun estimateur de g(m1, m2)fonction de la23
statistique exhaustive. Si la série Xn1,n2∈N2{Dn1+n2E(T)}kQn1km1kQn2km2converge alors lersique quadratique de TvérifieR(T, g(m)) = {E(T)-g(m)}2+Xn1,n2∈N2*{Dn1+n2E(T)}2kQn1k2m1kQn2k2m2où les polyn?mes Qnisont définis par rapport aux mesures u1et u2, respec-tivement.Remarques :i) Ce résultat sétend à un nombre K & 2de F E N.ii) Si on peut factoriser gde la manière suivante g(m1, m2) = g1(m1)g2(m2)alors l’estimateur SBV M n’est autre que le produit des deux estima-teurs SBV M de g1et g2.4.5 Exemples(i) Loi exponentielle - Soit X1,· ·· , Xqi.i.d. de densité exponentielle demoyenne m. Cherchons l’estimateur Tde g(m) = 1/m vérifiant E(T) =α/m (α6= 0) qui soit de risque quadratique minimum. D’après leThéorème 1, le risque de Ts’écrit :R(T, g(m)) = {1/m -α/m}2+Xn&0{αn!/mn+1}2m2Γ(q)n!Γ(q+n)=1m2{(α-1)2+α2q-2},pour q & 2. Le minimum est atteint lorsque α= (q-2)/(q-1) et ontrouve alorsT=q-2q?X, R(T, g(m)) = 1(q-1)m2.Un résultat similaire est obtenu pour le cas plus général des lois gamma.24
ii) Fiabilité - Reprenons le cas de la loi exponentielle et considérons la“fiabilité” R(t) = exp(-t/m) = g(m). L’estimateur SBV M est donnéparT= 1 -tPXisi XXi≥t= 0 sinonLa variance est alors très difficile à calculer. Blight et Rao appliquentleur résultat et en prenant les premiers termes de la série (donc lesbornes de rangs 1,2,3, ...) ils obtiennent alors une approximation trèsfine de la borne.(ii) Loi de Poisson - Soit X1,·· · , Xqi.i.d. de loi de Poisson P(m)etconsidérons le problème classique d’estimation de g(m) = exp(-m).On sait que l’estimateur du maximum de vraisemblance de g(m)vérifieE(T) = exp{nm(exp(-1/q)-1)},et le Théorème 1 peut s’appliquer pour retrouver le risque quadratiquede T,R(T, g(m)) = [exp(-m)-exp{qm(exp(-1/q)-1)}]2+ exp{2qm(exp(-1/q)-1)}[exp{q(exp(-1/q)-1)2m} - 1].On voit immédiatement que la variance du meilleur estimateur sansbiais de g(m)estXn&0exp(-2m)mnn!qn= exp(-2m){exp(m/q)-1).iii) Soit F1la famille des lois de Poisson sur Ret soit F2la famille des loisgamma sur Rtelles queVF1(m1) = m1et VF2(m2) = m22.Soient X1,·· · , Xlet Y1,··· , Ykdeux échantillons vérifiant les hypothèsesdu Théorème 2 et, pour illustrer le Théorème précédent, supposonsque l’on veuille estimer le carré de la somme des moyennes. Alorsl’estimateur sans biais de g(m1, m2) = (m1+m2)2admet comme vari-ance :V ar(T) = 4(m1+m2)2(m1+m22)q+4m1m22q2.25
Chapter 5Propriétés asymptotiques del’estimateurDes propriétés asymptotique de l’estimateur UM V U sont données dans unarticle de Lopez-Blazquez (1999). L’auteur se place dans les F E N quadra-tiques et montre le résultat suivantProposition 5.1 Soit Fune FEN quadratique et soient X1,··· , Xqi.i.d.de loi P(m, F )∈F. Si Tqest l’estimateur SBV M de g(m)alors on a laconvergence en loi suivante :qj/2{T-g(m)} →Lg(j)(m)j!Vj/2F(m)Hj(Z),où Hjest le polyn?me d’hermite d’ordre j, où Z~ N(0,1), et où jest leplus petit entier tel que la dérivée g(j)ne s’annule pas (il dépend donc de lavaleur du paramètre m).Pour j= 1 on retrouve la normalité asymptotique classique, vérifiée égale-ment par l’estimateur du maximum de vraissemblance.Nous donnons seulement une idée de la démonstration de cette proposition.Par le théorème central limit on sait que√n(?X-m)/pVF(m)→LN(0,1)L’écriture de Tdans la base des polyn?mes (Qn(., m))n∈Nétant indépendantede la valeur de mon peut écrire :(n)j/2(T(?X)-g(m)) = (n)j/2g(j)(m)Qj(?X, m)/kQjk2+ (n)j/2Rj+1(?X, m)26
où Rj+1 est le reste du développement de Tdans la base des polyn?mes. Ona alors les deux lemmes (techniques) suivantsLemme 5.1 ?m∈MF,?α & (j+ 1)/2,(n)αRj+1(?X, m)→P(m,F )0.Lemme 5.2limn→∞ Cj/2Qj(C-1/2x+m, m) = Hj(x),où C=nVF(m).On en déduit le résultat par le théorème de Slutsky.Remarque :i) Dans le cadre plus général des F E N , Portnoy (1977) montre sous cer-taines conditions que l’estimateur SBV M est asymptotiquement effi-cace (voir également Chen, 2000).ii) Dans le cas quadratique, lorsque les dérivées de gsont bornées, alorsl’estimateur SBVM existe et on montre facilement qu’il est asympto-tiquement efficace gr?ce au Théorème 4.3.27
Chapter 6La classe de Meixner6.1 DéfinitionMeixner en 1934 a caractérisé les lois associées aux polyn?mes orthogoanuxdont la fonction génératrice est exponentielle.Définition 6.1 Une base de polyn?mes (Rn)n∈Nadmet une fonction généra-trice exponentielle s’il existe un ouvert Ode Ret deux fonctions analytiquesa, b :O→Rtels que, ?z∈O:Xn∈Nznn!Rn(x) = exp{a(z)x+b(z)}.(6.1)On dit également que les polyn?mes Rnsont des polyn?mes de Sheffer.De plus, si ces polyn?mes de Sheffer sont orthogonaux par rapport à unemesure u, on dit que uest une mesure de Meixner, ou par extension que lespolyn?mes Rnsont de Meixner. Il s’agit donc de la sous-classe des polyn?mesde Sheffer pour laquelle il y a orthogonalité.6.2 Une caractérisation de MeixnerThéorème 6.1 Soit Fune F E N sur Ret soit P(m, F )∈F. Alors il existeune base de polyn?mes P(m, F )orthogonaux ayant une fonction génératriceexponentielle si et seulement si Fest quadratique.28
Démonstration : si Fest quadratique, les polyn?mes Qnsont orthogonauxet par construction ils ont une fonction génératrice exponentielle. Inverse-ment, (6.1) implique que les polyn?mes Rnet Qnco?ncident à un facteurprès, ce qui entra?ne l’orthogonalité.6.3 Les polyn?mes d’AppellLes polyn?mes d’Appell sont un cas particulier des polyn?mes de Sheffer. Ilssont définis par les équations suivantesddxPn(x) = nPn-1(x), P0= 1.Un exemple trivial est donné par Pn(x) = xn. On a la caractérisation suivantedes polyn?mes d’Appell (Appell, 1880).Proposition 6.1 Des polyn?mes Pnsont d’Appell si et seulement si on aXn∈Nθnn!Qn(x) = exp{θx +b(θ)}.La proposition suivante caractérise l’orthogonalité et est un corollaire desThéorèmes 3.1 et 6.1.Proposition 6.2 Les polyn?mes d’Appell (Pn)n∈Nsont uorthogonaux si etseulement si uest une mesure gaussienne. Dans ce cas on retrouve lespolyn?mes d’Hermite suivants :Pn(x)=(σ2/2)n/2Hn((x-m)/√2σ2).6.4 Extension multidimensionnelleUne base de polyn?mes sur Rdadmet une fonction génératrice exponentiellesi (6.1) est encore vraie avec a(z)et xdans Rdet b(z)réel. Précisons qu’unpolyn?me Qn(x), avec x= (x1,··· , xd)∈Rdet n= (n1,··· , nd)∈Nd, estde degré K∈Nen xs’il peut se mettre sous la formeQn(x) = Xn∈Nd,|n|≤Kαnxn,29
où |n|=n1+···ndet xn=xn11···xndd. On peut généraliser le résultat deMeixner simplement en reprenant le théorème précédent.Théorème 6.2 Soit Fune F E N sur Rdet soit P(m, F )∈F. Alors il existeune base de polyn?mes P(m, F )orthogonaux ayant une fonction génératriceexponentielle si et seulement si Fest quadratique simple.30
Chapter 7Propriétés de martingale et demartingale inverseIl y a des résultats très récents qui relient les martingales et les famillesexponentielles, en particulier ceux initiés par Kuchler et Sorensen (1997),puis par Schoutens (2000), et également ceux de López-Blázquez (2000).7.1 Une propriété de martingaleSoit une mesure de probabilités uqui engendre une famille exponentielleF=F(u)et considérons le processus (Xt)t∈Tsuivant : on pose X0= 0 et onsuppose que le processus est à accroissement indépendant, c’est-à-dire queXt+s-Xtest indépendant de Xk,?k≤t, et on suppose également que ceprocessus est stationnaire, c’est-à-dire que la distribution de Xt+s-Xtnedépend que de s. Supposons que u1=uet notons utla loi de Xt(t∈T). Onprendra alors T=R+si la mesure uest une mesure indéfiniment divisible,et on prendra T=Ndans le cas de la binomiale. On a le résultat suivant :Proposition 7.1 i) Chaque Xtsuit une loi u*tet ainsi kut=tku.ii) Pour chaque θ∈Θ(u), le processus (Yt)t∈Tdéfini parYt= exp(θXt-tku(θ)),est une martingale.31
Démonstration : Le i)se voit en écrivantLut(θ) = E(exp(θXt))=E(exp(θXs)E(exp(θ(Xt-Xs))|Xs))=Lus(θ)Lut-s(θ).On a donckut+s(θ) = kus(θ) + kut(θ).Pour le ii)on écritE(exp(θXt)|Xs) = exp(θXs)E(exp(θ(Xt-Xs))|Xs)= exp(θXs) exp((t-s)ku(θ)).Schoutens (2000) utilise indirectement ce résultat de martingale pour montrerun autre résultat que nous allons énoncer en corollaire. Pour cela, notonsFt=F(ut)et remarquons que si mest la moyenne de ualors la moyenne deutest mt=tm. On note fut(x, m)la densité de P(m, Ft). On afut(x, m) = exp{ψut(m)x-tku(ψut(m))}.Evidemment, cette densité prise en mtvaut 1. Pour chaque valeur de tonpeut construire une base de polyn?mes en dérivant cette densité. Pour celaon poseQn,t(x, m) = tn?/?m(fut(x, m))fut(x, m).Remarque : Qn,t (x, mt) = tn?/?m(fut(x, mt)) et pour t= 1 on retrouve lespolyn?mes Qn(x, m).Corollaire 7.1 Avec les notations précédentes on a la propriété de martin-gale suivante : ?s & t :E(Qn,t(Xt, mt)|Xs) = Qn,s (Xs, ms).32
Démonstration : On a le développement de Taylor suivantXn∈N( ~m-m)nn!Qn,t(x, mt) = Xn∈N( ~m-m)nn!tnf(n)ut(x, mt)=fut(x, t ~m).On va s’intéresser à la série entière suivanteXn∈N( ~m-m)nn!tn?n?mn(E(fut(Xt, m)|Xs)|mt.D’après la proposition on a?n?mn(E(fut(Xt, m)|Xs)|mt=?n?mn(exp{ψut(m)Xs-kus(ψut(m))})|mt.Et on utilise alors la propriété suivanteψut(m) = ψus(sm/t),pour trouver le résultat suivant?n?mn(exp{ψut(m)Xs-kus(ψut(m))})|mt=sntn?n?mnfus(x, ms).Il reste alors a identifier les termes des deux séries entières.7.2 ApplicationsNous proposons ici seulement l’exemple gaussien, les applications de cettepropriété de martingale étant similaires pour les autres F EN quadratiques.Soit F=F(u) = {N(m, 1); m∈R}une famille exponentielle naturellegaussienne. Avec les notations précédentes, si Ft=F(ut), on aFt={N(m, t); m∈R},Les polyn?mes utorthogonaux sont alorsQn,t(x, mt) = (t/√2)nHn(x/√2t),et la propriété de martingale s’écritE(Hn(Xt/√2t)|Xs)=(s/t)n/2Hn(Xs/√2s),ce qui était déjà bien connu pour le mouvement brownien (voir Hida, 1980).33
7.3 Une propriété de martingale inverseLópez-Blázquez a donné la caractérisation suivante des F EN quadratiquesà l’aide d’une propriété de martingale inverse.Théorème 7.1 Soit Fune F E N engendrée par une mesure de probabilité usur R, et soit (Qn,t)n∈N;t∈Tles polyn?mes associés aux mesures ut=u*tquiont été définis précédemment. On a la caractérisation suivante : La familleFest quadratique si et seulement si on a la propriété de martingale inversesuivante : ?n, r ∈N,?s & t ∈T,E(Qn,s(Xs, ms)|Xt) = αn,s,t Qn,t(Xt, mt).Dans ce casαn,s,t =kQn,sk2mskQn,tk2mtPour la démonstration nous aurons besoin des lemmes suivants :Lemme 7.1 ?n, t ∈N*×T,E(Qn,t(Xt, mt)) = 0.Lemme 7.2 ?n & 2et ?t∈TE(Qn,t(Xt, mt)Q1,t(Xt, mt)) = 0.Lemme 7.3 Fest quadratique si et seulement si il existe t & 0tel queE(Q2,t(Xt, mt)Q3,t (Xt, mt)) = 0.Lemme 7.4 Fest quadratique si et seulement si il existe t & 0tel que lespolyn?mes (Qn,t)soient P(mt, Ft)orthogonaux.Démonstration du théorème : pour simplifier, écrivons Qn,t au lieu deQn,t(Xt, mt)lorsqu’il n’y a pas de confusion possible. Supposons Fquadra-tique et utilisons la propriété de martingale des polyn?mes Qn,t ainsi que leurorthogonalité par rapport à ut. On aE(Qn,tQr,s) = E(Qn,sQr,s) = δnr kQnk2=E(Qn,tE(Qr,s|Xt)).34
Notons fr,s,t =E(Qr,s|Xt). On voit que fr,s,t ∈L2(P(mt, Ft)) et donc on peutdévelopper cette fonction dans notre base orthogonale, soit :fr,s,t(Xt) = Xi∈Nαi,r,s,tQi,t(Xt).AinsiE(Qn,tE(Qr,s|Xt)) = E(Qn,t fr,s,t)=Xi∈Nαi,r,s,tE(Qn,tQi,t)=αn,r,s,tE(Q2n,t)=δnrkQnk2d’après ce qui précède. Cette égalité est vrai ?n, r et s&t, et on en déduitquefr,s,t(Xt) = kQr,sk2kQr,tk2Qi,t(Xt).Réciproquement, montrons maintenent que la propriété de martingale inverseentra?ne la propriété “quadratique” de la famille. Pour celà, utilisons à la foisla propriétés de martingale (toujours vraie) et celle de martingale inverse(supposée). Il vient ?s & tE(Q3,sQ2,t) = E(Q3,sQ2,s )=E(Q3,tQ2,s)=α2,s,tE(Q3,tQ2,t)=α3,s,tE(Q3,tQ2,t).On a donc l’alternative suivante1) Soit il existe t & 0tel que E(Q3,tQ2,t ) = 0 et alors le lemme nous montreque Fest quadratique.2) Soit α2,s,t =α3,s,t ceci ?s&tce qui entra?nerait que E(Q3,tQ2,t )nedépend pas de t. Or, on voit facilement queE(Q3,tQ2,t) = ?3?m3{VFt(m)}|mt/(VFt(mt)2)=V(3)F(m)/t4.35
7.4 ApplicationsEncore une fois, nous ne traitons que le cas gaussien, les autres cas étantsimilaires. Considérons la famillle gaussienne F=F(u) = {N(m, 1); m∈R}et gardons les notations précédentes en écrivant Ft=F(ut). On aFt={N(m, t); m∈R},Les polyn?mes utorthogonaux sont alorsQn,t(x, mt) = (t/√2)nHn(x/√2t),et la propriété de martingale inverse s’écritE(Hn((Xs-sm)/√s)|Xt)=(s/t)n/2Hn((Xt-tm)/√t).Elle caractérise le mouvement brownien (voir Wesolowski, 1990).36
Chapter 8Les probabilités de Lancaster8.1 Définitions et propriétésSoient uet νdeux mesures de probabilité sur Ret soit (Pn)n∈N(resp .(Qn)ninN)une famille de polyn?mes u(resp. ν) orthogonaux. Lancaster (1975) a étudiéle problème suivant : Existe-t-il une probabilité σsur R2dont les margessoient uet νet telle que, si (X, Y )~σ, alors on ait la bi-orthogonalitésuivante :E(Pl(X)Qn(Y)) = 0,si l6=n.Proposition 8.1 Soit (X, Y )un couple de v.a. de loi σsur R2et de margesuet νrespectivement, dans des familles exponentielles naturelles. Soit (Pn)(resp . (Qn)) une famille de polyn?mes u(resp. ν) orthogonaux. On a leséquivalences suivantes :i) E(Qn(Y)|X) = Pn(X)ii) E(Pn(X)|Y) = Qn(Y)iii) E(Pn(X)Qk(Y)) = ρnδnkDans ces conditions |ρn| ≤ 1,?n∈N.Démonstration : En conditionnant par rapport à Xdans i) on obtientiii). Inversement, si iii) est vérifié, on développe i) dans la base orthogonale(Pl(X)) et en prenant le produit scalaire avec Pn(X)on obtient le résultat.37
Définition 8.1 Sous les conditions de la proposition précédente, on dit que σest une probabilité de Lancaster. La suite (ρn)est appelée suite de Lancaster.Remarque : On peut généraliser cette définition en considérant des bases deL2(u)et de L2(ν)autres que les polyn?mes.Nous allons voir comment une mesure de Lancaster est entièrement déter-minée par (ρn, Pn, Qn).Théorème 8.1 Avec les notations précédentes, et en notantf(x, y) = Xn∈NdρnPn(x)Qn(y).Si ρn∈l2(Nd)alors fest positive et on aσ(dx, dy) = f(x, y)u(dx)ν(dy).(8.1)La démonstration est immédiate en intégrant le terme Pn(x)Qn(y)par rap-port à uet à ν, et en utilisant la continuité du produit scalaire dans L2(u?ν).8.2 Construction d’une probabilité sur R2à par-tir de ces margesLe théorème précédent nous donne une méthode pour reconstruire une prob-abilité de Lancaster sur R2à partir de ces marges sur Ret de sa suite deLancaster. Lancaster (1975) a réalisé une telle étude lorsque les marges sontdans la famille exponentielle quadratique.Théorème 8.2 Soit ude moyenne met soit ut=u*tpour t∈T(= RouN). Soit Xt~utun processus stationnaire à accroissements indépendants.Si F=F(u)est quadratique, alors ?s, t ∈T, la loi σs,t du couple (Xs, Xt)estde lancaster pour les polyn?mes Qn,t(., mt)et Qn,s(., ms). De plus, la suitede Lancaster est donnée par(i) Si Fest de Poisson ou gaussienne alorsρn=?st?n/2.38
(ii) Si Fest négative binomiale, gamma, ou hyperbolique alorsρn=uΓ(s/a +n)Γ(t/a)Γ(t/a +n)Γ(s/a)?1/2(iii) Si Fest multinomiale alorsρn=uΓ(-s/a + 1)Γ(-t/a -n+ 1)Γ(-t/a + 1)Γ(-s/a -n+ 1)?1/2.Démonstration : elle vient de la propriété de martingale des variablesQn,t(Xt, mt).8.3 ExempleNous n’étudions ici que le cas gaussien, les autres cas étant semblables. SoitF=F(u)une famille de lois normales de variance fixée égale à 1. On a lespolyn?mes P(mt, Ft)et P(ms, Fs)orthonormaux suivants :Pn(x)=(tn/n!)1/2(1/√2)nHn(√2x-mt),Qn(y)=(sn/n!)1/2(1/√2)nHn(√2y-ms),où Hnest le polyn?me d’Hermite de degré n. La suite de Lancaster estdonnée parρn= (s/t)n/2.Puisque ρnest dans l2(Nd)on peut utiliser le théorème précédentσs,t(dx, dy) = Xn∈N{(s/t)n/2/n!}(1/2)2nHn(√2x-mt)Hn(√2y-ms)ut(dx)us(dy),où us~ N(ms, s).39
Chapter 9Quelques extensions bayésiennesDans le cadre de l’estimation bayésienne, de nombreux auteurs ont étudiédes inégalités de type Cramér-Rao et ont obtenu des bornes pour le risque deBayes (voir Schützengberger, 1957, pour les premiers travaux sur les bornesde Cramér-Rao a priori et a posteriori). Certains auteurs déterminent deslois a priori pour lesquels la borne est atteinte (voir Brown et Gajek, 1990,et Sato et Akahira, 1996) Nous allons nous restreindre ici aux familles expo-nentielles naturelles quadratiques, et nous allons étudier le risque bayésien,en particulier pour les lois conjuguées.9.1 les lois conjuguéesLes familles de lois conjuguées associées à la paramétrisation MFd’une FENsont déterminées dans Diaconis et Ylvisaker (1979). Morris (1983) a entière-ment décrit ces familles dans le cas quadratique. Nous suivons ces résultatsen considérant les densités a priori et a posteriori suivantes par rapport à lamesure de Lebesgue sur R:π(m) = K1exp{αψu(m)-βku(ψu(m))}/VF(m),(9.1)π(m|x) = K2(x) exp{(α+x)ψu(m)-(β+ 1)ku(ψu(m))}/VF(m),(9.2)avec β & 0,α/β =E(m), et K1, K2sont indépendantes de m. Le tableau(9.1) donne la loi de mdans la cas quadratique.40
9.2 Les risques bayésiensPour une fonction analytique g:MF→R, nous définissons la fonction deco?t quadratique généraliséel(U(?X), m) = {U(?X)-g(m)}2,(9.3)où Uest un estimateur dépendant des observations (résumées ici par la sta-tistique exhaustive ?X). Le risque associé à Uest notéR(U, π) = E{l(U(?X), m)},et l’estimateur de Bayes qui minimise ce risque est notéU*(?X) = E(g(m)|?X).Si X1,··· , Xqsont des observations i.i.d. de loi P(m, F )nous avons obtenul’estimateur SBVM, indépendamment du choix de m:T(?X) = Xn∈Ng(n)(m)Qn(?X, m)/E{Q2n(?X, m)|m}.Cet estimateur est entièrement déterminé par les normes suivante :E{Q2n(?X, m)|m}=???????????????????????n!qn,si FPoisson ou gaussienne.n!anΓ(qa+n)Γ(qa),si Fn?egative multinomial gamma gaussienne ou hyperbolique.n!|a|nΓ(-qa+ 1)Γ(-qa-n+ 1)In≤-1a,si Fmultinomiale.où aest le terme de second degré de la variance VF.Remarque :1) On aE(T) = E(U*) = g(m).2) Nous remarquons que les normes des polyn?mes ne dépendent pas de m.41
Proposition 9.1 Soit Fune F E N quadratique simple sur Ret soient X1,···, Xqdes variables i.i.d. de densité f(x|m). Alors, dès que le risque associé àl’estimateur SBVM de g(m)est fini, on aR(T, π) = Xn∈N*E{g(n)(m)2}/E{Q2n(?X, m)}(9.4)≥Xn∈N*E2{g(n)(m)}/E{Q2n(?X, m)}.(9.5)Nous généralisons ce résultat à tout estimateur U(?X).Proposition 9.2 Sous les hypothèses précédentes, dès que le risque associéà un estimateur U(?X)de g(m)est fini, on aR(U, π) = E{(h(m)-g(m))2}+Xn∈N*E{h(n)(m)2}/E{Q2n(?X, m)},(9.6)≥Xn∈N*E{h(n)(m)2}/E{Q2n(?X, m)},(9.7)≥Xn∈N*E2{h(n)(m)}/E{Q2n(?X, m)},(9.8)où h(m) = E(U(?X)|m).Remarque : L’égalité a lieu dans (9.7) si et seulement si Uest l’estimateurSBVM, car on alors E(U(X)|m) = g(m). Dans ce cas, si U=U*, on apresque s?rement (voir par exemple Lehman) U*(?X) = g(m).Le lemme suivant justifie d’un point de vue pratique l’intérêt porté à U*(?X)et aux lois conjuguées.Lemme 9.1 Soit πla loi conjuguée dont la densité par rapport à la mesurede Lebesgue est donnée par :π(m) = K1exp{ψu(m)α-βku(ψu(m))},avec β & 0et α/β =E(m), et soit h(m) = E(U*(?X)|m). S’il existe K∈Ntel que, pour tout |n|& K (n∈Nd), g(n)= 0 alors on a h(n)(m) = 0 dès que|n|& K.42
9.3 ExemplesExemple 1. Soit g(m) = m. Des égalités (9.4) et (9.6) il vient alorsR(T, π) = E(VF(m)-1)/q (9.9)R(U*, π)≥E{(h(m)-m)2}+E{h0(m)2/VF(m)}/q, (9.10)l’égalité ayant lieu dans (9.10) si πest la loi conjuguée. En utilisant l’inégalitéde Schwarz, on retrouve les bornes suivantes obtenues par Gart (1959) :R(T, π)≥1/{qE(VF(m))}(9.11)R(U*, π)≥E2(h(m)-m) + E2(h0(m))/{qE(VF(m))}.(9.12)Si la loi de X|mest N(m, 1) on voit que le loi conjuguée de mest N(α/β, 1/β).Dans ce cas on trouveR(T, π)=1/q,R(U*, π)=1/(β+q).Maintenant, si la loi de X|mest de Poisson, alors la loi conjuguée est un loigamma γ(α, β)et on obtient pour α & 0R(T, π) = E(m)/q=α/(βq),R(U*, π) = α/(β+q)2+ (q/(β+q))2E(m)=α/(β(β+q)).La Table (9.2) donne quelques valeurs de ces bornes. On voit que pour desgrandes valeurs de la variance de m,Uand T*sont proches.Example 2. Considérons la fonction g(m) = m2. On obtient alorsR(T, π)=4E(m2/VF(m))/q + 2E(VF(m)-2)/q(q+|a|),R(U*, π)≥E{(h(m)-g(m))2}+E(h0(m)2/VF(m))/q +E{(h00(m)/VF(m))2}/2q(q+|a|),cette dernière borne étant atteinte lorsque πest la loi conjuguée.Si la loi de X|mest N(m, 1) et si la loi πest conjuguée, alors on a m~N(α/β, 1/β). On a égalementX~ N(α/β, (β+ 1)/β) ; m|X~ N((X+α)/(β+ 1),1/(β+ 1)).43
En majorant E{(h(m)-g(m))2}par E2{h(m)-g(m)}dans (9.6) on obtientR(T, π)=4/(βq)(1 + α2/β + 1/(2q)),R(U*, π)≥4/{(β+ 1)4q}{α2(1 + 1/β)2+ 1/β + 1/(2q)}.La Table (9.3) présente quelques valeurs pour ces bornes et donne ainsi unencadrement du risque bayésien.9.4 Orthogonalité a priori et a posterioriSoit g:MF→Rune fonction connue du paramètre de la famille F. Lavariance a posteriori de g(m), étudiée notament par Ghosh (1993) dans uncadre plus général, est définie parV ar(g(m)|x) = E(g2(m)|x)-E(g(m)|x)2.Soit X1,··· , Xqdes observations indépendantes et de même loi P(m, F ).L’information est alors résumée par la statistique exhaustive ?X=PXi/qqui suit une loi de moyenne met de variance VFq(m) = VF(m)/q. On a alorsla loi a posteriori suivanteg(m|?X) = K2(?X) exp{(α+q?X)ψuq(m)-(β+q)kuq(ψuq(m))}/VFq(m),où uqest l’image par x→x/q de la mesure convolée u*q. On considère alorsdes polyn?mes en m, associés à la famille Fqen écrivant :Rn(m, ?X) = dndmn{g(m|?X)VFq(m)n}/g(m|?X).On définit l’ensemble suivantH={n∈N; limm→δMF(m2n+1π(m|x)) = 0},Lemme 9.2 Pour les familles gaussiennes, de Poisson et binomiales, l’ensembleHest N. Dans les autres cas quadratiques on aH={n∈N; ; 2n & q(1 + (β+q))/a}.Démonstration : c’est un simple calcul de limite pour chaqe famillequadratique.44
Proposition 9.3 Soit Fune FEN quadratique sur R. Alors la séquence(Rn(m, x))n∈H forme une famille de polyn?mes en m,π(m|x)-orthogonaux,où chaque Rnest de degré n.Démonstration : On montre par récurrence que Rnest un polyn?mede degré net en appliquant la propriété VF(m)ψ0(m) = 1 on monte que,?l≤2n, on adl/dml(π(m|x)VF(m) = P2n-l(m)π(m|x),(9.13)où P2n-lest un polyn?me en mde degré ≤2n-l.Lorsque n∈ H, en utilisant (9.13) avec des intégrations par parties succes-sives, on montre pour 0≤k≤n,ZmkRn(m, x)π(m|x)dm =-Zkmk-1dn-1dmn-1(π(m|x)VF(m)n)dm= (-1)nZdndmn(mk)(π(m|x)VF(m)n)dm.(9.14)Remarques :(i) Pour les familles gaussiennes, de Poisson et binomiales, les polyn?mes(Qn)n∈Nforment une base orthogonale de L2(g(m|x)).(ii) D’après (9.14), en notant knle coefficient de mndans Qn, on akRnk2x= (-1)nknn!ZVF(m)ng(m|x)dm, (9.15)où kRnk2x=E(R2n(m, x)|x) = RR2n(m, x)π(m|x)dm. Le calcul de knpeuts’obtenir en considérant la limite (en m) du rapport R0n+1/Rnet le calcul deE(VnF(m)|x)se fait séparément pour chaque famille quadratique. Dans ce cas,les normes kRnk2?Xs’obtiennent par récurrence (voir exemples dans la Table(9.4)). On remarque que pour les familles gaussiennes et gamma, la normekRnk2X=E(Rn(m, X)2|X)ne dépend pas de X.Théorème 9.1 Soit X1,· ·· , Xqdes variables i.i.d. dont la distribution ap-partient à une FEN quadratique sur R. Soit g:MF→Rtelle que g(n)existepour n∈ H et telle que?k≤n, limm→δMF{g(k)(m)m(n-k)π(m|x)}= 0.(9.16)45
Si les densité a priori et a posteriori sont conjuguées alorsV ar(g(m)|?X)≥Xn∈H\{0}E(g(n)(m)VFq(m)n|?X)2/kRnk2?X.(9.17)Démonstration : Considérons la quantité positive :G=E{(g(m)-E(g(m)|x)-Xn∈HKnRn(m, x))2|x},où les Knsont des réels arbitraires. En utilisant l’orthogonalité des polyn?mes(Rn)n∈H on obtientG=V ar(g(m)|x)+2K0E(g(m)|x)2-2Xn∈HKnE(g(m)Rn(m, x)|x) + Xn∈HK2nkRnk2x,L’hypothèse (9.16) nous permet d’intégrer par parties et en prenantKn= (-1)nE(g(n)(m)VF(m)n|x)/kRnkxet K0= 0,on obtient le résultat.Remarques :(i) La condition (9.16) n’est pas très restrictive. Dans le cas des famillesgausiennes, de Poisson, ou binomiales, toutes les fonctions analytiquesconviennent pour le choix de h. Dans les autres cas, les polyn?mes dedegré ≤q(1 + (β+q))/2aconviennent.(ii) En intégrant la variance a posteriori on obtient des bornes du risquebayésien :E{V ar(g(m)|?X)} ≥ Xn∈H\{0}E{(g(n)(m)VFq(m)n)2/kRnk2?X}.Pous les familles gaussienne et gamma, la norme kRnk2Xne dépendantpas de X, on aE{V ar(g(m)|?X)} ≥ Xn∈H\{0}E{(g(n)(m)VFq(m)n)2}/kRnk246
(iii) Supposons que H=N(cas gaussien, Poisson, ou binomial), ou bienque la dérivée n-ième de hs’annule pour nen dehors de H(lorsque hest un polyn?me). Alors si g∈L2(π(m|?X)on obtient une égalité dans(9.17). En effet, en développant hdans la base de polyn?mes (Rn)n∈Non ag(m) = Xn∈HE(g(m)Rn(m, ?X)|?X)Rn(m, ?X)/kRnk2?X=Xn∈HE(g(n)(m)VFq(m)n|?X)Rn(m, ?X)/kRnk2?X,et d’après l’orthogonalité des polyn?mes on obtient explicitement lavariance a posteriori de g(m):V ar(g(m)|?X) = Xn∈H\{0}E(g(n)(m)VnFq(m)|?X)2/kRnk2?X.Exemples et extension multidimensionnelle(i) Soit X1,· ·· , Xqi.i.d. de loi normale N(m, σ2)avec σ & 0fixé. Sup-posons que la loi a priori soit conjuguée et posons g(m) = m. Alors onretrouve le résultat classique :V ar(m|?X) = σ2q(β+q).Si g(m) = m2on aV ar(m2|?X) = σ2q(β+q)(2α+σ2q(β+q)).(ii) Soit X1,· ·· , Xqi.i.d. de loi de Poisson P(m). La loi conjuguée estune gamma γ(α, β)et en prenant g(m) = mon retrouve le résultatclassiqueV ar(m|?X) = α+q?Xq(β+q)2.47
En prenant g(m) = log(m)il vientV ar(log(m)|?X) = Xn∈N\{0}(n-1)!Γ(q(α+q?X))nΓ(q(α+q?X) + n)=ψ1(q(α+q?X)),où ψ1(x) = (?/?x) log(Γ(x)) (fonction polygamma).(iii) Sur Rd, les FEN quadratiques simples sont caractérisée par leur fonctionvariance de la forme :VF(m) = amtm+B(m) + C,où m= (m1,··· , md),Best une application linéaire de Rddans Rd,et Cest une matrice symétrique positive. Ces familles sont décritesdans [2] et leurs familles de lois conjuguées sont déterminées dans [5].Le Lemme 2 est alors facilement généralisable, mais les polyn?mes Rndeviennent difficilement calculables. Les premiers termes sontRei(m, x) =dXk=1??mk{π(m|x)vik (m)},Rei+ej(m, x) =dXk,l=1?2?mk?ml{π(m|x)vik (m)vjl (m)},···où vij(m)est la (i, j)ème entrée de la matrice VF(m)et e1,·· · , edreprésente la base canonique de Rd.Dans le cas gaussien ddimensionnel, lorsque VF(m) = diag(σ21,··· , σ2d),on obtientRn(m, x) = σ2n?n?mnπ(m|x),où σ2n=σ2n11···σ2ndd. La norme des polyn?mes est alorskRnk?X=σ2qnn1!···nd!(β+q)n1+···+nd,48
et le Théorème 1 s’écrit alorsV ar(g(m)|?X) = Xn∈Nd\{0}σ2nE(?n?mng(m)|?X)2qn(n1!···nd!(β+q)n1+···+nd).49
Table 9.1: Familles conjuguées des FEN quadratiquesFamille d’origine Famille conjuguéeNormale NormalePoisson GammaBinomiale BêtaBinomiale négative Fisher ou ratio de gammaGamma Gamma inverseHyperbolique StudentTable 9.2: Values of the bounds for the Poisson case in example 1q\β0.1 1 10 10010 R= 1 R= 0.1R= 0.01 R= 0.001R*= 0.99 R*= 0.09 R*= 0.005 R*= 0.00009100 R= 0.1R= 0.01 R= 0.001 R= 0.0001R*= 0.1R*= 0.01 R*= 0.0009 R*= 0.00005R=R(T, π);R*=R(U*, π);α= 1.Table 9.3: Values of the bounds for the Gaussian case in example 2α= 1; β= 0.1α= 1; β= 1 α= 10; β= 0.1α= 10; β= 1q= 10 R= 44.2R= 0.82 R= 4004.2R= 40.42R*≥35.8R*≥0.126 R*≥3308.2R*≥10.026q= 100 R= 4.402 R= 0.0802 R= 400.42 R= 4.0402R*≥3.58 R*≥0.0125 R*≥330.85 R*≥1.0025R=R(T, π); R*=R(U*, π).50
Table 9.4: Normes des polyn?mes Rnpour une taille d’échantillon qFamille VF(m)kRnk2?XNormale σ2(σ2/q)nn!(β+q)nPoisson mn!q2nΓ(q(α+q?X) + n)/Γ(q(α+q?X))Gamma am2(a/q)nn!Γ(-n+2+q(β+q)/a)/Γ(1 + q(β+q)/a)51
Bibliography[1] Appell, M.P. (1880). Sur une classe de polyn?mes. Ann. Sci. Ecole Norm.Sup. 9, 119-144.[2] Barndorff-Nielsen, O.E. (1978). Information and Exponential Families.Wiley, New York.[3] Blight, B.J.N. Rao, P.V. (1974). The convergence of Bhattacharyyabounds. Biometrika,61, 137-142.[4] Brown, D. Fundamental of statistical exponential families. Lecture Notes.Monograph series. 1986.[5] Brown, L.D. et Gajek, L. (1990). Information inequalities for the Bayesrisk. Ann. Statist., 18, p. .[6] Casalis, M. (1996). The 2d+ 4 simple quadratic natural exponentialfamilies on IRd.Ann. Statist.,24, .[7] Chen, H. (2000). UMVUE of polynomials of the inverse average for severalnatural exponential families on the positive line. Syst. Sc. Math. Sci. 4,337-343[8] Diaconis, P. and Ylvisaker, D. (1979). Conjugate priors for exponentialfamilies. Ann. Statist. 7, 269-281.[9] Eagleson, G.K. (1964). Poynomial expansion of bivariate distributions.Ann. Math. Statist. 35, .[10] Feinsilver, P. (1986). Some classes of orthogonal polynomials associatedwith martingales. Proc. A.M.S.,98, 298-302.52
[11] Gart, J.J. (1959). An extension of the Cramér-Rao inequality. Ann.Math. Stat., 30, p. 367-380.[12] Ghosh, M. (1993). Cramér-Rao bounds for posterior variances. Stat.Prob. Letters, 17, p. 173-178.[13] Gutiérrez-Pe?a, E. et Smith, A.F.M. (1995). Conjugate parametriza-tions for natural exponential families. J.A.S.A., 90, p. [14] Hida, T. Brownian Motion. (Springer, Verlag. New York), 1980.[15] B. Jorgensen, The Theory of Dispersion Models, (Monographs on Sta-tistics and Applied probability, Chapman &Hall), 1997.[16] R. Koekoek, and R.F. Swarttouw, The Askey-scheme of hypergeomet-ric orthogonal polynomials and its q-analogue. Report no. 94-05. (1994)Delft University of Technology, Faculty of Technical Mathematics andInformatics.[17] A.E. Koudou, Probabilités de Lancaster, Expo. Math. 14 (5.[18] Lancaster, H.O. (1975). Joint probability distributions in the meixnerclasses. J. Roy. Statist. Soc.,37, 434-443.[19] Lehmann, E. L. Theory of Point Estimation, Wiley, New York.[20] G. Letac, Le problème de la classification des familles exponentiellesnaturelles de Rdayant une fonction variance quadratique, in: Proba-bility Measure on Groups IX, Lecture Notes in Mathematics, Vol. 1306(Springer, Berlin, 5.[21] G. Letac, Lectures on natural exponential families and their variancefunctions (Instituto de matemática pura e aplicada: Monografias dematemática, Vol. 50, Río, 1992).[22] Letac, G. (1989). Le problème de la classification des familles exponen-tielles naturelles de Rdayant une fonction variance quadratique. Prob-ability Measure on Groups IX.Lecture Notes in Math. 1306, 194-215.Springer, Berlin.53
[23] Letac, G. (1992). Lectures on natural exponential families and their vari-ance functions. Instituto de Matemática pura e aplicada: monografias dematemática, 50, Rìo.[24] López-Blázquez, F. (1999). Asymptotic properties of unbiased estima-tors in natural exponential families. Sankhya 61, 292-297.[25] López-Blázquez, F. (2000). A characterization of natural exponentialfamilies with quadratic variance functions by a reverse martingale prop-erty. Stat. Prob. Letters[26] López-Blázquez, F. (2001). Reverse martingale property of a Sheffersystem associated to a subclass of Levy processes. Preprint.[27] Morris, C.N. (1982). Natural exponential families with quadratic vari-ance functions. Ann. Statist.,10, 65-82.[28] Morris, C.N. (1983). Natural exponential families with quadratic vari-ance functions: statistical theory, Ann. Statist.,11, 512-529.[29] Park, E. Bar-Lev, S. Enis, P. (1988). Minimum variance unbiased esti-mation in natural exponential families. Commun. Statist. 17, .[30] Portnoy, S. (1977). Asymptotic efficiency of minimum variance unbiasedestimator. Ann. Statisti. 5, 522-529.[31] Sato, M. and Akahira, M. (1996). An information inequality for theBayes risk. Ann. Statist., 24, p. [32] Seshadri, V. (1993). The inverse Gaussian distribution. Oxford.[33] W. Schoutens and J.L. Teugels, Lévy processes, polynomials and mar-tingales, Stochastic Models, 14 (9.[34] W. Schoutens, it Stochastic processes and orthogonal polynomials, Lec-ture Notes in Statistics (.[35] Schützenberger, M.P. (1957). A generalization of the Fréchet-Cramérinequality to the case of Bayes estimation. Bull. Amer. Math. Soc., 63,p. 142.54
[36] Walter, G.G. and Hamedani, G.G. (1991). Bayes empirical Bayes esti-mation for natural exponential families with quadratic variance functions.Ann. Statist., 3, .[37] Wesolowski, J. (1990). A martingale characterization of the Poissonprocess. Bull. Polish. Acad. Sci. Math. 38, 49-53.[38] Ycart, B. (1992). Integer valued Markov processes and exponential fam-ilies. Stat. Prob. Letters. 14, 71-78.55
CitationsCitations0ReferencesReferences43ArticleJan 1880ArticleAug 1996ArticleDec 1984J AM STAT ASSOCShow moreProject[...]extending models for non stationary data adapted with real life data Project[...]Private Profilemodeling dependence
beyond mixing properties I wish to clarify the attractivity of various weak dependence concepts according to the situation ArticleDecember 1976The author shows how it is possible to interpolate a given function at a finite number of points in the plane by minimizing a quadratic functional (as in the case of spline functions) which is an approximation of the bending energy of a thin plate. Convergence is obtained in the space H**2 ( OMEGA ). ArticleDecember 1994 · Journal of Algebra · Impact Factor: 0.60We give a new tableau definition for supersymmetric skew Schur functions, and obtain a number of properties of these functions as easy corollaries. ArticleJanuary 2004We describe a joint work with C.E. Kenig and G. Uhlmann [9] where we improve an earlier result by Bukhgeim and Uhlmann [1], by showing that in dimension $n\ge 3$, the knowledge of the Cauchy data for the Schr?dinger equation measured on possibly very small subsets of the boundary determines uniquely the potential. We follow the general strategy of [1] but use a richer set of solutions to the... [Show full abstract]ArticleJanuary 2002Data provided are for informational purposes only. Although carefully collected, accuracy cannot be guaranteed. Publisher conditions are provided by RoMEO. Differing provisions from the publisher's actual policy or licence agreement may be applicable.This publication is from a journal that may support self archiving.

我要回帖

更多关于 R N D S 的文章

 

随机推荐