الفلك

أسئلة حول الالتفاف / التفكيك مع PSF

أسئلة حول الالتفاف / التفكيك مع PSF


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

وظيفة انتشار النقطة (PSF) لها العديد من الاستخدامات المختلفة. ضع في اعتبارك على سبيل المثال الاقتباس التالي:

لاستخراج أقصى قدر من المعلومات من الملاحظة ، حتى أصغر تفاصيل PSF مهمة. تتضمن بعض الأمثلة: فك ارتباط PSF من صورة تمت ملاحظتها لإزالة التشويش الناتج عن الانعراج وكشف البنية الدقيقة ؛ تحويل صورة نموذجية بواسطة PSF لمقارنتها بالصورة المرصودة ؛

سؤالي حول هذا هو ما يلي: إذا عرفنا PSF لنظام ما ، واستخدمنا هذا لتفكيك الصورة الأولية (الغرض 1 من الاقتباس أعلاه) ، فلماذا؟ تلتف نموذج مع PSF لمقارنته بصورة (الغرض 2 من الاقتباس)؟ هذا هو ، لا يمكننا مقارنة النموذج الأصلي غير المتطور مع ديصورة ملتوية؟ من حيث تعظيم المعلومات التي تبدو وكأنها السبيل للذهاب.


الالتفاف ليس عملية انعكاس فريدة في وجود ضوضاء عشوائية في صورتك. يمكن أن يؤدي تفكيك صورة مشوشة إلى نتائج مضللة ، حتى لو كانت لديك معرفة كاملة بـ PSF.

بشكل عام ، عندما تقوم بتلائم النماذج مع البيانات ، فمن الأفضل بكثير مقارنة النماذج والبيانات في مساحة المراقبة للبيانات ، حيث تكون أوجه عدم اليقين مفهومة جيدًا بشكل معقول.


هذان الاستخدامان لـ PSFs ينطبقان على مواقف مختلفة. في بعض الأحيان تعرف PSF الخاص بك جيدًا بما يكفي لتفكيك صورتك والحصول على شيء معقول منها ، ولكن في معظم الأوقات لديك الكثير من الافتراضات في هذه العملية ولن تحصل على شيء مثالي ، لذلك قد ترغب في الذهاب وبطريقة أخرى ، قم بتحويل نموذجك إلى أفضل PSF لديك للاقتراب من ملاحظاتك. يعتمد الأمر أيضًا على هويتك - غالبًا ما لا يتحدث علماء الفلك القائمون على الملاحظة الذين يجمعون البيانات من التلسكوبات وعلماء الفلك النظري الذين يبنون النماذج بقدر ما ينبغي ، لذلك قد لا تتمكن من الوصول إلى جميع المعلومات التي تحتاجها للقيام بإحدى هاتين العمليتين ، لذا فأنت تعمل بما لديك وتفعل الشيء الآخر.


أ & الاقتباس ومثل التخفيف من الانعراج بفك الارتباط

أجرى بارت فان دير وولف مؤخرًا ما يمكن أن نطلق عليه & quotsimulation & quot للتخفيف من آثار الانعراج من خلال استخدام deconvolution. لقد نشر تقريرًا ممتازًا عن إجرائه ، مع روابط إلى صور الاختبار ، في Luminous Landscape في يوليو. (في الواقع ، لا يتم محاكاة الانعراج إلا & quot؛ - تخفيفه هو الشيء الحقيقي.)

أعتقد أن النتائج مهمة جدًا لدرجة أنني أردت الإبلاغ عنها هنا. إن بارت مشغول جدًا في الاهتمام بمصالحنا في أوروبا ، لذا تطوعت لتقديم ملخص هنا. آمل أن يكون بارت قادرًا على التكديس وإصلاح أي شيء أخطأت فيه.

بدأ بارت بلقطة لوجه مبنى به العديد من المساحات والأسطح الممتعة لاختبار التصوير الفوتوغرافي.

بعد ذلك ، من خلال العمل في برنامج يستخدم للتصوير الفلكي ، قام بمحاكاة تأثيرات الانعراج ، كما كان من الممكن أن يكون ناتجًا عن فتحة f / 32 ، على الصورة. لقد فعل ذلك من خلال ربط الصورة الأصلية بـ & quotPSF kernel & quot - وصف رقمي لشكل التمويه الحيود (قرص هوائي). حسنًا ، في الواقع ، جزء من واحد (قطعة مربعة منه 9 × 9 بكسل - كانت خريطة كبيرة كما يمكن للبرنامج التعامل معها).

ثم أخذ هذه الصورة & quot ؛ & quot ؛

بالنسبة للنتيجة ، يمكنك الحكم على ذلك من خلال عرض الصورة في مراحلها الثلاث:

في المنتصف (1) ، لدينا جزء صغير من الصورة الأصلية (بالدقة الأصلية - لم يتم اختزال أي شيء هنا). إلى يساره (2) ، نرى نفس القطعة من الصورة التي أصابتها محاكاة الانعراج f / 32. إلى اليمين (3) ، نرى النتيجة النهائية للجهود المبذولة للتخفيف من تأثير الانعراج.

النتيجة النهائية تبدو جيدة ومثيرة ومثلها بالنسبة لي - ثم بعضها.

أنا متحمس جدًا بشأن الآثار المترتبة على هذا & quotsimulation & quot.

إذا كنت ترغب في قراءة تقرير بارت الأصلي في منتدى LL ، فإليك الرابط (التقرير موجود في الرد رقم 66 - لا أعرف كيفية الربط بذلك مباشرة):

يمكن الوصول إلى الصور الثلاث ، في شكل 16 بت وبدقة أصلية ، من هناك ، جنبًا إلى جنب مع جدول يوضح مصفوفة 9x9 تصف حيود PSF.

نحن مدينون لبارت بالكثير من الامتنان لتقديم هذا العرض الواضح والقوي لإمكانيات ما يمكن أن يكون تقنية ذات قيمة كبيرة لتحسين الصورة.

آشر كيلمان

مالك OPF / رئيس التحرير

شكرًا لك على متابعة أعمال بارت عن كثب. بارت ليس متفاخرًا ولكن هذا العمل مفيد حقًا. أنا شخصياً أعتقد أن العدسات يجب أن تكون أقل كمالا لأن الفيزياء والهندسة والتقريب والتخمينات الرياضية الذكية تأخذ العدسة إلى المستوى التالي. لدي شعور بأننا نرى فقط حافة جزء كبير جديد من البصريات التي ستصبح أكثر أهمية مع دخول البصريات البلاستيكية ذات الإنتاج الضخم إلى ملايين الكاميرات الجديدة كل عام. أرى أن المعايرة التلقائية لخط الإنتاج لكل كاميرا هاتف فردية أمر روتيني.

نحن في & quotmiddle & quot من الكاميرات الاحترافية ذات التكلفة العالية من غير المحتمل أن نحصل على تطورات في أحدث الرياضيات قبل الجدة باستخدام الكاميرا الخاصة بها. لديها قوة الإنتاج الضخم ومعدل دوران مرتفع للنماذج مع القدرة على استيعاب التطورات الجديدة في معالجة الصور من الجهات الفاعلة الرئيسية مثل Texas Instruments. إنهم يزودون الرقائق لـ HP و Kodak والكاميرات الأخرى التي ، على سبيل المثال ، تنقذ الفستان الأبيض لحفيدها من أشعة الشمس القاسية بينما يتم إنقاذ الجد ، القريب في ظل بلوط كبير من الظلام.

قد يبدو هذا غريبًا ، ولكن من الطبيعي أن نتوقع هذه التطورات في أعلى البصريات النهائية للصواريخ والفضاء وعلم الفلك ، ولكن في نهاية التسويق الشامل للأجهزة الاستهلاكية ، يتم تحويل تطورات مماثلة إلى سلعة.

ومع ذلك ، كما أوضح بارت ، هناك إمكانات هائلة لأدوات جديدة في التصوير الفوتوغرافي الاحترافي لتزويدنا بحلول لم نتخيل أبدًا أنها ممكنة. مثال على ذلك: لقد شعرت دائمًا أنه نظرًا لأن الانعراج كان قائمًا على الفيزياء ، فإن تدهور التركيز سيكون قابلاً للحلول الرياضية. شكرًا بارت للمساعدة في إظهار هذه الإمكانات لنا!

دوغ كير

عضو معروف

شكرًا لك على متابعة أعمال بارت عن كثب. بارت ليس متفاخرًا ولكن هذا العمل مفيد حقًا. أنا شخصياً أعتقد أن العدسات يجب أن تكون أقل كمالا لأن الفيزياء والهندسة والتقريب والتخمينات الرياضية الذكية تأخذ العدسة إلى المستوى التالي. لدي شعور بأننا نرى فقط حافة جزء كبير جديد من البصريات التي ستصبح أكثر أهمية مع دخول البصريات البلاستيكية ذات الإنتاج الضخم إلى ملايين الكاميرات الجديدة كل عام. أرى أن المعايرة التلقائية لخط الإنتاج لكل كاميرا هاتف فردية أمر روتيني.

نحن في & quotmiddle & quot من الكاميرات الاحترافية ذات التكلفة العالية من غير المحتمل أن نحصل على تطورات في أحدث الرياضيات قبل الجدة باستخدام الكاميرا الخاصة بها. لديها قوة الإنتاج الضخم ومعدل دوران مرتفع للنماذج مع القدرة على استيعاب التطورات الجديدة في معالجة الصور من الجهات الفاعلة الرئيسية مثل Texas Instruments. إنهم يزودون الرقائق لـ HP و Kodak والكاميرات الأخرى التي ، على سبيل المثال ، تنقذ الفستان الأبيض لحفيدها من أشعة الشمس القاسية بينما يتم إنقاذ الجد ، القريب في ظل بلوط كبير من الظلام.

قد يبدو هذا غريبًا ، ولكن من الطبيعي أن نتوقع هذه التطورات في أعلى البصريات النهائية للصواريخ والفضاء وعلم الفلك ، ولكن في نهاية التسويق الشامل للأجهزة الاستهلاكية ، يتم تحويل تطورات مماثلة إلى سلعة.

ومع ذلك ، كما أوضح بارت ، هناك إمكانات هائلة لأدوات جديدة في التصوير الفوتوغرافي الاحترافي لتزويدنا بحلول لم نتخيل أبدًا أنها ممكنة. مثال على ذلك: لقد شعرت دائمًا أنه نظرًا لأن الانعراج كان قائمًا على الفيزياء ، فإن تدهور التركيز سيكون قابلاً للحلول الرياضية. شكرًا بارت للمساعدة في إظهار هذه الإمكانات لنا!

على الاطلاق. السؤال هو ما هي الشركة المصنعة للبرامج التي ستكون أول من يجعل هذا متاحًا للاستخدام في سياقاتنا الحالية (مثل حاجتك إلى الحصول على DoF كبير).

ديفيد إلسورث

عضو جديد

هذا اختبار صغير مثير للإعجاب. ولكن كيف ستبدو المحاكاة لتكون أكثر واقعية؟ أضف بعض ضوضاء اللقطة المحاكية (على غرار ضوضاء ISO 100 في بعض الكاميرات) بعد تطبيق الانعراج المحاكى ، ولكن قبل إجراء التفكيك. من المحتمل أن يتم تضخيم الضوضاء بشكل كبير.

سيكون الحل هو أخذ تعريضات متعددة وتكديسها قبل القيام بفك الارتباط. ومع ذلك ، إذا كنت ستلتقط تعريضات ضوئية متعددة على أي حال (بمعنى أن لديك موضوعًا لا يتحرك) ، فلديك خيار آخر: تكديس التركيز ، بفتحة أكبر (حيث لا يكون الانعراج هو السائد).

Bart_van_der_Wolf

عضو محترف

هذا اختبار صغير مثير للإعجاب. ولكن كيف ستبدو المحاكاة لتكون أكثر واقعية؟ أضف بعض ضوضاء اللقطة المحاكية (على غرار ضوضاء ISO 100 في بعض الكاميرات) بعد تطبيق الانعراج المحاكى ، ولكن قبل إجراء التفكيك. من المحتمل أن يتم تضخيم الضوضاء بشكل كبير.

سيكون الحل هو أخذ تعريضات متعددة وتكديسها قبل القيام بفك الارتباط. ومع ذلك ، إذا كنت ستلتقط تعريضات ضوئية متعددة على أي حال (بمعنى أن لديك موضوعًا لا يتحرك) ، فلديك خيار آخر: تكديس التركيز ، بفتحة أكبر (حيث لا يكون الانعراج هو السائد).

كان الهدف الرئيسي من العرض التوضيحي هو إظهار أن deconvolution يعيد الدقة ، بدلاً من تقنيات تحسين الحواف ، على سبيل المثال مثل Unsharp Masking أو تصفية High Pass.

يجب أن يقوم شحذ Deconvolution بإجراء مفاضلة بين تمييز وتحسين الإشارة والضوضاء ، وبالتالي يكون أكثر نجاحًا في استعادة الصور منخفضة التشويش. يمكن لبعض الخوارزميات تمييز الإشارة واستعادتها أكثر من "استعادة" الضوضاء (لأنها تحتوي على وظيفة انتشار نقطة مختلفة ، PSF) ، يحتاج البعض الآخر إلى المساعدة منا باستخدام أقنعة الحافة (مناطق المعالجة فقط ذات إشارة عالية (er) للضوضاء) نسبة).

الاحتمال الآخر هو استخدام خطوة سابقة لتقليل الضوضاء ، على الرغم من أن ذلك قد يضر بالإشارة الملتفة ، مما يجعل من الصعب تفكيكها.

إجراءات التراص لها قيود على كونها مفيدة فقط للأهداف الثابتة (أو تلك التي يمكن إزالة الأشباح فيها بسهولة) ، وفي هذه الحالة يمكن للمرء أيضًا استخدام تعرض ISO أطول (أقل) للحصول على نسب S / N أفضل في المقام الأول. الضوضاء هي مجرد نقص في الفوتونات ، وبعضها أضاف ضوضاء الدوائر الإلكترونية.

ساندرين باسكورت

عضو

ديفيد إلسورث

عضو جديد

حسنًا ، قررت أن أجرب هذا بنفسي (باستخدام الروابط إلى الملفات الأصلية ونواة الحيود التي قدمتها في سلسلة Luminous Landscape). لقد استخدمت برنامج C صغيرًا كتبته منذ فترة والذي يقوم بفك التحول عن طريق أخذ تحويل فورييه المنفصل (باستخدام مكتبة FFTW) لكل من نواة PSF والصورة الملتوية ، وقسمة DFT للصورة على DFT الخاصة بالنواة (على سبيل المثال ، الضرب بواسطة معكوس مصفوفة) ، ثم عمل DFT معكوس على النتيجة. تستغرق الخوارزمية ما يزيد قليلاً عن ثانيتين للعمل على صورة 1201x1201x3x16bit على جهاز الكمبيوتر الخاص بي ، مترابطة واحدة. ليس من الضروري إجراء أي تكرارات (ما لم تحسب وتنسب على كل قناة لون & quot) أو أي نوع من التقريب المتتالي. (نعم ، لقد غششت قليلاً لتجنب تأثيرات الحواف ، لقد قمت بتكبير الصورة لمنحها حدًا أسود.)

بارت ، تبدو نتيجة قسم FFT الخاص بي (هنا) متطابقة تقريبًا مع 1000 تكرار من Richarson-Lucy ، باستثناء رنين أكثر قليلاً واستعادة أكثر حدة لتفاصيل أعمى البندقية (ربما تقوم Richardson-Lucy بتطبيق مرشح deringing الذي له تأثير جانبي لـ تليين الستائر المعدنية؟) لكن أضف القليل من الضجيج ، وسيبدأ في الظهور في عملية التفكيك. أضف المزيد من الضوضاء ويبدو سيئًا حقًا.

انقر على الصورة لرؤية واحدة بجودة JPEG أعلى وصف وسطي إضافي.

العمود الأيسر في الصف العلوي عبارة عن اقتصاص من الصورة الأصلية. العمود المركزي هو الصورة التي تم تطبيق نواة الحيود عليها (بدون محاولة القيام بتصحيح جاما) ، مع إضافة مقدار ضئيل من الضوضاء في الصف الأوسط وكمية واضحة من التشويش المضافة في الصف السفلي. (الضجيج هو Gaussian ، مع عدم إجراء أي محاولة لمحاكاة توزيع Poisson.) العمود الأيمن هو النتيجة المفككة.

يؤدي تقليل الضوضاء قبل عملية التفكيك إلى بعض التحسينات ، ولكنه يؤدي إلى فقد كبير في التفاصيل ، ولا يبدو في أي مكان قريبًا من الإصدار الذي لا يحتوي على ضوضاء.


1 المقدمة

يعتبر Deconvolution مجالًا رئيسيًا في معالجة الإشارات والصور. يتم استخدامه للأهداف في معالجة الإشارات والصور التي تشمل ما يلي:

في هذه المقالة ، نركز على واجهة واحدة خاصة ولكنها مركزية بين النموذج وبيانات المراقبة. في علم الفلك الرصدي ، تشمل النمذجة نماذج الأدوات وأيضًا تسجيل المعلومات والارتباط بين طرائق البيانات المختلفة ، بما في ذلك الصورة والفهرس. مقياس مراقبة الأداء الأكثر أهمية بالنسبة لنا في هذا السياق هو وظيفة تدهور الأداة ، أو وظيفة انتشار النقطة. تكمن كيفية استخدام وظيفة انتشار النقطة لتحسين جودة الصورة أو الإشارة في deconvolution. سنراجع مجموعة من النتائج الحديثة المهمة في فك الارتباط. يتمثل الموضوع الرئيسي بالنسبة لنا في كيفية دمج جميع طرق التفكيك تقريبًا ، الناشئة عن نماذج ضوضاء مختلفة للأجهزة أو من الأولوية المعطاة لمصدر النقطة أو الكائنات الممتدة ، الآن مقياس الدقة في الخوارزميات الخاصة بهم. بعض النتائج الأخرى مثيرة للغاية أيضًا. النتيجة الأخيرة ذات الأهمية هي إمكانية الدقة الفائقة ، التي تتميز بتعريف حسابي دقيق لـ "الكائن شبه الأسود". نتيجة أخرى للملاحظة هي التردد كشكل من أشكال الرنين العشوائي وليس فقط كنهج مخصص بحت للحصول على إشارة أفضل.

لقد أثبت تفكيك الصور الفلكية في بعض الحالات أنه حاسم لاستخراج المحتوى العلمي. على سبيل المثال، IRAS يمكن إعادة بناء الصور بكفاءة بفضل خوارزمية إنتروبيا هرمية جديدة (Bontekoe، Koper، & amp Kester 1994). يمكن دراسة البراكين Io بدقة أقل من 015 ، أو 570 كم على Io (Marchis ، Prangé ، & amp Christou 2000). كشفت الصور المفككة للأشعة تحت الحمراء المتوسطة عند 20 ميكرومتر عن البنية الداخلية لنواة المجرة النشطة في NGC 1068 ، مخفية عند الطول الموجي المنخفض بسبب الانقراض العالي (Alloin وآخرون 2000 انظر الشكل 1). البحث عن عدسات الجاذبية أسهل وأكثر كفاءة عند تطبيق طرق فك الارتباط (Courbin، Lidman، & amp Magain 1998). المثال الأخير هو الدقة العالية (بعد التفكيك) لصور الأشعة تحت الحمراء المتوسطة التي تكشف عن البنية الحميمية للأجسام النجمية الشابة (Zavagno، Lagage، & amp Cabrit 1999). سيكون Deconvolution أكثر أهمية في المستقبل من أجل الاستفادة الكاملة من الأعداد المتزايدة من التلسكوبات الأرضية عالية الجودة ، والتي تكون الصور محدودة للغاية من حيث الدقة من خلال الرؤية.

رسم بياني 1.- نواة المجرة النشطة NGC 1068 لوحظت عند 20 ميكرومتر. غادر: الصورة الخام غير واضحة للغاية بسبب حيود التلسكوب. حق: تكشف الصورة المستعادة باستخدام طريقة الانتروبيا متعددة النطاقات عن البنية الداخلية في محيط النواة.

ال تلسكوب هابل الفضائي (HST) قدم مثالًا رائدًا للحاجة إلى deconvolution في الفترة التي سبقت تجديد نظام الكاشف. تقدم محضرتان (White & amp Allen 1990 Hanisch & amp White 1994) لمحات عامة مفيدة عن هذا العمل ، والمرجع اللاحق هو Adorf و Hook و amp Lucy (1995). في حين أن وظيفة انتشار نقطة الرؤية في الغلاف الجوي (PSF) قد تكون موزعة بإحكام نسبيًا حول الوضع ، لم يكن هذا هو الحال بالنسبة للزيغ الكروي HST PSF. عندما تكون "أجنحة" PSF ممتدة وغير منتظمة ، فإن deconvolution يوفر طريقة مباشرة للتخفيف من آثار هذا ولتحديث المنطقة الأساسية لمصدر نقطي. أحد استخدامات deconvolution ذات الأهمية المستمرة هو في اندماج المعلومات من أجهزة الكشف المختلفة. على سبيل المثال ، Faure et al. (2002) deconvolve HST الصور عند الارتباط مع الملاحظات الأرضية. في Radomski وآخرون. (2002) ، بيانات Keck مفككة للدراسة معها HST البيانات. يتم تفكيك بيانات VLT في Burud et al. (2002) ، مع ESO و HST البيانات المستخدمة كذلك. في العمل الكوكبي ، كوستينيس وآخرون. (2001) مناقشة بيانات CFHT وكذلك HST وغيرها من الملاحظات.

ما يظهر بوضوح شديد من هذه العينة الصغيرة - التي ليست غير نمطية بأي حال من الأحوال - هو أن الاستخدام الرئيسي لفك الارتباط هو المساعدة في الربط المتبادل بين معلومات الصورة والإشارة.

الإشارة المرصودة ليست في حالة بدائية أبدًا ، وتحسينها ينطوي على عكس ظروف التلف ، أي إيجاد حل لمعادلة عكسية. تلعب القيود المتعلقة بنوع الإشارة التي نتعامل معها دورًا مهمًا في تطوير خوارزميات فعالة وذات كفاءة. يُطلق على استخدام القيود لتوفير حل ثابت وفريد ​​من نوعه التنظيم. تتضمن أمثلة القيود الشائعة الاستخدام صورة أو إشارة نتيجة غير سلبية في كل مكان ، ومطابقة ممتازة لملفات تعريف المصدر ، والخصائص الإحصائية الضرورية (توزيع غاوسي ، وعدم وجود ارتباط ، وما إلى ذلك) للمخلفات ، وغياب المصنوعات المحددة (الرنين حول المصادر ، والكتل ، إلخ.).

يفتح مراجعتنا في الفقرة 2 مع إضفاء الطابع الرسمي على المشكلة. في الفقرة 3 ، ننظر في مسألة التنظيم. في الفقرة 4 ، تم وصف طريقة CLEAN ، وهي طريقة مركزية في علم الفلك الراديوي. تمت مراجعة النمذجة والاستدلال البايزي في deconvolution في الفقرة 5. في الفقرة 6 ، نقدم طرقًا تعتمد على المويجات كما هي مستخدمة في deconvolution. تعتمد هذه الأساليب على دقة متعددة أو مقياس. في الفقرتين 7 و 8 ، تمت مناقشة القضايا المهمة المتعلقة بتحليل صورة نتيجة الإخراج. يعتمد القسم 7 على حقيقة أنه من غير المجدي عادةً استهداف نتيجة مخرجات بدقة أفضل من بعض الحدود ، على سبيل المثال ، حجم البكسل. في الفقرة 8 ، نتحرى متى وأين وكيف يمكن استنتاج المعلومات المفقودة لتوفير دقة فائقة.


4. Mosaicing (التصوير متعدد المجالات)

يجب أن تتضمن علاقة تحويل فورييه بين مستوى فورييه ومستوى الصورة الحزمة الأولية:

ومن ثم ، بالنظر إلى الصورة ، من التافه محاكاة البيانات المقابلة. ومع ذلك ، بالنظر إلى البيانات والرغبة في الصورة ، لدينا مشكلة عكسية يجب حلها.

عالجت المحاولات المبكرة للفسيفساء كل حقل بشكل مستقل ، وفك الارتباط والمعايرة الذاتية لكل حقل ، ثم خياطة صور الحقول المتداخلة معًا عبر معادلة الفسيفساء الأساسية:

ومع ذلك ، أظهر Cornwell (1988) أنه يمكن تحقيق نتائج فائقة من خلال فك متزامن للبيانات من جميع الحقول. تم تحقيق هذا التفكك المتزامن باستخدام أقصى إنتروبيا (MEM) أو أقصى فراغ كمحرك حل لحل المشكلة العكسية. يمكن إضافة إجمالي الطاقة كحقول إضافية مع الحزمة الأولية الخاصة بهم. ومع ذلك ، أدى التحيز الإيجابي لـ MEM ، الضار بالتصوير المنخفض للنسبة SNR ، واستقباله الفاتر من علماء الفلك الراديوي إلى البحث عن خوارزميات أخرى لتصوير بيانات متعددة المجالات.

سولت وآخرون. (1996) نفذت خوارزميات الفسيفساء التي يمكن أن تستخدم إما CLEAN أو MEM لتفكيك متزامن.

اقترح Cornwell و Holdaway و Uson (1994) خوارزمية فسيفساء جديدة لصفيف المليمتر القادم (MMA): قم بإنشاء فسيفساء الصور القذرة ووظيفة انتشار نقطة تقريبية واحدة (PSF) ، ثم تابع أي حقل فردي تقليدي خوارزمية deconvolution. بالنسبة لتغطية Fourier-plane عالية الجودة الخاصة بـ MMA وما شابهها من PSF لجميع الحقول في الفسيفساء ، لم يكن هذا النهج مقيدًا بالاختلافات في PSF التقريبي وكل PSF الفعلي لكل حقل حتى يتجاوز النطاق الديناميكي للصورة المحتمل بضع مئات إلى واحد.

يأخذ AIPS ++ هذا النهج إلى الفسيفساء خطوة أخرى إلى الأمام: إجراء تفكيك تزايدي للمخلفات باستخدام PSF التقريبي ، مع طرح دقيق لتوزيع سطوع النموذج التراكمي في نهاية كل `` دورة رئيسية '' متزايدة (مماثلة في المفهوم لـ الدورات الرئيسية من Clark CLEAN).

إذا تمت ملاحظة جميع الحقول مع العديد من اللقطات القصيرة مرارًا وتكرارًا (هذه هي الطريقة المعتادة لإجراء ملاحظة الفسيفساء) ، فسيكون لكل حقل تغطية فورييه متشابهة وبالتالي حزم مركبة مماثلة. يمكن إنشاء PSF تقريبي والذي يعد تطابقًا جيدًا إلى حد ما مع PSF الفعلي لكل حقل من الحقول. أيضًا ، إذا كانت تغطية السماء للحقول المرصودة هي Nyquist أو أفضل ، فإن PSF التقريبي غير المتغير سيكون مطابقًا بشكل معقول لـ PSF الفعلي للمصادر في مواقع مختلفة عبر الفسيفساء. يمكن تحويل الرؤى المتبقية من كل حقل وفسيفساء لعمل صورة فسيفساء واحدة متبقية. يمكن فك هذه الصورة الفسيفسائية باستخدام طريقة deconvolution التي تختارها على سبيل المثال ، باستخدام Clark CLEAN أو Multiscale CLEAN أو أقصى إنتروبيا أو أقصى فراغ.

لا يمكن لخوارزمية deconvolution أن تتفكك بشكل تعسفي بعمق ، لأنه على مستوى ما ستصبح التناقضات بين PSF التقريبي غير المتغير و PSF الحقيقي في أي مكان في الصورة ظاهرة ، وسنبدأ في `` تنظيف '' تدفق الخطأ. وبالتالي ، نحتاج إلى التوقف عن التفكيك عندما نصل إلى مستوى تناقضات PSF هذه. في هذه المرحلة ، نأخذ جزءًا من توزيع سطوع النموذج الذي قمنا بفكه للتو وحساب رؤى النموذج (باستخدام معادلة القياس) وطرحها من رؤية البيانات (المصححة). إلى الحد الذي يكون فيه الشعاع الأساسي والإشارة إلى السماء دقيقًا ، يكون طرح الرؤية دقيقًا أيضًا. يمكن إعادة فسيفساء الرؤية المتبقية ، لكن الذروة المتبقية تكون عند مستوى أقل بكثير. ثم تستمر عملية فك الارتباط مع PSF التقريبي غير المتغير التحول ، ويتم تشكيل زيادة أخرى في توزيع سطوع النموذج ، وإزالتها من الرؤى المتبقية المتبقية ، وإضافتها إلى توزيع سطوع النموذج التراكمي. بالاقتراض من مصطلحات Clark CLEAN ، نطلق على كل دورة من التفكك التدريجي وطرح الرؤية الدقيقة `` دورة رئيسية ''.

إذا تم التحكم في الدورات الرئيسية بشكل صحيح ، فهناك مزايا محتملة للفك التدريجي مع PSF تقريبي. أولاً ، نقوم بفك ثورة صورة فردية منتظمة ، لذلك نحن أحرار في اختيار أي خوارزمية نحبها (على الرغم من أن NNLS لم يتم تنفيذه في سياق متعدد المجالات). ثانيًا ، إننا ننفق قدرًا أقل من وحدة المعالجة المركزية على إجراء عمليات FFT. في نهج الفسيفساء المستند إلى Cornwell (1988) ، يحتاج كل حقل إلى اثنين من FFT لكل تكرار. في deconvolution التزايدي الخاص بنا باستخدام MEM ، تحتاج الصورة بأكملها إلى زوج من FFTs لكل تكرار (بغض النظر عن عدد الحقول) ، بالإضافة إلى اثنين من FFTs لكل حقل لكل دورة رئيسية. نظرًا لوجود العديد من تكرارات MEM لكل دورة رئيسية ، فإننا عادةً ما نتقدم باستخدام deconvolution المتزايد.

إذا كنت قد قرأت بالفعل ما يكفي ولا تريد المزيد من التفاصيل ، فأنت تقرأ القسم الصحيح. سيقوم معالج الفسيفساء AIPS ++ بإرشاد المستخدم المبتدئ خلال تفاصيل إنشاء صورة الفسيفساء. على سبيل المثال ، لا تحتاج إلى معرفة أي تفاصيل حول مكان وجود المؤشرات: يتيح لك العرض الرسومي البسيط للإشارات تحديد النقاط التي تريدها. لست مضطرًا إلى معرفة الحجم الذي يجب أن تكون عليه صورتك ، أو حجم الخلية التي يجب استخدامها ، أو حتى ما هي خوارزمية deconvolution للمتابعة مع Mosaicwizard إما أن تحدد هذه التفاصيل لك ، أو تمنحك الإعدادات الافتراضية المعقولة التي يمكنك تغييرها إذا كنت يريد. سيقوم معالج الفسيفساء بكتابة نص يوضح لك أهم الأوامر التي تحتاجها لإنشاء صورة فسيفساء مثل تلك التي صنعها المعالج.

بطبيعة الحال ، فإن تكلفة هذه البساطة هي فقدان التحكم التفصيلي في عملية الفسيفساء ، ولكن إذا كنت مرتبكًا ، فإن الأمر يستحق القيام بتمرين صنع الفسيفساء باستخدام Mosaicwizard. يأتي Mosaicwizard مزودًا بمجموعة قياس الاختبار الخاصة به ، بحيث يمكنك بدء اللعب به الآن.

هناك عدد من الأشياء البسيطة التي تحتاج إلى القيام بها حتى تنجح الفسيفساء الخاصة بك. من السهل نسيانها ، لذلك سنذكّرك بذلك.

الفسيفساء عملية تستغرق وقتًا طويلاً ، لذا سيكون من المفيد إنشاء نسخة محدودة من الفسيفساء أولاً. على سبيل المثال ، قد ترغب في مجرد تصوير بعض الحقول بدقة أقل لتقليل عدد وحدات البكسل التي تقوم بتصويرها. في النهاية ، سترغب في تصوير معظم أو كل الحقول التي تمت ملاحظتها.

يجب تحديد أحد الحقول في وظيفة الأداة Imager.setimage لتوفير اتجاه البكسل المرجعي للصورة الناتجة. على سبيل المثال ، مع ملاحظة 25 تشير (5 × 5 نقطية) ، يمكن أن يكون الحقل 13 هو الحقل المركزي:

أو إذا كان موضع معين مطلوبًا كمركز صورة ، فيمكن استخدام أداة المقاييس الافتراضية جنبًا إلى جنب مع setimage على النحو التالي:

يؤدي إعداد doshift = T إلى إخبار البرنامج باستخدام القيمة المحددة في وسيطة phaseecenter.

حاليًا ، لا تعالج طرق deconvolution المختارة للتطبيقات متعددة المجالات ، أي CLEAN متعدد المقاييس والحد الأقصى من الفراغ أو الانتروبيا ، Stokes I و V في وقت واحد.

تذكر أن تخبر Imager باستخدام نمط الجهد (الحزمة الأولية). إذا لم تقم بذلك ، فسيتم الخلط بين الصورة بشكل رهيب. هذا لأنه يجب علينا حساب نمط الجهد عند تصوير نفس الموقع على ولكن من نقاط مختلفة.

إذا لم يعجبك نمط الجهد الافتراضي (المتوفر لمجموعة من التلسكوبات انظر Imager.setvp) ، يمكنك تحديد نمط الجهد الخاص بك وربطه بالتلسكوبات في مجموعة القياس الخاصة بك باستخدام Vpmanager (مدير نمط الجهد). سينتج Vpmanager جدولًا يصف أنماط الجهد المختلفة للتلسكوبات ، ويمكن استخدام هذا الجدول بواسطة Imager عبر وظيفة الأداة setvp.

تم تضمين الحول الشعاعي لبعض التلسكوبات (مثل VLA) في نماذج نمط الجهد الافتراضي. لا ينطبق على التلسكوبات الأخرى (مثل ATCA). يمكن أيضًا ضبط شعاع الحول باستخدام Vpmanager. لكي يشمل تطبيق نمط الجهد تأثيرات الحول الشعاعي ، الذي أعيد تطبيقه بزيادات زاوية شبه منحرف مقدارها 10 درجات ، جرب

لاحظ أن اتفاقيات الحول في الحزمة لم يتم اختبارها بدقة ، ويمكن أن تكون عكسية في الاتجاه.

إذا كنت تستخدم الترجيح `` الموحد '' أو `` briggs '' ، فستعتمد تفاصيل الترجيح على طريقة تجميع البيانات. ومع ذلك ، إذا تم تحديد جميع الحقول في دالة setdata ، فسيتم تجميع الأوزان من جميع الحقول في شبكة واحدة لأغراض حساب الأوزان. ربما هذا ليس ما تريد القيام به. بدلاً من ذلك ، قد يكون من المنطقي أكثر أن نرجح البيانات على أساس كل حقل على حدة:

نحن مستعدون أخيرًا للتصوير والتفكيك. يمكنك استخدام وظائف CLEAN أو MEM الخاصة بجهاز التصوير. فقط الخوارزميات التي تحتوي على بادئة `` mf '' هي التي ستقوم بالتصوير متعدد المجالات بشكل صحيح (على سبيل المثال ، ستعمل خوارزمية `` clark '' على ربط البيانات من جميع الحقول المحددة على نفس الشبكة ، مما ينتج عنه صورة مشوشة للغاية بالفعل. تتضمن طرق CLEAN للتجزئة mfclark ، و mfhogbom ، و mfmultiscale ، في حين أن أساليب الفسيفساء الخاصة بـ MEM تشمل mfentropy و mfemptiness.

يكمن مفتاح نجاح التفكيك التدريجي في التصوير متعدد المجالات AIPS ++ في التحكم في مدى عمق تفكيكنا في الدورات الرئيسية. يمكن تعيين معلمات التحكم التي تمت مناقشتها هنا باستخدام Imager.setmfcontrol. إذا تفككنا بشكل عميق جدًا مع PSF التقريبي ، فسنقوم بتدوير عجلاتنا بينما تتجادل الحقول المجاورة ذات الفصوص الجانبية لـ PSF المختلفة قليلاً حول المكان الذي ينتمي إليه تدفق نموذج المستوى المنخفض ، ستكون الإجابة بالطبع خاطئة ، وسنخطئ في الطرح من رؤية البيانات ، وسيتعين علينا تصحيح خطأنا في المراحل الأولى من الدورة الرئيسية التالية للتفكك التدريجي. إذا لم نتدخل بعمق كافٍ في كل دورة رئيسية ، فسيكون هناك المزيد من الدورات الكبرى ، والتي يهيمن عليها طرح النموذج الدقيق.

يمكن للمرء أن يرى بسهولة إلى حد ما ما إذا كان الشخص ينظف بعمق شديد أو لا ينظف بعمق كافٍ في دورة رئيسية معينة من خلال النظر إلى المؤامرات المعطاة عند عرض الحجة = T (في وظيفة الأداة نظيفة). عند محاولة التنظيف بعمق شديد ، فإن ذروة المستوى المتبقي في نهاية دورة رئيسية سوف تتسطح (أو قد تزيد وتتباعد) للعديد من التكرارات. في بداية الدورة الرئيسية التالية ، سيبدأ مستوى الذروة المتبقية عند مستوى أعلى مما كان عليه في نهاية الدورة الرئيسية السابقة. (يمكن أن يكون هذا صحيحًا بشكل خاص بالنسبة للفسيفساء مع التنظيف متعدد المقاييس ، حيث قد يكون PSF التقريبي في الواقع تطابقًا ضعيفًا جدًا مع PSF الحقيقي على المقاييس الأكبر حجمًا). إذا كان كل شيء على ما يرام ، فستظل هذه الدورة الرئيسية تصل إلى ذروة أقل من الدورة السابقة. ومع ذلك ، فإن إيقاف الدورات الرئيسية في وقت أقرب سيمنعنا من تدوير عجلاتنا ، مما يؤدي إلى صورة قابلة للمقارنة مفككة في عدد أقل من التكرارات.

في النهاية ، من المحتمل أن تكون هناك طريقة أكثر ذكاءً وتلقائية لتحديد ما إذا كنا بحاجة إلى إيقاف دورة التفكك المتزايدة الرئيسية الحالية. في الوقت الحالي ، الأدوات بسيطة ولكنها سهلة الاستخدام. إذا كان عرض التقدم يشير إلى أن إنهاء الدورة الرئيسية في وقت أقرب مناسب ، فيمكننا القيام بذلك بإحدى طريقتين:

    عن طريق زيادة عامل الدورة. عتبة تنظيف الدورة الرئيسية هي جزء صغير من ذروة الصورة المتبقية. يتم تحديد هذا الجزء المتبقي من خلال عامل الدورة مضروبًا في ذروة الفص الجانبي السلبي لقوة PSF التقريبية. يمكن إيقاف دورة التنظيف الرئيسية في وقت أقرب عن طريق زيادة عامل الدورة. القيم التي تتراوح بين 2 و 4 شائعة.

بالإضافة إلى معلمات التحكم في الدورة هذه ، والتي تنطبق على الفسيفساء باستخدام CLEAN أو Multi-Scale CLEAN أو MEM أو Maximum Emptiness ، هناك وسيطتا تحكم إضافيتان تم تعيينهما بواسطة imager.setmfcontrol لوظيفة الأداة والتي تنطبق فقط على Multi-Scale CLEAN. هذه هي stoplargenegatives و stoppointmode ، والتي تمت مناقشتها أدناه.

انظر التصوير الأساسي لأساسيات المقاييس المتعددة.

في بعض الأحيان في التكرارات القليلة الأولى لـ Multi-scale CLEAN في سياق الفسيفساء ، سيهيمن الحجم الأكبر على بقايا سلبية كبيرة (أي هذا هو مجرد وعاء سلبي ، مدمج في منطقة أكبر مقياس مكون نظيف). طريقة واحدة لإصلاح هذا هو جعل المقياس الأكبر أصغر. هناك طريقة أخرى وهي استخدام قناع أكثر إحكاما يستبعد العثور على مكونات كبيرة الحجم في منطقة الوعاء. والطريقة الثالثة المخصصة هي إيقاف الدورة الرئيسية عندما يتم العثور على مكون سلبي على نطاق واسع. هذا يسمح للطرح الدقيق بالاستمرار ، مما يؤدي في كثير من الأحيان إلى انخفاض مستوى الوعاء. يجب أن يتم إيقاف الدورة الرئيسية عند مواجهة مكون سلبي على نطاق واسع فقط في الدورات القليلة الأولى ، حيث قد تكون هناك حاجة خلال الدورات اللاحقة لمكونات النطاق الصغير ذات السعة الصغيرة لإجراء تعديلات في الصورة. يمكن التحكم في عدد الدورات التي تتوقف عند العثور على مكون سالب على نطاق واسع بواسطة المعلمة stoplargenegatives في imager.setmfcontrol. نظرًا لأن المقاييس الأصغر قد تتطلب مكونات سلبية لتصحيح الأخطاء التي تحدث بسبب `` التنظيف الزائد '' في الدورات الأكبر ، فلا ينبغي وضع قيود على المكونات السلبية من المقاييس الأصغر حجمًا.

تمت مناقشة هذه الوظيفة العامة في فصل التصوير الأساسي من "الحصول على النتائج". You can also use it in the mosaicing context (just specify all of the fields you are interested in).

If there are bright unresolved or barely resolved sources in the field, it may be advantageous to perform a Clark Clean down to the level of the peak extended emission, or include a component list in the model, because MEM does not work well on bright point-like sources.

The maximum entropy/emptiness algorithm has been modified to fit into the incremental deconvolution/major cycle framework adopted by mosaicing in AIPS++ . These algorithms deal with both the incremental brightness distribution, which it seeks to solve given the approximate PSF and the residual mosaic image, and the cumulative brightness distribution for the calculation of the entropy function and its gradients. When maximum entropy starts up, it typically takes the algorithm four or five iterations to ``find itself'' and get the control parameters set to achieve the proper balance between the gradients of the entropy and the chi squared. Once a good balance is struck, the algorithm makes marked progress towards convergence. At the end of a major cycle, the relevant control parameters are saved and used for the next major cycle.

If several different models or images are contributing to the model visibilities, the a visibility plane subtraction must be used. However, if a single model image covering all observed fields is used, as is usually the case with mosaicing, then it is more efficient to bypass the degridding and gridding operations and just calculate the residual images for each field by a convolution with each field's true PSF.

Sometimes flux from a confusing source will ``leak in'' through the outer sidelobes of the primary beam. This is a vexing problem, as the outer sidelobes are not in the primary beam model, the confusing source will not be removed from the data or corrected visibilities in the usual mosaicing algorithm, and its sidelobes will persist, possibly spoiling the dynamic range of other regions in the mosaiced image. In addition, each field will experience the outlying confusing source at a different sidelobe level, and therefore at a different flux, and time-dependent or antenna dependent gains can result as the azimuthally asymmetric sidelobes rotate over the source and pointing errors result in sidelobe jitter.

The ultimate solution to this problem lies in the direction-dependent gain solver, forthcoming in AIPS++ but not yet available, so we must use other means. Simply using an outlier field in addition to the main image will not work, as the value of the primary beam at the location of the confusing source may well be zero. Within AIPS++ current capabilities, one can turn off the application of the primary beam with function Imager.setvp by putting argument dovp=F . Then image the confusing regions one field at a time, and subtract the modeled flux from each field's visibilities. The residual visibilities can then be mosaiced with one of the standard multi-field algorithms. The packaging is not ideal at this point and you have to do some adhoc processing with the Table tool (which is one of the strengths of AIPS++ - you can do this when you have to !).

These are discussed in the basic Imaging chapter of Getting Results.

Component Models are handled by the Componentlist tool .

The only difference in the mosaicing context (from single field imaging) is that the Component Model must be a true representation of the sky brightness. Any attenuation for primary beams is handled by Imager.

If you have a Component Model which has been attenuated by the primary beamm you can correct for that with the Imager.pb function.

Note that you need the input image so that Imager knows what telescope you are using so that it can get the correct model. Alternatively, if you have used Imager.setvp to set a Voltage pattern from an external table, it would use that.

The Componentlists are specified by their disk file names. (the arguments are not Componentlist tools ).

When correcting for the effects of the primary beam to achieve an accurate and uniform flux scale across the image (i.e. by dividing by the primary beam in the case of a single field observation), the noise and errors at the edge of the mosaic sky coverage are amplified. The noise amplification distracts from the visual beauty of the image and may complicate the image's display and interpretation.

Sault et al (1996) endorse a different image plane weighting in the mosaicing which results in a constant noise level across the image, but has a variable flux scale.

In AIPS++ we have implemented an image plane weighting similar to Sault's scheme, but the noise goes to zero outside the region covered by the primary beams. The flux scale is position dependent, but it is flat over most of the mosaic sky coverage. The flux scale images can be created by setting the fluxscale argument in Imager's setmfcontrol function. Regions outside the multi-field primary beam pattern will have a zero value.

Routinely in single field deconvolution, only the inner quarter of an image is deconvolved so that the sidelobes from this region can be correctly subtracted from the entire image. However, in the multi-field case, such a restriction usually does not exist. The major cycles only deconvolve down to a certain level, fixed by the sidelobe characteristics of the PSF. After that, the exact subtraction of the deconvolved flux is carried out. Typically, the exact subtraction is performed by multiplying the brightness distribution by a field's primary beam, convolving by that field's exact PSF, multiplying by the primary beam again, and subtracting from the previous cycle's residual mosaic. The two primary beam multiplications ensure that the far out effects of the PSF, which will not be correct due to the full-image deconvolution, will not effect the model brightness distribution.

If no mask is used, we help the single field major cycle deconvolution algorithms out by creating a mask from the generalized primary beam pattern of all observed fields, with zero outside the outermost fields' primary beam main lobes. If you don't want this mask for some reason, you should supply your own mask image.

Apart from some rather esoteric details in the solution interval, self-calibration of multi-field data in AIPS++ is operationally identical to self-calibration of single-field data, but with function Imager.setvp activated.

The success of self-calibration is largely dependent on being able to get a reasonable model for the source brightness distribution over some range of Fourier spacings. Synthesis imaging lore emphasizes the uses of self-calibration when bright point sources dominate the emission, but there is no rule that prohibits the use of shorter baselines in self-calibration. In mosaicing, there will generally be much more signal to work with on the shorter baselines, but the extended structure to which these baselines are sensitive is more likely to suffer from imaging errors than the simple point-like sources, especially if total power data is either lacking or questionable quality. Self-calibration on mosaic images is still on open field.

Self-calibration for multi-field observations starts with a model image of the entire mosaiced region, presumably obtained from either the Imager.clean or Imager.mem functions. Then the Imager.setvp function must be run to turn on the primary beam application (it should already be on if you have just made your clean or mem image with this Imager tool ). Then use the Imager.ft function to calculate the model visibilities, given by the Fourier transform of the model brightness distribution times the primary beam, for each field. Then proceed with self-calibration as usual with a Calibrater tool .

The solution interval can be longer or shorter than the time spent on each field. One must consider the variable emission in the different fields. If the solution interval is very short, some fields may not have enough signal for a good solution, and solution intervals and gain solutions might be calculated on a field-by-field basis. If some fields do not have much emission and a short solution interval is desired, it me be desirable to self-calibrate only on those fields with enough emission for a good self-calibration solution. If the solution interval is longer than the integration time per field, then the fields with more emission (and higher signal-to-noise ratio) will dominate the gain solution, helping along the fields with less emission.

The following script is nothing special, just making an interferometer-only mosaic image from the multi-field test measurementset which is distributed with AIPS++ :


Drizzle + HDR + Deconvolution…

I have a couple of questions regarding the combination of the techniques mentioned in the title.

So, my current equipment consists of an HEQ5pro mount guided via PHD2 and an 50mm finder+ASI120mc, a modded-cooled Canon 600d (t3i) and a Samyang (Rokinon) 135mm f2.
The first target of this setup (i recently purchased the lens) is going to be the Orion’s belt-sword area.

Given the fact that i will probably have a lot of frames to stack (thanks to the fast optics, i hope over 70-80, dithered every 2,3 frames ) i think it is a good opportunity to try drizzling.
I also think it is a good idea to capture 2 more sets of exposures (all at iso800), for example x secs, x/5 and x/25 to produce an hdr image.

So my first questions, do i have to dither the shorter exposures too in order for the hdr composition to work properly after drizzling the stacks?
Do i need more sets of shorter exposure frames (eg. x, x/4, x/16, x/64)?

PS1. I will ask the questions i have about deconvolving later!
PS2. I use PI for processing, i know nothing about PS…

#2 Madratter

Yes, I think you are also going to need to drizzle those shorter exposures.

I personally think just 1 shorter exposure time will often do the trick, 2 at most.

#3 Stamos

Yes, I think you are also going to need to drizzle those shorter exposures.

I personally think just 1 shorter exposure time will often do the trick, 2 at most.

Yes, that's logical since image scales have to be the same.

But should i dither them too?

Dithering is time consuming and i don't want to waste valuable imaging time if there is no need to dither the shorter exposures.

#4 Jon Rista

Dithering is required for drizzle to work. If you do not dither, then it is very likely that you will end up with a pronounced checkerboard pattern in the drizzled image.

#5 Jared

Personally, I'd still dither the shorter frames as well. Otherwise, when you apply Drizzle to them, if you haven't dithered them, you will not only not get a resolution improvement, you may also get a "screen door" effect since Drizzle won't have a way to fill in the empty space. If dithering the shorter frames is a real pain, then I would simply up-res them using a technique other than drizzle so your image scale remains the same for HDR.

Wouldn't you want the improved resolution from Drizzle in the brighter portions of your image as well, though? I would think the core of M42 could benefit from Drizzle as much as the fainter regions.

#6 Madratter

#7 Stamos

Thanks guys, your answers make perfect sense.

So i'll probably reduce the settling time after dithering (perhaps under 10s), especially for the shorter exposures of all which i believe will have to be 1-2s in duration.

My second question i about deconvolving an hdr image.

Do i have to deconvolve the stacks separately and then combine them or deconvolution has to be done to the final hdr image?

If the latter is correct the psf model is the one created from the hdr?

#8 Madratter

You are probably better off deconvolving them separately. It is possible all the separate stacks will have similar point spread functions and if so, they will probably deconvolve OK once combined. But I wouldn't count on it.

You could try running the dynamic PSF on each stack separately, and if the result is close, you could try doing it once combined.

#9 Jon Rista

You are probably better off deconvolving them separately. It is possible all the separate stacks will have similar point spread functions and if so, they will probably deconvolve OK once combined. But I wouldn't count on it.

You could try running the dynamic PSF on each stack separately, and if the result is close, you could try doing it once combined.

I don't know about this. The PSF of each individual sub could vary quite a lot from sub to sub. If you want your deconvolution to be most effective, you would want to use a unique PSF for each sub. For 70-80 subs, that could become very time consuming.

Additionally, the star profile of the drizzled result will be much closer to a gaussian spot thanks to the way drizzling works, so it should actually be easier to deconvolve (especially if the resolution was doubled). It would certainly be far, far less timeconsuming.

#10 Madratter

The reason I think you might need to do them separately is that different populations of stars will have very different PSFs if the separate stacks have different PSFs. That is much less of a factor when combining subs ordinarily.

In practice, doing it just once on the combined stack might work well IF the different exposures were taken about the same time (i.e. rotated between them) as that will probably lead to pretty similar PSFs. And you قد have similar PSFs even if you didn't rotate.

What I would do is a quick dynamicPSF on each stack. If you are going to do them separately you need to do this anyway. Then check if they are similar. If they are, just combine and deconvolve once.

#11 Jon Rista

Sorry MR. I see you said stacks. I guess I read "subs" before. I agree, you could deconvolve each stack separately.

I guess it depends on how the different stacks are combined. A linear fit can go a long way to normalizing the star profiles, but it may not be perfect.

#12 WesC

Dithering is required for drizzle to work. If you do not dither, then it is very likely that you will end up with a pronounced checkerboard pattern in the drizzled image.

Is this a DSLR specific issue because of the Bayer matrix? I have used drizzle several times on non-dithered data from my QSI-683 with great results, and I have never seen any kind of patterning.

This is the latest result from that technique. I wasn't dithering because I was shooting unguided exposures.

#13 Madratter

If you are shooting unguided with TheSkyX and your MyT there is probably enough movement between frames due to slight modeling inaccuracies that drizzle would still work.

#14 Jon Rista

Dithering is required for drizzle to work. If you do not dither, then it is very likely that you will end up with a pronounced checkerboard pattern in the drizzled image.

Is this a DSLR specific issue because of the Bayer matrix? I have used drizzle several times on non-dithered data from my QSI-683 with great results, and I have never seen any kind of patterning.

This is the latest result from that technique. I wasn't dithering because I was shooting unguided exposures.

You must have some drift then, resulting in enough offset between the frames to mitigate the issue. Generally speaking, though, drizzle is ineffective in it's underlying purpose. to increase the resolution of the image, if the details of the image to not span a wide range of pixel distributions. This is a good introduction on the how and why of drizzling:

On closer inspection of your image, I am seeing some artifacts in the stars. The image has been processed enough that some of it has been smoothed out or overridden by more significant artifacts (star reduction mostly, it seems). However many of the stars to exhibit a faint # pattern. This is another consequence, similar to the checkerboard pattern, and is more visible in some of Stark's examples in the link above. I would say that you could definitely benefit from some moderately aggressive dithering, an entirely random dither (i.e. don't use a pattern dither like spiral.)

Edited by Jon Rista, 18 January 2017 - 05:53 PM.

#15 WesC

Well I generally do dither, and I know that Richard Wright has a script to dither while shooting unguided. I just need to get my paws on it.

I'm looking around the image, and other than some issues from overprocessing my stars and noise from LP, I don't really see any patterning. can you point out a specific area? I'm just curious now what to look for.

Edited by WesC, 18 January 2017 - 06:11 PM.

#16 Jon Rista

It shows up best in the stars that were not affected much by your star reduction or deconvolution. In the full size image, I can see a # pattern in those stars. However as I said, the current processing is affecting the image in ways that is making it difficult to see the artifact. It would be best to examine the drizzle integration directly.

#17 WesC

Hey, I went back and opened the FITS that is just the integrated drizzle data. no other processing. I zoomed to 1:1 and took a screen shot, I zoomed in further too. Other than some issues with focus and a bit of tilt I am seeing with the FSQ, the stars look good to me, with no evidence of a # pattern.

Like was said, maybe there was enough drift between subs. I have been purposefully not trying to nail my polar alignment as close to zero as possible, in order to give DEC guiding something to push against. it helps smooth guiding believe it or not. Long, alternate topic. anyway.

#18 WesC

Drizzle really seemed to help my eccentricity values as well. I was in the 0.43 - 0.49 range before drizzle. now I am at an average of 0.33!

BTW, you can see the effects of tilt as well, the left side of the frame is in the direction of gravity.

#19 Jared

Thanks guys, your answers make perfect sense.

So i'll probably reduce the settling time after dithering (perhaps under 10s), especially for the shorter exposures of all which i believe will have to be 1-2s in duration.

My second question i about deconvolving an hdr image.

Do i have to deconvolve the stacks separately and then combine them or deconvolution has to be done to the final hdr image?

If the latter is correct the psf model is the one created from the hdr?

In general, deconvolution wouldn't be recommended for under-sampled images. It tends to work MUCH better in over-sampled or optimally sampled situations. Using a 135mm lens you are very undersampled. Nothing wrong with that--it's the only way to get a wide field of view without a mosaic. However, I wouldn't recommend deconvolution at all in this scenario.

#20 ccmdfd

Well I generally do dither, and I know that Richard Wright has a script to dither while shooting unguided. I just need to get my paws on it.

It's been included with TSX since the daily builds of July 2016. If you have an older version, it's somewhere on SB's site, a search should find it.

If you have the later TSX's, just click run scripts under "tools", then "open" and there is a list of scripts all ready to go, one unguided dithering for osc/dslr and another for mono/filters.

#21 Stamos

Yes, with the 135mm lens i'm seriously undersampled at 6.5arcsecs/pixel but i thought drizzling would increase resolution and i could sharpen the image a bit by deconvolving it.

Is it a little bit too much applying all these tools to an image?

Maybe i could experiment with the drop shrink factor and/or sharpening at the final stages of processing instead of deconvolving.

Of course i know that it is not the same.

I will give all these processing combinations a try, it's going to be time consuming but after all i image once every 2 months (best case scenario. )

PS. I speak entirely theoretically as i haven't yet acquired any data with the new setup.

#22 Jared

Drizzling can, indeed, increase your resolution, but it's unlikely that deconvolution would be the best way to sharpen. It's likely to do nasty things to stars since the PSF will not be at all accurate on an undersampled image, even after drizzling. I would recommend using a high pass filter layer, applying a mask to eliminate stars from the sharpening, and then changing the application to "soft light" or something similar. By all means experiment, though. It's just that deconvolution tends not to work well with stars on undersampled images. Of course, you could always apply your decon layer while masking out the stars. Just play around and see what works. I have only had good experiences with deconvolution when I had an over-sampled source image.

#23 Jon Rista

Drizzling can, indeed, increase your resolution, but it's unlikely that deconvolution would be the best way to sharpen. It's likely to do nasty things to stars since the PSF will not be at all accurate on an undersampled image, even after drizzling. I would recommend using a high pass filter layer, applying a mask to eliminate stars from the sharpening, and then changing the application to "soft light" or something similar. By all means experiment, though. It's just that deconvolution tends not to work well with stars on undersampled images. Of course, you could always apply your decon layer while masking out the stars. Just play around and see what works. I have only had good experiences with deconvolution when I had an over-sampled source image.

I've had good success deconvolving drizzled images. Keep in mind, when you drizzle 2x, you are effectively halving your image scale. Drizzling is using the dithered data in your subs to sample the information at a higher rate, so the gain in resolution is not just an illusion. In my case, drizzling would effectively improve my image scale from 1.3"/px to 0.65"/px. With

1.8-2.1" seeing, I'd be oversampled by about 3x, which is ideal. This does require a lot of subs to fully fill in the drizzled image, but with 70+ subs it works really well.


Image Deconvolution using SVI Huygens

This guide is an introduction to image deconvolution using the commercial software package SVI Huygens.

Huygens allows deconvolution of various types of microscopy images but this guide is intended to cover images acquired through widefield, confocal و multiphoton systems.

Optical imaging systems such as microscopes produce an image of a real world object by convolving it with the the so called point spread function (PSF). In simple terms the PSF is the 3D image of a point source imaged by using a particular microscope and mostly determined by

  • the used objective,
  • the wavelength of the light,
  • the refractive index of the immersion and sample media

Deconvolution is the mathematical process of inverting this convolution and therefore trying to find back the real world object.

The PSF of a particular microscope configuration can either be measured using sub-resolution beads or calculated using the known microscope, objective and sample parameters.

Due to noise contributions and statistical limitations, deconvolution is a so called ill-posed problem which needs an iterative approach. This means that there is not one single, correct deconvolution result but parameters (e.g. number of iterations, signal to noise ratios and quality thresholds) need to be set and might be further optimized.

The first version of this guide was written using SVI Huygens Professional for Win64 (18.10.0p5 64b). It was written with a beginner in mind and by optimizing some steps and/or tweaking some parameters, better results might be achieved.


4. Recovering Undersampled Spectral Profiles With Multi-Peaked sPSF

It was suggested by Asensio Ramos et al. (2007) that not all wavelength points in a spectral line are linearly independent and that recovery of a full spectral profile with lesser number of measurements (in a suitably chosen basis) is possible. This presents us with the opportunity to extract useful information from undersampled spectral line profiles which can result in more efficient spectral sampling or better compression techniques for space-based missions.

To test the ability of CNNs to recover spectral profiles multiplexed with multipeaked transmission profiles as suggested in Asensio Ramos and López Ariste (2010) we created a transmission profile of a hypothetical dual Fabry-Pérot interferometer with spacings of the etalons of 2.6 and 0.058 cm with 0.99 reflectance coatings. The resulting transmission profile of this hypothetical instrument is presented in the top left panel of Figure 4 overplotted on the Ca II average line profile. The transmission profile was designed such that the higher-spectral-resolution FP generates multiple peaks within the chromospheric core of the solar spectral line while the lower-spectral-resolution FP selects a limited range such that 80% of the transmitted light is coming from the three central peaks. The properties of the FPs were chosen to optimize the precision of the deconvolutions. If the peaks of the transmission profile are too close or too far apart, the neural network's performance drops. Further optimization of the FP setup can be achieved through exploration of the dimensionality of the data as described in the following paragraphs.

Figure 4. (Top left) The spectral transmission profile is ( magenta scaled by 9 for best representation) applied to the spectral profiles overlaid over the average Ca II 8,542 Å line. (Top right) Sample spectral profile from the multiplexing ( red ), the retrieved spectral profile ( green ) and the original spectral profile ( blue ) (Bottom left) Retrieved line core intensity from this approach vs the original line core intensity (Bottom right): Maximum Likelihood Intrinsic Dimensionality Estimate for the original FISS data, the multiplexed FISS data and the data convolved with the wide sPSF in section 3.1.

We applied the transmission profile to the FISS data used in section 3.1 where we downsampled the number of spectral samples by 3 for this particular example. A sample deconvolution is presented in the top right panel of Figure 4, which shows a good agreement between the original and deconvolved spectral profiles. The bottom left of Figure 4 shows the scatter of the derived line core intensity of the multiplexed line vs. the original line core intensity. We achieve a RMS of the retrieved line core intensity of about 2% for this numerical setup. This is about three times worse than the previous experiment with FISS data in section 3.1. Our result is close to the precision obtained by Asensio Ramos (2010) where the author uses a single FP etalon with a prefilter.

To explain the lower precision of this multipeaked-multiplexing deconvolution approach compared to the deconvolution of the wide sPSF in section 3, we evaluate the dimensionality of the data. The dimensionality quantifies how much information is contained in the observations and can be used to evaluate the losses due to the spectral multiplexing. We computed the maximum likelihood intrinsic estimated dimensionality [MLIED, introduced by Levina and Bickel (2004) and suggested for spectroscopic use by Asensio Ramos et al. (2007)], which is an estimate of the dimensionality of the data based on phase density distribution. The bottom right panel of Figure 4 shows the dimensionality estimate for the original data, the multiplexed data, and the data convolved with a wide sPSF vs. the number of neighboring spectra used for the computation of the dimensionality. We find that the dimensionality of the multipeaked-multiplexed data is lower than the data convolved with a wide sPSF, while the original data has the highest dimensionality. It is expected since the convolution process introduces a loss of information. This greater loss of information is why the multipeak approach (as modeled in this section) results in a lower precision compared to the results those for a single, broad sPSF.

This approach, evaluating spectral dimensionality, could be used in future design studies of instruments as a way toward building more efficient instruments, optimizing throughput and preservation of spectral information. Further work is needed to connect the dimensionality analysis (and resulting choice of instrumental sPSF) with the accuracy and precision of the retrieval of physical information from the spectral profiles via the optimal choice of parameters for the FP system.


I would like to deconvolve my spinning disk images for quantification purposes. Regarding this, I have a few issues/questions.

1. I have been trying to image fluorescent beads, in order to obtain PSF measurements for my microscope (conditions). However, whenever I do this, I always “see the grid” of the spinning disk unit, meaning that there are multiple points visible at the same time, even when a single bead is imaged. This only becomes obvious after severe rescaling and the other grid dots have a very weak intensity compared to the main dot (at least 2 orders of magnitude). I have tried synchronizing imaging time with spinning disk speed, long/short exposures, high/low laser intensities, with/without EM gain, etc. I always see the same thing.
The questions are: Will this affect the deconvolution efficiency/accuracy? Does anyone have any solution for this problem?

2. I have read conflicting opinions on performing deconvolution using experimental vs. theoretical PSFs vs maximum likelihood estimations (MLE). Some say that when imaging thick samples (in my case

30um) it is better to do MLEs, because the PSF changes depending on the depth that you image, and measured PSFs are always on the surface of the slide. Others say that measured PSFs will always (usually) be better as they don’t assume anything but actually measure what is going on. Then again, I have been considering doing theoretical PSFs, as I have been having a lot of trouble actually measuring a proper PSF in my microscope (see point 1).
Does anyone have any experience with this or can advise me on these issues. Which programs/algorithms/plugins could I best use for this?


Richardson Lucy

Richardson Lucy is an iterative deconvolution algorithm that can be used to reconstruct a blurred image.

In practice the Richardson-Lucy algorithm needs to be modified to improve noise handling (regularization), improve convergence speed (acceleration) and reduce edge artifacts.

Richardson Lucy with Total Variation Regularization

To prevent noise amplification the Richardson Lucy algorithm should be regularized. Regularization (mathematics) “refers to a process of introducing additional information in order to solve an ill-posed problem or to prevent overfitting”.

Richardson Lucy with Vector Acceleration

Richardson Lucy and other iterative algorithms are often slow to converge. Acceleration techniques speed up convergence by taking a larger step at each iteration.

Edge handling with Non-circulant Richardson Lucy

The proper handling of boundary conditions is an important part of deconvolution. Images are finite and usually treated as circulant. Thus when deconvolving (or convolving) images are usually extended (padded) to prevent boundary artifacts. A novel approach, to handle edge artifacts, was introduced as part of the 2014 international grand challenge on deconvolution. This approach uses non-circulant convolution operators.


محتويات

In general, the objective of deconvolution is to find the solution F of a convolution equation of the form:

Usually, ح is some recorded signal, and F is some signal that we wish to recover, but has been convolved with a filter or distortion function ز, before we recorded it. The function ز might represent the transfer function of an instrument or a driving force that was applied to a physical system. If we know ز, or at least know the form of ز, then we can perform deterministic deconvolution. However, if we do not know ز in advance, then we need to estimate it. This is most often done using methods of statistical estimation.

In physical measurements, the situation is usually closer to

In this case ε is noise that has entered our recorded signal. If a noisy signal or image is assumed to be noiseless, the statistical estimate of ز will be incorrect. In turn, the estimate of ƒ will also be incorrect. The lower the signal-to-noise ratio, the worse the estimate of the deconvolved signal will be. That is the reason why inverse filtering the signal is usually not a good solution. However, if at least some knowledge exists of the type of noise in the data (for example, white noise), the estimate of ƒ can be improved through techniques such as Wiener deconvolution.

Deconvolution is usually performed by computing the Fourier transform of the recorded signal ح and the distortion function (in general terms, it is known as a transfer function) ز. Deconvolution is then performed in the frequency domain (in the absence of noise) using:

أين F, جي، و ح are the Fourier transforms of F, ز، و ح respectively. Finally, the inverse Fourier transform of the function F is taken to find the estimated deconvolved signal F.

Seismology Edit

The concept of deconvolution had an early application in reflection seismology. In 1950, Enders Robinson was a graduate student at MIT. He worked with others at MIT, such as Norbert Wiener, Norman Levinson, and economist Paul Samuelson, to develop the "convolutional model" of a reflection seismogram. This model assumes that the recorded seismogram s(ر) is the convolution of an Earth-reflectivity function ه(ر) and a seismic wavelet ث(ر) from a point source, where ر represents recording time. Thus, our convolution equation is

The seismologist is interested in ه, which contains information about the Earth's structure. By the convolution theorem, this equation may be Fourier transformed to

in the frequency domain, where ω is the frequency variable. By assuming that the reflectivity is white, we can assume that the power spectrum of the reflectivity is constant, and that the power spectrum of the seismogram is the spectrum of the wavelet multiplied by that constant. Thus,

If we assume that the wavelet is minimum phase, we can recover it by calculating the minimum phase equivalent of the power spectrum we just found. The reflectivity may be recovered by designing and applying a Wiener filter that shapes the estimated wavelet to a Dirac delta function (i.e., a spike). The result may be seen as a series of scaled, shifted delta functions (although this is not mathematically rigorous):

In practice, since we are dealing with noisy, finite bandwidth, finite length, discretely sampled datasets, the above procedure only yields an approximation of the filter required to deconvolve the data. However, by formulating the problem as the solution of a Toeplitz matrix and using Levinson recursion, we can relatively quickly estimate a filter with the smallest mean squared error possible. We can also do deconvolution directly in the frequency domain and get similar results. The technique is closely related to linear prediction.

Optics and other imaging Edit

In optics and imaging, the term "deconvolution" is specifically used to refer to the process of reversing the optical distortion that takes place in an optical microscope, electron microscope, telescope, or other imaging instrument, thus creating clearer images. It is usually done in the digital domain by a software algorithm, as part of a suite of microscope image processing techniques. Deconvolution is also practical to sharpen images that suffer from fast motion or jiggles during capturing. Early Hubble Space Telescope images were distorted by a flawed mirror and were sharpened by deconvolution.

The usual method is to assume that the optical path through the instrument is optically perfect, convolved with a point spread function (PSF), that is, a mathematical function that describes the distortion in terms of the pathway a theoretical point source of light (or other waves) takes through the instrument. [4] Usually, such a point source contributes a small area of fuzziness to the final image. If this function can be determined, it is then a matter of computing its inverse or complementary function, and convolving the acquired image with that. The result is the original, undistorted image.

In practice, finding the true PSF is impossible, and usually an approximation of it is used, theoretically calculated [5] or based on some experimental estimation by using known probes. Real optics may also have different PSFs at different focal and spatial locations, and the PSF may be non-linear. The accuracy of the approximation of the PSF will dictate the final result. Different algorithms can be employed to give better results, at the price of being more computationally intensive. Since the original convolution discards data, some algorithms use additional data acquired at nearby focal points to make up some of the lost information. Regularization in iterative algorithms (as in expectation-maximization algorithms) can be applied to avoid unrealistic solutions.

When the PSF is unknown, it may be possible to deduce it by systematically trying different possible PSFs and assessing whether the image has improved. This procedure is called blind deconvolution. [4] Blind deconvolution is a well-established image restoration technique in astronomy, where the point nature of the objects photographed exposes the PSF thus making it more feasible. It is also used in fluorescence microscopy for image restoration, and in fluorescence spectral imaging for spectral separation of multiple unknown fluorophores. The most common iterative algorithm for the purpose is the Richardson–Lucy deconvolution algorithm the Wiener deconvolution (and approximations) are the most common non-iterative algorithms.

For some specific imaging systems such as laser pulsed terahertz systems, PSF can be modeled mathematically. [7] As a result, as shown in the figure, deconvolution of the modeled PSF and the terahertz image can give a higher resolution representation of the terahertz image.

Radio astronomy Edit

When performing image synthesis in radio interferometry, a specific kind of radio astronomy, one step consists of deconvolving the produced image with the "dirty beam", which is a different name for the point spread function. A commonly used method is the CLEAN algorithm.

Absorption spectra Edit

Deconvolution has been applied extensively to absorption spectra. [8] The Van Cittert algorithm (article in German) may be used. [9]

Fourier transform aspects Edit

Deconvolution maps to division in the Fourier co-domain. This allows deconvolution to be easily applied with experimental data that are subject to a Fourier transform. An example is NMR spectroscopy where the data are recorded in the time domain, but analyzed in the frequency domain. Division of the time-domain data by an exponential function has the effect of reducing the width of Lorenzian lines in the frequency domain.


شاهد الفيديو: الأسئلة المتوقعة في #الامتحانالنظري في تركيا #رخصةالقيادةالتركية #أسئلةامتحانالنظري #فحص (سبتمبر 2022).


تعليقات:

  1. Moogugis

    إذا كانت الفطر فقط تنمو في فمك ، فلن تضطر إلى الذهاب إلى الغابة على الأقل



اكتب رسالة