الفلك

قم بتحويل قيمة RGB بكسل للصورة إلى الحجم المحدد

قم بتحويل قيمة RGB بكسل للصورة إلى الحجم المحدد



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

لقد التقطت صورًا عند تعرضات مختلفة من أماكن مختلفة من كوكبة الجبار. أود أن أجد تأثير الوهج السماوي على الحجم المحدود للنجوم في كوكبة الجبار. كيف يمكنني تقدير القيمة المحددة لأي نجم من قيمة RGB بكسل في الصورة؟


الحجم المحدود لكاميرا CCD.

لتسجيل أضعف النجوم اليوم ، حل التصوير الإلكتروني باستخدام CCD (جهاز مقترن بالشحن) محل التصوير الفلكي العادي. على سبيل المثال ، اكتشف Dennis di Cicco مؤخرًا نجومًا بقوة 15.7 درجة في تعريض مدته 10 ثوانٍ و 0 ثانية أثناء الشفق (S & ampT: أكتوبر 1992 ، الصفحة 395). وبالمثل ، وصل ديفيد سكيلمان إلى 20 درجة في عرض ليلي أطول من الفناء الخلفي لمنزله في لوريل بولاية ماريلاند.

بالرغم من هذه النتائج المذهلة ، فقد توقعها برنامج الكمبيوتر في الصفحة 86. يمكن أن تكون مفيدة إذا كنت تفكر في شراء كاميرا CCD ، أو إذا كان لديك بالفعل واحدة وترغب في تقدير أدائها في مكان جديد. موقع بظروف سماء مختلفة. سأشرح كيف.

أفضل طريقة للتنبؤ بقدرة كاميرا CCD على تسجيل النجوم الباهتة هي النظر إلى نسبة الإشارة إلى الضوضاء (SNR) للنظام - أي الإشارة النجمية مقسومة على جميع مساهمات "الخطأ العشوائي". ستحدد نسبة الإشارة إلى الضوضاء (SNR) المتواضعة وجود نجوم خافتة ، في حين أن نسبة الإشارة إلى الضوضاء (SNR) الأعلى ستسمح بقياس ضوئي دقيق.

تتضمن مصادر الخطأ العشوائي الضوضاء الحرارية والقراءة من كاميرا CCD والضوضاء في خلفية السماء والضوضاء الصادرة عن الإشارة النجمية نفسها. ضع في اعتبارك أن الضوضاء هي المكون المتغير عشوائيًا للإشارة ، وليس قوتها الإجمالية. يمكن طرح متوسط ​​السماء والخلفيات الحرارية أثناء معالجة الصورة ، لكن الضوضاء محكومة بالإحصاءات ولا يمكن إزالتها. في برنامجي ، وحدة قياس كل من الإشارة والضوضاء هي الإلكترون.

تعتمد الإشارة النجمية على كل من التلسكوب الذي تستخدمه والنجم نفسه. يمكنك تحديد فتحة التلسكوب عند تشغيل البرنامج. ثم يقوم بحساب SNR للإشارة النجمية في دائرة مكونة من 3 ثوانٍ قوسية - وهي نموذجية للمناطق الصغيرة التي تدرسها عند النظر إلى صور النجوم على شاشة الكمبيوتر.

تكتشف خوارزمية بسيطة القوة التقريبية لإشارة النجم بالنسبة إلى ثابت ، 2000000 إلكترون في الثانية. يمثل هذا الثابت الإشارة من نجم ذي حجم صفري لوحظ باستخدام تلسكوب 1 بوصة وشريحة CCD نموذجية ، مثل تلك الموجودة في كاميرا ST-6 التابعة لمجموعة Santa Barbara Instrument Group.

في كل مرة تقوم فيها بتشغيل البرنامج ، يسرد الكمبيوتر قيم الإدخال الافتراضية ويمنحك فرصة لتغيير واحدة أو أكثر منها. ثم يقوم بإنشاء جدول قصير لقيم نسبة الإشارة إلى الضوضاء (SNR) لمختلف أوقات وأحجام التعرض.

على سبيل المثال ، يحتاج البرنامج إلى معرفة شدة خلفية السماء في موقع المراقبة الخاص بك ، معبرًا عنها بمقدار نجمي مكافئ لكل ثانية مربعة من القوس. بالنسبة لبيئة صحراوية جبلية بعيدة عن أي ضوء اصطناعي ، قد تكون القيمة 22. ولكن في موقع ريفي عادي تكون القيمة أكثر من 20 ، وبالنسبة لضاحية نموذجية ملوثة بالضوء 18. يحول البرنامج خلفية السماء التي حددتها إلى إجمالي الخلفية داخل دائرة قياس 3 ثوان قوسية في السطر 610.

تحتاج أيضًا إلى إدخال حجم البكسل في ثوانٍ قوسية. يساعد هنا دليل منتج الشركة المصنعة لاتفاقية مكافحة التصحر. ما عليك سوى قسمة عرض البكسل على البعد البؤري الفعال للتلسكوب ، وكلاهما معبر عنه بالمليمترات. ثم اضرب في 206،265 للتحويل من الراديان إلى الثواني القوسية.

يتم توفير ثابتين إضافيتين ، التيار الحراري وضوضاء القراءة في CCD ، من قبل معظم الشركات المصنعة. يحتاج البرنامج إلى الحصول على التيار الحراري بالإلكترونات لكل بكسل في الثانية تحت ظروف المراقبة الفعلية. (تتضاعف هذه القيمة تقريبًا لكل 8 | درجات

درجة حرارة أكثر دفئًا.) يتم التعبير عن ضوضاء القراءة بالإلكترونات لكل بكسل لكل قراءة. إذا كانت الصورة ذات التعريض الطويل هي مجموع عدة إطارات قصيرة ، يتم ضرب ضوضاء القراءة في عدد الإطارات الملتقطة.

لنعد الآن إلى المطالبة التي قدمتها di Cicco. استخدم كاميرا ST-6 على تلسكوب مقاس 11 بوصة يعمل في f / 7 وأجرى تعريضًا لمدة 10 ثوانٍ للكتلة المفتوحة M67 في السرطان. في موقعه في الضواحي على بعد 18 ميلاً من العاصمة بوسطن ، كنت أتوقع ألا تكون السماء المظلمة أفضل من قوتها 18 لكل ثانية قوسية مربعة. ومع ذلك ، فقد قام بالملاحظة في منتصف الليل ، لذا فإن القيمة الأكثر واقعية هي 15. تسرد ورقة مواصفات الكاميرا ضوضاء قراءة تبلغ 40 إلكترونًا لكل بكسل ، ويعمل حجم البكسل ليكون 2.6 ثانية قوسية في تلسكوبه.

عند إدخال هذه القيم في البرنامج ، نحصل على مثال الإخراج المعطى. كقاعدة عامة ، لكي تكون صورة النجم الباهت مقنعة ، يجب أن تكون نسبة الإشارة إلى الضوضاء (SNR) حوالي 3 أو أعلى. استيفاء في الجدول بين القدر 15 و 16 لتعريض مدته 10 ثوانٍ ، نرى أن ادعاءه بأنه اكتشف نجمًا بقوة 15.7 درجة مدعوم بالفعل من قبل البرنامج.

اكتشف سكيلمان أنه يستطيع تسجيل النجوم التي تبلغ قوتها 20 درجة عن طريق التعريض لمدة ساعة تقريبًا من خلال تلسكوب 12 1/2 بوصة. تعد كاميرته المنزلية كاشفًا مثاليًا تقريبًا ، مما يعني أن النجم والسماء هما المساهمان الوحيدان في نسبة الإشارة إلى الضوضاء (SNR) ولا توجد في الأساس قراءات أو ضوضاء حرارية.

في حالة سكيلمان ، ينتج البرنامج قيمة SNR تبلغ حوالي 5 لنجم 20 درجة ، مما يؤدي مرة أخرى إلى تكرار النتيجة المرصودة. يبدو أن هذه المقارنات والمقارنات الأخرى التي أجريتها تؤكد صحة البرنامج.

إذن ، ما الذي يُظهره تحليل نسبة الإشارة إلى الضوضاء (SNR)؟ النتيجة الأكثر إثارة للدهشة بالنسبة لي هي المستوى الذي تصبح فيه الإشارة النجمية قابلة للاكتشاف مقارنة بمصادر الخلفية. يوضح الرسمان البيانيان الموجودان أعلى اليسار هذه النقطة. باستخدام تلسكوب 8 بوصات نموذجي ، يصبح النجم الذي تبلغ قوته 17.5 درجة قابلاً للاكتشاف في غضون دقائق قليلة من التعرض على الرغم من أن الخلفية الحرارية أقوى 57 مرة من النجم نفسه!

في الواقع ، مع وجود كاميرا CCD عادية TABULAR DATA OMITTED ، يشير تحليل الضوضاء إلى أنه لن تكون هناك ميزة كبيرة لوضع التلسكوب في مكان مظلم للغاية. يسود هذا الموقف غير المنطقي لأن الضوضاء تهيمن عليها المساهمات الحرارية والقراءات ، وليس خلفية السماء. يعتبر الطرح الدقيق للتيار الحراري أثناء معالجة الصورة أكثر أهمية من العثور على أغمق سماء ممكنة. مع وجود كاشف مثالي ، ستكون السماء هي العامل المحدد وستسمح السماء المظلمة بتسجيل نجوم أكثر خفوتًا.

تجدر الإشارة أيضًا إلى أن نسبة الإشارة إلى الضوضاء (SNR) تزداد خطيًا مع فتحة التلسكوب (لنسبة f / معينة) ، ولكن فقط كجذر تربيعي لوقت التعرض. وبالتالي ، فإن تلسكوب 10 بوصات f / 5 يحقق تلقائيًا ضعف SNR من 5 بوصات. يمكن تحقيق الشيء نفسه مع نطاق 5 بوصات باستخدام تعريض أطول أربع مرات.

أخيرًا ، لإجراء قياس ضوئي دقيق باستخدام CCD يتطلب نسبة SNR أعلى بكثير للحصول على نتائج مفيدة علميًا. قاعدة بسيطة هي أن جودة القياس تساوي معكوس قيمة SNR. على سبيل المثال ، افترض أنك تريد قياس سطوع نجم بدقة 1 بالمائة ، أي ما يعادل 0.01 درجة. نظرًا لأن الدقة هي مجرد إمكانية التكرار في سلسلة من القياسات ، فستحتاج إلى نسبة SNR تزيد عن 100.

من السهل أيضًا استكشاف ملاءمة CCD للقياس الضوئي مع هذا البرنامج. على سبيل المثال ، إذا كنت تخطط لاستخدام مرشح V للقيام بقياس الضوء UBV ، فيجب تغيير ثابت إشارة النجوم من 2،000،000 إلى 300،000 إلكترون في الثانية لمراعاة أن بعض الضوء يمتص بواسطة الفلتر. أيضًا ، من الممارسات الضوئية الجيدة اعتماد دائرة قياس 6 ثوانٍ قوسية حول كل نجم.

تُظهر التجارب بهذه القيم أن القياس الضوئي الدقيق لنجم قوته العاشرة يجب أن يكون سهلاً باستخدام تلسكوب 8 بوصات. ولكن للوصول إلى الحجم 12.5 يتطلب تعريضات طويلة جدًا ما لم تكن ضوضاء الكاميرا منخفضة جدًا. النجوم التي تبلغ قوتها 15 درجة بعيدة عن متناول الجميع ما عدا أفضل الكاميرات والتلسكوبات الكبيرة لأوقات التعرض التي تقل عن ليلة طويلة.


مقدمة

الأول هو تغطية التطورات في معرفتنا ومعداتنا وتقنياتنا بعمق ، دون أن تكون تقنيًا للغاية ، والتي آمل أن تكون موضع اهتمام جميع علماء الفلك الهواة.

والثاني هو إضافة محتوى الكتب التي تم نشرها مؤخرًا بواسطة مطبعة جامعة كامبريدج ، وبالتالي الحفاظ عليها محدثة بشكل كامل.

يكتب المؤلف أيضًا دليلًا لكل شهر & # 8217s سماء نصف الكرة الشمالي. فقط أدخل: http://www.jb.man.ac.uk/astronomy/nightsky/

تمت إضافة الصفحات الحديثة إلى الملخص

الأحدث: حل اللوحة باستخدام سماعة يتم التحكم فيها & # 8216goto & # 8217 Telescope mount & # 8211 imaging M81. الآن محدث ببرنامج كمبيوتر مفيد.

Star Hopping مع تلسكوب & # 8216goto & # 8217 & # 8211 M87 وسلسلة Markarian & # 8217s

تصوير القمر بكاميرا Altair Astro Hypercam 294c PRO TEC

تم تصوير مجرات الربيع مع شميت نيوتوني

تصوير سديم H-alpha بكاميرا CMOS أسترو أو DSLR معدلة أو كاميرا عديمة المرآة

اختيار كاميرا CMOS & # 8216Astro & # 8217 لتصوير السماء العميقة

هيدروجين ألفا و RGB التصوير المركب & # 8211 سديم روزيت ورأس الحصان

أفكار حول تلسكوب جبل (2) و (3)

دروسا تعليمية عن التصوير الفلكي للصور الملتقطة (1) و (2)

عاكسات TS-Optics 90 مم APO

برامج المحاذاة والتكدس: Sequator و Deep Sky Stacker و Siril و Images Plus و Affinity Photo و Astro Pixel Processor

أفكار حول التصوير الشمسي

أود أن أهدي هذا الموقع إلى Rod Mollise الذي كانت منشوراته في & # 8216Uncle Rod & # 8217s Astro Blog & # 8217 ، لسنوات عديدة ، مصدر إلهام كبير بالنسبة لي.

ايان موريسون FRAS هو عالم فلك و عالم الفيزياء الفلكية الذي شغل منصب أستاذ جريشام الخامس والثلاثين لعلم الفلك. على الرغم من كونه عالم فلك لاسلكي من حيث المهنة ، فهو الآن في عامه الرابع والخمسين في مرصد Jodrell Bank التابع لجامعة مانشستر ، إلا أنه كان فلكيًا بصريًا هواةًا متحمسًا منذ أن صنع أول تلسكوب بسيط به عدسات أعطاها له طبيب العيون عندما كان في 11 أو 12. في عام 1990 ، ساعد في تأسيس جمعية Macclesfield للفلك والتي أصبح راعياً لها الآن وهو رئيس سابق لجمعية المملكة المتحدة و 8217 لعلم الفلك الشعبي ، ويعمل الآن كمستشار للأدوات والتصوير. يكتب عمودًا عاديًا & # 8216Telescope Topics & # 8217 لـ & # 8216Popular Astronomy & # 8217 وقد قدم العديد من المساهمات في المجلات & # 8216Sky at Night & # 8217 و & # 8216Astronomy Now & # 8217.

تظهر كتبه الأخيرة التي نشرتها مطبعة جامعة كامبريدج أدناه ويمكن شراؤها جميعًا من Blackwell & # 8217s ، ما عليك سوى البحث عن & # 8216Ian Morison & # 8217.

كتاب يهدف إلى سد الفجوة بين كتب المبتدئين والكتب المتخصصة حول موضوعات علم الفلك العملي الفردي.

كتاب يستند إلى محاضرات المؤلف & # 8217s Gresham في علم الفلك.

كتاب يغطي جميع جوانب التصوير الفلكي.

[الصورة الافتتاحية للمجرة M33 في المثلث. تم التقاطها عن بعد باستخدام ASA 8-inch Newtonian Astrograph الموجود في إسبانيا. تم وصف الحصول على البيانات ومعالجة الصور المستخدمة لتحقيق هذه الصورة في & # 8216An Amateurs Guide & # 8230 & # 8217 و & # 8216 The Art of Astrophotography & # 8217.]


حجج الإدخال

& # 8212 إدخال صورة بتدرج الرمادي مصفوفة

أدخل صورة ذات تدرج رمادي ، محدد كمصفوفة. يمكن أن تكون الصورة ذات التدرج الرمادي أي نوع بيانات رقمي.

أنواع البيانات: واحد | مزدوج | int8 | int16 | int32 | int64 | uint8 | uint16 | uint32 | uint64 | منطقي

RGB & # 8212 إدخال صورة ملونة حقيقية م-بواسطة-ن- مجموعة 3

أدخل صورة truecolor ، المحددة كملف م-بواسطة-ن-by-3 مجموعة.

إذا حددت صورة حقيقية من نوع البيانات مفردة أو مزدوجة ، فيجب أن تكون القيم في النطاق [0 ، 1]. إذا كانت قيم البكسل خارج هذا النطاق ، فيمكنك استخدام وظيفة إعادة القياس لقياس قيم البكسل إلى النطاق [0 ، 1]. لا يكون للوسيطة "DisplayRange" أي تأثير عندما تكون صورة الإدخال حقيقية.

أنواع البيانات: واحد | مزدوج | uint8 | uint16

BW & # 8212 إدخال صورة ثنائية مصفوفة

أدخل صورة ثنائية ، محددة كمصفوفة.

أنواع البيانات: منطقي

X & # 8212 صورة مفهرسة صفيف ثنائي الأبعاد للقيم الرقمية الحقيقية

صورة مفهرسة ، محددة كمصفوفة ثنائية الأبعاد من القيم الرقمية الحقيقية. القيم في X هي مؤشرات في خريطة الألوان المحددة بواسطة الخريطة.

أنواع البيانات: واحد | مزدوج | uint8 | منطقي

خريطة & # 8212 خريطة الألوان ج- مجموعة 3

Colormap ، المحدد كملف ج-by-3 مصفوفة من النوع مفرد أو مزدوج في النطاق [0 1] ، أو أ ج- مجموعة من 3 من النوع uint8. يحدد كل صف قيمة لون RGB.

أنواع البيانات: واحد | مزدوج | uint8

& # 8212 اسم الملف ناقلات حرف

اسم الملف المحدد كمتجه حرف. يجب أن تكون الصورة قابلة للقراءة بواسطة imread. تعرض وظيفة imshow الصورة ، لكنها لا تخزن بيانات الصورة في مساحة عمل MATLAB & # x00AE. إذا كان الملف يحتوي على صور متعددة ، يعرض imshow الصورة الأولى في الملف.

مثال: imshow ('peppers.png')

أنواع البيانات: شار

[ارتفاع منخفض] & # 8212 نطاق عرض الصور بتدرج الرمادي متجه ثنائي العنصر

نطاق عرض الصور بتدرج الرمادي ، محدد كمتجه ثنائي العنصر. لمزيد من المعلومات ، راجع وسيطة زوج الاسم والقيمة "DisplayRange".

مثال: [50 250]

أنواع البيانات: واحد | مزدوج | int8 | int16 | int32 | int64 | uint8 | uint16 | uint32 | uint64

RI & # 8212 2-D كائن مرجعي مكاني مرتبط بصورة الإدخال كائن imref2d

كائن مرجعي مكاني ثنائي الأبعاد مرتبط بإدخال صورة ، محدد ككائن imref2d.

RX & # 8212 2-D كائن مرجعي مكاني مرتبط بصورة مفهرسة كائن imref2d

كائن مرجعي مكاني ثنائي الأبعاد مرتبط بصورة مفهرسة ، محدد ككائن imref2d.

وسيطات زوج الاسم والقيمة

حدد أزواجًا اختيارية مفصولة بفواصل من وسيطات الاسم والقيمة. الاسم هو اسم الوسيطة والقيمة هي القيمة المقابلة. يجب أن يظهر الاسم داخل علامات الاقتباس. يمكنك تحديد عدة وسيطات لزوج الاسم والقيمة بأي ترتيب مثل Name1 و Value1. الاسم N ، القيمة

مثال: imshow ('board.tif'، 'Border'، 'tight')

"الحدود" & # 8212 شكل مساحة حد النافذة "فضفاض" (افتراضي) | 'مشدود'

مساحة حدود نافذة الشكل ، محددة كزوج مفصول بفاصلة يتكون من "Border" وإما "ضيق" أو "فضفاض". عند الضبط على "فضفاض" ، تتضمن نافذة الشكل مساحة حول الصورة في الشكل. عند الضبط على "ضيق" ، لا تتضمن نافذة الشكل أي مساحة حول الصورة في الشكل.

إذا كانت الصورة صغيرة جدًا أو إذا كان الشكل يحتوي على كائنات أخرى بجانب الصورة ومحاورها ، فقد يستخدم imshow حدًا بغض النظر عن كيفية تعيين هذه المعلمة.

مثال: imshow ('board.tif'، 'Border'، 'tight')

أنواع البيانات: شار

"خريطة الألوان" & # 8212 خريطة الألوان ج- 3 مصفوفة

Colormap ، المحدد كزوج مفصول بفاصلة يتكون من "Colormap" و a ج- 3 مصفوفة بقيم في النطاق [0 ، 1]. يستخدم imshow هذا لتعيين خريطة الألوان للمحاور. استخدم هذه المعلمة لعرض الصور ذات التدرج الرمادي بألوان زائفة. إذا قمت بتحديد مخطط لون فارغ ([]) ، فإن imshow يتجاهل هذه المعلمة.

بدءًا من R2016b ، يغير imshow مخطط الألوان للمحاور التي تحتوي على الصورة بدلاً من الشكل.

مثال: newmap = Copper imshow ('board.tif'، 'Colormap'، newmap)

أنواع البيانات: مزدوج

نطاق عرض الصور "DisplayRange" & # 8212 Grayscale متجه ثنائي العنصر | []

نطاق عرض صورة ذات تدرج رمادي ، محدد كمتجه ثنائي العنصر للنموذج [منخفض مرتفع]. تعرض وظيفة imshow القيمة المنخفضة (وأي قيمة أقل من منخفضة) باللون الأسود ، وتعرض القيمة عالية (وأي قيمة أكبر من عالية) باللون الأبيض. يتم عرض القيم بين منخفض وعالي كظلال متوسطة من الرمادي ، باستخدام العدد الافتراضي لمستويات الرمادي.

إذا قمت بتحديد مصفوفة فارغة ([]) ، فإن imshow يستخدم نطاق عرض [min (I (:)) max (I (:))]. بمعنى آخر ، الحد الأدنى للقيمة في I هو الأسود ، والحد الأقصى للقيمة هو الأبيض.

إذا لم تحدد نطاق عرض ، فسيحدد imshow نطاق عرض افتراضيًا بناءً على نوع بيانات الصورة.

إذا كانت I عبارة عن نوع عدد صحيح ، فإن DisplayRange يتم تعيين القيم الافتراضية للحد الأدنى والحد الأقصى للقيم القابلة للتمثيل لفئة العدد الصحيح. على سبيل المثال ، نطاق العرض الافتراضي لصفائف uint16 هو [0 ، 65535].

إذا كان نوع البيانات I مفردًا أو مزدوجًا ، فإن نطاق العرض الافتراضي هو [0 ، 1].

يعد تضمين اسم المعلمة اختياريًا ، إلا عندما يتم تحديد الصورة بواسطة اسم ملف. صيغة imshow (I، [low high]) تكافئ imshow (I، 'DisplayRange'، [low high]). إذا قمت باستدعاء imshow باسم ملف ، فيجب عليك تحديد معلمة "DisplayRange".

مثال: imshow (I، "DisplayRange"، [0 80])

أنواع البيانات: واحد | مزدوج | int8 | int16 | int32 | int64 | uint8 | uint16 | uint32 | uint64

"InitialMagnification" & # 8212 التكبير الأولي لعرض الصورة 100 (افتراضي) | عددي رقمي | 'نحيف'

التكبير الأولي لعرض الصورة ، المحدد كزوج مفصول بفواصل يتكون من "تكبير مبدئي" وقياس رقمي أو "ملائم". إذا تم التعيين على 100 ، فسيعرض imshow الصورة بنسبة تكبير 100٪ (بكسل شاشة واحد لكل بكسل صورة). إذا تم التعيين على "احتواء" ، فسيقيس imshow الصورة بأكملها لتناسب النافذة.

في البداية ، يحاول imshow عرض الصورة بأكملها بالتكبير المحدد. إذا كانت قيمة التكبير كبيرة جدًا بحيث لا يمكن عرض الصورة على الشاشة ، فإن imshow يعرض الصورة بأكبر تكبير يناسب الشاشة.

إذا تم عرض الصورة في شكل مع تعيين خاصية "WindowStyle" الخاصة بها على "docked" ، فستعرض imshow الصورة بأكبر تكبير يناسب الشكل.

ملاحظة: إذا قمت بتحديد موضع المحاور ، فإن imshow تتجاهل أي تكبير أولي ربما تكون قد حددته وتتحول إلى سلوك "الملاءمة" افتراضيًا.

عند استخدام imshow مع المعلمة "تقليل" ، يجب أن يكون التكبير الأولي "مناسبًا".

في MATLAB Online & # x2122 ، تم ضبط "InitialMagnification" على "ملائم" ولا يمكن تغييره.

مثال: h = imshow (I، 'InitialMagnification'، 'fit')

أنواع البيانات: واحد | مزدوج | int8 | int16 | int32 | int64 | uint8 | uint16 | uint32 | uint64 | شار

"الاستيفاء" & # 8212 تقنية الاستيفاء "الأقرب" (افتراضي) | "ثنائي الخطي"

تقنية الاستيفاء المستخدمة عند قياس الصورة ، المحددة كزوج مفصول بفاصلة يتكون من "الإقحام" وإحدى هذه القيم.

قيمةوصف
"الأقرب" أقرب استيفاء جار (افتراضي). قيمة البكسل الموجود في ( x , ذ ) هي قيمة البكسل الأقرب إلى ( x , ذ ) في الصورة الأصلية.
"ثنائي الخطي" الاستيفاء الخطي. قيمة البكسل الموجود في ( x , ذ ) هو متوسط ​​مرجح لوحدات البكسل المحيطة في الصورة الأصلية.

يتم تطبيق تقنية الاستيفاء على التكبير الأولي وعند تكبير أو تصغير الصورة المعروضة.

"الأصل" & # 8212 المحاور الأصلية لكائن الصورة كائن المحاور | كائن UIAxes

المحاور الأصلية لكائن الصورة ، محددة كزوج مفصول بفاصلة يتكون من "الأصل" وكائن محاور أو كائن UIAxes. استخدم وسيطة قيمة الاسم "الأصل" لإنشاء واجهة مستخدم تمنحك التحكم في خصائص الشكل والمحاور.

مؤشر "تقليل" & # 8212 للاختزال صحيح | خطأ | 1 | 0

مؤشر لأخذ عينات فرعية للصورة ، محدد كزوج مفصول بفاصلة يتكون من "تقليل" وإما صواب أو خطأ أو 1 أو 0. هذه الوسيطة صالحة فقط عند استخدامها مع اسم ملف TIFF. استخدم الوسيطة Reduce لعرض لمحات عامة عن الصور الكبيرة جدًا.

أنواع البيانات: منطقي

حدود 'XData' & # 8212 X-axis لنظام الإحداثيات غير الافتراضي متجه ثنائي العنصر

حدود المحور X لنظام الإحداثيات غير الافتراضي ، المحددة كزوج مفصول بفاصلة يتكون من 'XData' ومتجه ثنائي العنصر. تنشئ هذه الوسيطة نظام إحداثيات مكاني غير افتراضي عن طريق تحديد الصورة XData. يمكن أن تحتوي القيمة على أكثر من عنصرين ، لكن imshow تستخدم فقط العنصرين الأول والأخير.

مثال: "XData"، [100200]

أنواع البيانات: واحد | مزدوج | int8 | int16 | int32 | int64 | uint8 | uint16 | uint32 | uint64

حدود 'YData' & # 8212 Y لنظام الإحداثيات غير الافتراضي متجه ثنائي العنصر

حدود المحور Y لنظام الإحداثيات غير الافتراضي ، المحددة كزوج مفصول بفاصلة يتكون من 'YData' ومتجه ثنائي العنصر. يمكن أن تحتوي القيمة على أكثر من عنصرين ، لكن imshow تستخدم فقط العنصرين الأول والأخير.

مثال: "YData"، [100200]

أنواع البيانات: واحد | مزدوج | int8 | int16 | int32 | int64 | uint8 | uint16 | uint32 | uint64


اختبار كاميرا CCD العلمية 532ws من QSI

تبدأ حكايتنا في اجتماع جمعية العلوم الفلكية ، الذي يعقد كل عام قبل RTMC في بيج بير ، كاليفورنيا ، عندما التقيت كيفن نيلسون. كيفن هو مؤسس ومدير التسويق لشركة Quantum Scientific Imaging. في منطقة البائعين ، كان كيفن يعرض خط شركته & # 146s الجديد من كاميرات التصوير العلمي. أخرج دفترًا وأظهر لي بفخر تحويل فورييه لإطار متحيز & # 151 والذي لفت انتباهي حقًا. لماذا ا؟ نظرًا لأن إطارات التحيز حساسة لضوضاء النظام وتكشف تحويلات فورييه عن كل مشكلة & # 151 وكان يُظهر نتائج اختبار هندسي داخلي. لا يتمكن العملاء عادة من رؤية أشياء من هذا القبيل. كنت منبهرا.

التقط كيفن اهتمامي ، وسألني عما إذا كنت على استعداد لاختبار وتقييم كاميرا 532ws الجديدة. كما يوحي اسم الشركة & # 146s ، فإن QSI تصنع كاميرات CCD للبحث العلمي ، لذلك اعتقدت أن منتجاتها يجب أن تكون جيدة بشكل معقول. ولأنني أدركت أن كيفن يريدني فعلاً أن أقوم بتقييم جاد ومتطلب للكاميرا الجديدة ، وافقت على القيام بذلك.

وصول QSI 532ws

وصلت كاميرا الاختبار في منتصف يوليو. كان انطباعي الأولي عند استلام الكاميرا إيجابيًا للغاية. وصلت في صندوق مزدوج قوي ، كان بداخله علبة Pelican محكمة الغلق تحتوي على كاميرا اختبار (S / N # 502137) ، ومصدر طاقة ، وكابلات USB 2.0 وكابلات توجيه ، ومحول T-mount إلى 2 بوصة ، ومجموعة من Allen مفاتيح ، بالإضافة إلى مبادل حراري سائل اختياري للتبريد في الصيف. كان كل شيء مفروشًا بشكل مريح في القواطع الرغوية (الشكل 1).

تعتمد كاميرا QSI & # 146s 532ws على Kodak & # 146s 3.2-megapixel KAF-3200ME CCD. يحتوي CCD هذا على 6.8 ميكرون بكسل مربع في مجموعة 2184 × 1472 ، ويتميز بكفاءة كمومية قصوى تبلغ 80 ٪ أو أعلى. تم تكوين الكاميرا لعمل صور بمنطقة مسح زائد ، وهي شائعة في كاميرات البيانات العلمية ولكنها نادرة في كاميرات التصوير الخاصة بالهواة.

الآن ربما تتساءل لماذا ، بصفتي عالم فلك هاوٍ ، أردت اختبار كاميرا & # 147science & # 148؟ الإجابة هي أنه نظرًا لأن التطبيقات العلمية تتطلب المزيد من CCD أكثر من تصوير الهواة ، فقد توقعت أداءً عامًا أفضل. يمكن أن تكون كاميرات الهواة صاخبة وتعرض عيوبًا شديدة إلى حد ما قبل أن تتداخل هذه العيوب بشكل خطير مع التقاط صور لسديم الجبار & # 151 ، لكن يجب أن تفي كاميرا التصوير العلمي بمعايير أعلى. كنت أرغب في الحصول على كاميرا تقوم بعمل جيد على الأشياء الباهتة حقًا ، والتي توفر برامج ثابتة وإلكترونيات بجودة احترافية ، وكاميرا لن تقف في طريق التقاط بيانات رائعة أو التقاط صور رائعة.

كانت كاميرا الاختبار نموذجًا 532ws. تقدم QSI الموديل 532 في نوعين ، 532 ثانية (مع مصراع ميكانيكي) ، و 532 واط (مع مصراع ميكانيكي وعجلة مرشح ألوان داخلية بخمسة مواضع). تأتي عجلة المرشح في كاميرا الاختبار مليئة بمرشحات الألوان Astronomik LRGB Type IIc. في الحجم ، يبلغ طول 532ws 4 × 4 بوصات وعمق 532 بوصة أرق إلى حد ما. على جانب واحد توجد مآخذ الطاقة و USB 2.0 ومآخذ التحكم في الدليل. يمكنك الاطلاع على مواصفات جميع كاميرات QSI & # 146s على http://www.qsimaging.com/.

سارت عملية الإعداد بسلاسة. بالحديث ككاتب / محرر محترف ، سأمنح الدليل الذي يأتي مع 532ws أعلى الدرجات للوضوح. إنه مكتوب بشكل جيد وموضح بشكل جيد وكامل. باستخدامها كدليل ، من المحتمل ألا يواجه أي شخص لم يسبق له إعداد واستخدام كاميرا CCD من قبل أي مشاكل. يمكنك تنزيل الدليل من موقع QSI & # 146s على الويب ، و # 146s مستند PDF بحجم 2.0 ميجا بايت.

جلب وصول الكاميرا معها موجة طويلة من الطقس الغائم و # 151 طقس مثالي للاختبار! قمت بإعداد الكاميرا في الداخل وقمت بتصوير المئات من إطارات التحيز والإطارات الداكنة وإطارات الحقول المسطحة ذات الصندوق الخفيف. سيسمح لي ذلك بقياس خصائص الأداء الأساسية للكاميرا & # 146s (انظر الشريط الجانبي: اختبار الأداء لكاميرا CCD).

كسب ، ضوضاء القراءة ، والتيار المظلم

تحدد الشركة المصنعة للكاميرا الكسب لتعظيم أداء الكاميرا الذي تحتاجه لمعرفة الكسب لتحويل قيم البكسل في صورك إلى عدد الفوتونات المكتشفة. يضيف CCD ضوضاء قراءة كلما انخفض ، كان ذلك أفضل. والتيار المظلم هو إشارة طفيلية تولدها CCD نفسها أقل أفضل.

في كتيب معالجة الصور الفلكية (أنا وجيم بورنيل ، نشرته شركة Willmann-Bell، Inc. على http://www.willbell.com) خصصنا فصلًا (& # 147Measuring CCD Performance & # 148) لهذا الموضوع ، لذلك فزت & # 146t أكرر التفاصيل الفنية هنا. يكفي أن نقول أنه من خلال أخذ إطارين متحيزين وإطارين مسطّحين وإطار مظلم طويل التعريض ، يمكن لأي شخص تحديد الكسب وضوضاء القراءة والتيار المظلم لكاميرا CCD.

علاوة على ذلك، دليل معالجة الصور الفلكية يأتي مع برنامج معالجة كامل الميزات ، معالجة الصور الفلكية لنظام التشغيل Windows ، يسمى AIP4Win لفترة قصيرة. يشتمل برنامج AIP4Win على أداة معايرة CCD ، لذا لا تحتاج إلى الكفاح من خلال الرياضيات. ما عليك سوى تحديد الانحياز والإطار المسطح والإطار الداكن ، ثم النقر للحصول على النتائج.

كان اكتساب كاميرا الاختبار 1.33 إلكترونًا لكل وحدة ADU ، وكانت ضوضاء القراءة الخاصة بها 10.5 إلكترونًا جذر متوسط ​​المربع ، ومتوسط ​​تيار مظلم يبلغ 0.08 إلكترونًا لكل بكسل في الثانية عند درجة حرارة تشغيل تبلغ 0 درجة مئوية.

هذه أرقام ممتازة. تحدد Kodak ضوضاء قراءة بين 7 و 12 إلكترونًا r.m.s. بالنسبة لكاميرا KAF-3200ME ، فإن كاميرا QSI و Kodak CCD تفي بمواصفات Kodak & # 146s. سأقول المزيد عن التيار المظلم لاحقًا في هذه القصة ، يكفي أن أقول هنا أن الإطارات المظلمة أصبحت أكثر إثارة للاهتمام & # 151 وأفضل كثيرًا & # 151 مما توقعته.

بمجرد حصولك على ضوضاء الكسب والقراءة ، يمكنك حساب معلمتين أساسيتين: إشارة التشبع والنطاق الديناميكي.

يحدث التشبع عندما يصل العد في جامعة أبوظبي إلى 65535. Kodak & # 146s هو الحد الأدنى المحدد لإشارة التشبع في الإلكترونات 50000 إلكترون ، وصلت كاميرا الاختبار إلى التشبع عند 49300 إلكترون. لقد سألت QSI عن هذا: لاستيعاب سعة سجل التحول الأفقي لـ 2x2 binning ، يحدد QSI الكسب مرتفعًا إلى حد ما لتوفير المفاضلة المثلى بين التشبع والنطاق الديناميكي عندما يتم إهمال CCD. يفيد هذا القرار الهندسي علماء الفلك الهواة الذين يلتقطون صورًا ملونة ، ولا يؤثر بشكل كبير على مواصفات تشبع Kodak & # 146s.

النطاق الديناميكي هو النسبة بين الإشارة القصوى وضوضاء القراءة في كاميرا الاختبار ، وكانت النسبة 4930: 1. يفكر المهندسون أحيانًا بالديسيبل في كاميرا الاختبار ، النطاق الديناميكي هو 73.8 ديسيبل ، أي أفضل من مواصفات Kodak & # 146s التي تبلغ 72 ديسيبل.

حسنًا ، هذا هو & # 146s الكثير من الأرقام & # 151 ، وضوضاء القراءة ، والتيار المظلم ، وإشارة التشبع ، والنطاق الديناميكي! بقياسها في اليوم الأول الذي امتلكت فيه الكاميرا ، فعلت ما كان سيفعله أي عالم فلك محترف: لقد ميزت الكاميرا. بنهاية اليوم الأول ، علمت أن كاميرا QSI و KAF-3200ME CCD تفي بالمواصفات ، ومن المرجح أن تعمل بشكل جيد للغاية على النجوم.

بعد العمل مع التقييم QSI 532ws لمدة عشرة أسابيع أخرى ، طلبت واحدة لنفسي. عندما وصلت (S / N # 502314) ، كان أول شيء فعلته هو قياس المعلمات الأساسية: لقد خرجت متطابقة تقريبًا مع تلك الخاصة بالكاميرا الاختبارية. بعد ذلك بوقت قصير ، تلقى صديقه QSI 532ws ، واختبر بنفس المعايير الأساسية. يجب أن أقول إنني معجب بتناسق منتج QSI & # 146s ، وأنا شخصيًا مسرور جدًا لأن الكاميرا الخاصة بي تختبر كل شيء بجودة كاميرا التقييم.

تحليل إطارات التحيز QSI 532ws

تكشف إطارات التحيز عن جوانب دقيقة من & quot؛ الشخصية & quot في الكاميرا والتي تحدث فرقًا كبيرًا عند محاولة التقاط الصور في الحد الأقصى. إطارات التحيز حساسة بشكل رائع للضوضاء من إلكترونيات الكاميرا المعيبة ، والحماية الضعيفة من تداخل الترددات الراديوية ، والتأريض الخاطئ ، ومجموعة من المشكلات الأخرى. وإذا ظهر تشويش في إطار التحيز ، فيمكنك التأكد من أن كل صورة تلتقطها & # 151 درجات ، ومسطحات ، وصور & # 151 ستكون صاخبة أيضًا.

ما أثار إعجابي في النظر إلى كتلة البيانات التي جمعتها هو أن صور QSI 532ws & # 146 نظيفة بشكل استثنائي وخالية من أدوات القراءة. نظرًا لأنني أكتب برامج معالجة الصور وأجمع عينات من الصور كلما أمكن ذلك ، فقد رأيت إطارات متحيزة من العديد من كاميرات CCD المختلفة.

يجب أن تكون إطارات التحيز مسطحة تمامًا ، ولا تظهر أي ميزات على الإطلاق باستثناء الاختلاف العشوائي من بكسل إلى بكسل بسبب ضوضاء القراءة. في الواقع ، تنتج العديد من الكاميرات إطارات منحازة بخطوط أفقية شبه عشوائية وأنماط رأسية ، بالإضافة إلى عدد قليل (أو في بعض الأحيان العديد) من الأعمدة الداكنة أو الفاتحة. مجتمعة ، تسمى هذه القطع الأثرية ضوضاء النمط. في بعض الكاميرات ، يكون النمط هو نفسه في كل إطار تحيز في الآخر ، ويختلف النمط في كل إطار تحيز. يعد تكرار ضوضاء النمط أفضل من تغيير ضوضاء النمط ، ولكن كل ضوضاء النمط سيئة. يشير ضوضاء النمط إلى الاختصارات أو المشكلات التي لم يتم حلها في تصميم أو بناء كاميرا CCD.

ومع ذلك ، بدت إطارات التحيز QSI 532ws & # 146 قريبة جدًا من المثالية لدرجة أنني شعرت بالدهشة. يوضح الشكل 2 إطار تحيز نموذجي. يُظهر الرسم البياني لإطارات التحيز ضوضاء غاوسية نقية مع انحراف معياري قدره 10.5 إلكترون جذر متوسط ​​التربيع ، أي أنها أظهرت ضوضاء قراءات عشوائية نقية.

ومع ذلك ، لم أكن مقتنعًا بالقول إن إطارات التحيز من QSI 532ws كانت مثالية. بعد كل شيء ، كل كلب لديه بعض البراغيث. للتغلب على ضوضاء القراءة والكشف عن أي ضوضاء صغيرة متبقية قد تكون موجودة ، جمعت مئات إطارات التحيز. يظهر متوسط ​​sigma-clipped 256 إطارًا متحيزًا في الشكل 3.

في الشكل ، تم تقليل ضوضاء القراءة إلى حوالي 0.65 إلكترون جذر متوسط ​​التربيع. يمكنك رؤية ضوضاء النمط على أنها تخدد عمودي دقيق من خلال متوسط ​​256 صفًا ، قمت بقياس أنماط شبه عشوائية لها سعة 0.2 إلكترون ، أو حوالي 2 ٪ من ضوضاء القراءة ، كما هو موضح في الشكل 4. هذا صغير بشكل ملحوظ مقارنة بأي شيء رأيته في إطارات التحيز من الكاميرات الأخرى في بعض ، ضوضاء النمط أكبر من ضوضاء القراءة.

بعد العثور على هذه البقايا الصغيرة وقياسها ، يمكنني القول أنه بالنسبة لجميع المقاصد والأغراض العملية ، فإن إطارات التحيز لاختبار QSI 532ws مثالية في الكتب المدرسية. وعندما وصلت 532ws الخاصة بي ، كانت إطارات التحيز جيدة تمامًا.

لقد ذكرت سابقًا أن كاميرا الاختبار QSI 532ws قد تم تكوينها مع منطقة مسح ضوئي. في الكاميرات العلمية ، يتم تضمين منطقة مسح ضوئي لأنها توفر رؤية قيمة لتشغيل الكاميرا و CCD. بعد تسجيل منطقة الصورة في CCD ، تتوقف الإلكترونيات عن تسجيل سجلات التحول الرأسي ولكنها تستمر في تسجيل سجل الإزاحة الأفقية. في الكاميرا الاختبارية ، كان هناك 400 عمود إضافي على الجانب الأيمن من الصورة. تحتوي هذه الأعمدة على قيم بكسل أقل وتشويش أقل من منطقة إطار التحيز المقروء من منطقة الصورة في CCD. التباين العشوائي في المسح الزائد هو في الواقع & # 147 صحيح & # 148 ضوضاء القراءة ، حيث قاس 8.1 إلكترون جذر متوسط ​​التربيع. في كاميرا الاختبار (مقابل 10.5 إلكترونات جذر متوسط ​​التربيع في منطقة الصورة). يؤدي ذلك إلى وضع & # 147true & # 148 ضوضاء القراءة في كاميرا الاختبار عند الطرف المنخفض من النطاق المحدد لـ Kodak & # 146s من 7 إلى 12 إلكترونًا r.m.s.

أثناء قياس عدد كبير من إطارات التحيز ، لاحظت أن القيمة المتوسطة للصورة بأكملها تتغير أحيانًا بزائد أو ناقص وحدة ADU واحدة. هذا هو ضوضاء الكمي. It comes about because the analog signal from the CCD’s on-chip amplifier is converted to an integer value, and then auto-zeroed to a fixed value. Quantization noise adds approximately 0.5 electrons r.m.s. of random noise to the signal, and auto-zeroing quantization noise is present only when you combine a large number of images.

Quantization noise is present in all digital imaging systems. In the QSI 532ws, quantization noise (0.5 electrons r.m.s.) is negligibly small compared to readout noise (10.5 electrons r.m.s.) and shot noise (often a few hundred electrons r.m.s.). I detected quantization noise only because I set out to measure every source of noise I could find.

Analysis of QSI 532ws Dark Frames and Dark Current

The first thing I checked was the stability of the 532ws’ temperature. Dark current depends strongly on temperature, typically doubling every 6 degrees Celsius. If the CCD temperature oscillates around the set point temperature, dark frames have either more or less dark current the those taken at the nominal set point temperature. If you combine multiple dark frames at slightly different temperatures, in effect you’re hoping that the highs and lows will average out. Even if this is true, temperature oscillation contributes unwanted noise to your images.

The QSI 532ws has a thermoelectric cooler. When you turn on the cooler, the camera cools rapidly, reaches the set point temperature, and then stays right at that temperature without oscillation above and below the set point. In checking over 500 dark frames, I found only two in which the CCD temperature did not equal the set point temperature, and then by only 0.2 degrees. I was quite satisfied with the stability of the 532ws’ temperature control. Dark frames I took in July worked perfectly with images that I shot in September.

Dark current in the KAF-3200ME CCD proved more interesting than I expected. Dark current is a property of the CCD itself aside from providing a stable thermal environment, the camera has nothing to do with the dark current. In the olden days, every pixel was a hot pixel. On the KAF-3200ME CCDs in the QSI cameras that I tested, the vast bulk of pixels had such low dark current that it was difficult to measure accurately.

To get an accurate measurement of the dark current at a working temperature of -20 Celsius, I had to resort to extreme measures. I shot a sequence of 256 bias frames and 256 dark frames with an exposure of 60 seconds. Using AIP4Win’s Sigma-Clip Files function, I combined these into a master bias and a master dark frame, then subtracted the bias from the dark to create a master 㦨-second thermal frame.” A histogram (shown in Figure 5 ) produced by AIP4Win’s Pixel Tool shows that 99.8% of the pixels follow a Gaussian distribution, with a long-tailed distribution toward higher values.

In this image of 3,124,848 pixels, one pixel had a pixel value 5995 ADU, 18 pixels had values >1000 ADU, 119 pixels had values >100 ADU, 2931 pixels had values >10 ADU, and 5982 pixels (0.2%) had values >3.5 ADU. The remaining 3,208,866 pixels lie in a Gaussian peak centered at 0.265 ADU, and of those pixels, 46% lay within 0.5 ADU of the peak value.

Converted to electron units, the hottest hot pixel had a dark current of 130 electrons/pixel/second, while the mean dark current for all pixels was 0.006 electrons/pixel/second. In practical terms, the dark current at -20C for 99.8% of the pixels on the CCD proved so small as to be negligible. Out of a total of 3.2 million pixels on this CCD, only

6000 hot pixels displayed significant dark current.

With this in mind, I examined the behavior of “good pixels.” I made sets of bias frames and accompanying dark frames with exposures up to 1000 seconds. Using the Pixel Tool in AIP4Win, I measured mean pixel values of the bias frames and the 1000-second dark frames in a region that was entirely free of hot pixels. The results are shown in Figure 6 . Best-fit fourth-order curves represent these data well. At temperatures of -15C and lower, dark frames nearly match the values found in bias frames.

Converting the difference between the 1000-second dark frames and the bias frames to dark current yields the following mean dark current for a region free of hot pixels:


Examples: print resolution, scan resolution and image size in practice

I want to print a picture for the photo album, 13 x 18 cm, with good quality. How big does the resolution have to be in pixels?

A good quality picture for a photo album is printed at 300 dpi. To calculate the resolution in megapixels, multiply the number of pixels of length and width and divide them by mega (1 million).

pixel x = 300 dpi * 13 mm / 25.4 mm = 1535 pixel

pixel y = 300 dpi * 18 mm / 25.4 mm = 2126 pixel

resolution = 1535 px * 2126 px / 1`000`000 = 3.3 Mpx

I have an image with 3264 x 2448 pixels and would like to print it as a poster. How big can I print the poster?

In contrast to a small picture in the photo album, the poster does not have to have a high pixel density, as this is viewed from a greater distance and the pixels become smaller for the eye. Approx. 100 dpi is recommended for a poster.

length = 3264 px * 2.54 cm / 100 dpi = 83 cm

width = 2448 px * 2.54 cm / 100 dpi = 62 cm

I would like to scan slides and present them with a slide show on the television. Screen TV 40 inches Resolution: 1,920 x 1,080 pixels. How big does the scan resolution have to be?

The dimensions of a slide are 36 x 24 mm, so the aspect ratio does not match that of the television (television = 16: 9 slide = 3: 2). We only calculate the pixel density of the height of the image, as this is the limiting measure.

dpi = 1080 px * 25.4 mm / 24 mm = 1143 dpi

Resulting image size horizontally in the correct aspect ratio:

pixel = 1143 dpi * 36 mm / 25.4 mm = 1620 pixel

I would like to print a poster of 900 x 600 mm with the maximum resolution from a slide. How good will the quality be in "dpi"?

The maximum resolution of the scanner is 4000dpi, a slide has the dimensions of 36 x 24 mm. After you have calculated the number of pixels, you can use the dimensions of the poster to calculate the pixel density.


Storing methods

This is about how you store the pixel values. You can select the color space and the data type used. The color space refers to how we combine color components in order to code a given color. The simplest one is the grayscale where the colors at our disposal are black and white. The combination of these allows us to create many shades of gray.

ل colorful ways we have a lot more methods to choose from. Each of them breaks it down to three or four basic components and we can use the combination of these to create the others. The most popular one is RGB, mainly because this is also how our eye builds up colors. Its base colors are red, green and blue. To code the transparency of a color sometimes a fourth element: alpha (A) is added.

There are, however, many other color systems each with their own advantages:

  • RGB is the most common as our eyes use something similar, however keep in mind that OpenCV standard display system composes colors using the BGR color space (red and blue channels are swapped places).
  • The HSV and HLS decompose colors into their hue, saturation and value/luminance components, which is a more natural way for us to describe colors. You might, for example, dismiss the last component, making your algorithm less sensible to the light conditions of the input image.
  • YCrCb is used by the popular JPEG image format.
  • CIE L*a*b* is a perceptually uniform color space, which comes in handy if you need to measure the مسافه: بعد of a given color to another color.

Each of the building components has its own valid domains. This leads to the data type used. How we store a component defines the control we have over its domain. The smallest data type possible is char, which means one byte or 8 bits. This may be unsigned (so can store values from 0 to 255) or signed (values from -127 to +127). Although in case of three components this already gives 16 million possible colors to represent (like in case of RGB) we may acquire an even finer control by using the float (4 byte = 32 bit) or double (8 byte = 64 bit) data types for each component. Nevertheless, remember that increasing the size of a component also increases the size of the whole picture in the memory.


Convert RGB pixel value of an image to limiting magnitude - Astronomy

Computer Vision based
Ball Catcher

Capturing:
To capture the video we use a Logitech webcam. The resolution is 320 x 240 pixels RGB color image. Our client program is written in Java, and employs the Java Media Framework (JMF). In this program we connect to the webcam input stream to pipe in the video and create a media player to process capture each frame as it comes in. Once a frame is captured it is sent to be processed and filtered.

Ball Detection:
In order to detect the ball we must go through a multi-stage process. The general idea in the process is to convert the image to grayscale, determine the region of interest (ROI), canny edge detect, and then perform a circular Hough transform.

The first step is to convert the image to grayscale. When we get the initial image is of 0-255 RGB value in an array of size 320 x 240. To convert, we loop through this array and perform an RGB to grayscale conversion with the following code:

After we have converted the image to grayscale, the next thing we want to do is define the region of interest. In our setup we want the region of interest to be everything that pertains to the black sheet. Due to variations in lighting, the fact that surrounding bodies may have colors of the same as the sheet, and other issues, determining the black sheet is not as easy as a simple black thresholding. In order to calculate the region of interest, we first have to make a few assumptions. One assumption is that what the camera is currently looking at should be dominated by the black sheet, and that at the bottom of the cameras view we will always see the black sheet.

To account for the lighting in any given situation we take five regions in the image. They are centered in the top, bottom, left, right, and center of the image. Each region is 7 x 7 pixels big, and the average values of these pixels are computed. We then take the highest and lowest average values and throw them out. Out of the three remaining regions, we take the average of their values. This value is what we believe to be representative of the black colored sheet in any lighting.

After we have the hypothesized average pixel value of the black sheet we then compute the Sobel operator in both the X and Y directions to compute the gradients of the gray scale image. Next, using assumption number two that the bottom center of the camera will always be in the black region we implement a recursive function that starts at this point and searches for other similar intensity pixels and marks them as the black sheet or not. The way this works is that it moves to the right checking to see if the pixel value is within a percentage of the average and that the X and Y gradients are less than a possible edge value (because we don&rsquot want to continue off the edge of the sheet or into the ball). Once it cannot go right, it searches up, then left, and then down. The recursive search effectively marks the entire black sheet as the black sheet, with very little error. However, to account for some error, and to compute the polygon region of interest, we have to perform the following steps. The algorithm then starts in the bottom left of the image, and moves to the right, until it finds the third marked pixel as a sheet and adds that to its edge list. Then it moves up until the top of the image. Once it reaches the top it performs the same steps, but not starting from the left side and moving to the left until it reaches its third marked pixels to set as an edge for the polygon. After this is all complete, we have defined what we believe to be the black sheet.

The next step in finding the ball is to perform edge detection on the image. Our method of edge detection is a Canny edge detector. This edge detector works by first convolving the image with a Gaussian slight blurring filter. This helps to remove noise from the image that could give false edges, while preserving dominant edge structure. Next, it calculates the X and Y gradients using the Sobel gradient operators. After this, a gradient magnitude is computed at each point. If the magnitude is greater than a threshold in which we are certain is an edge, it is marked as an edge, and if the magnitude is less than a certain threshold, it is marked as not an edge. For the middle regions, we look in the local region of the pixel to see if it is the greatest for its given direction, and if it is locally the highest, we then mark it as an edge. The end result is an array with two values, one indicating an edge, the other not an edge.

We use a circular Hough transform (CHT) to find the ball in our image. The inputs to the CHT is the Canny edge detector array, a radius value, a threshold, and a region of interest.


A CHT works by going to each pixel marked as an edge and it then traces a circle with the specified radius, centered at that edge. We have another accumulator array that has its array index incremented by one, every time a circle intersects that point. So, if you have a perfectly edge detected image, with a circle of radius R, and you input this to the CHT, you will find that at the center of that circle the accumulator value will be a maximum, because the Hough circles of radius R have interested many times over while being drawn. What we do to find these maximums is to split the image up into 16 x 16 grids and mark all pixels with highest value as a regional max. We then take the regional max pixels and check to see if their accumulator value is greater than the threshold. If it is, we record this point, along with its accumulator value, as a possible circle that could be the ball. The point list, along with the value list is returned at the end of the CHT.

We perform the CHT in a loop where the value of the radius increases from a lower bound to an upper bound, depending on where we believe the ball to be in the image. During each loop we keep track of the highest accumulator value, and its corresponding x and y values and radius. At the end of the loop we have a radius and an X and Y value that is with highest probability a circle in the desired image.

At this point we have determined where in the current image the ball lies and with what radius, assuming a ball is in the region of interest. The next step is the output to the microcontroller a position to move to so that we can catch the ball.

Figure: Shows the general processing steps for a given image, with wanted radius and threshold.


Figure: Shows the basic idea behind how the CHT determines which ball, if any, is the ball we want.

Speed Enhancements:

If we were to perform the ROI calculation, then the Canny edge detection on the entire image, then the CHT on the entire image, the result would be a frame rate of between 2-4 per second. This is not an acceptable value for our real time calculations. Therefore we developed a few techniques to speed up the processing.

First we had to determine what was taking the longest time in our processing. Test benches showed that the Canny edge detector was taking a lot of time to process. There were a few things wrong with how were using the edge detector. First, it was taking as an input an image, and then taking the pixels out of the image into an array. This was unnecessary, because when we determine our ROI, we have created the pixel array. Therefore, we changed the code to just pass in grayscale pixel array. Also, on each iteration, the edge detector was recalculating its kernels. Calculating the kernels only needs to be done on instantiation of the edge detector. Changing this removed unnecessary looping in the code. Also being done, is that it was outputting a binary image as its result, as opposed to a binary array.

Those were enhancements that we made directly to the edge detector, but at the time we were still operating on the entire image at a time and we thought there must be a smarter way. The smarter way we determined was to use the knowledge of previous calculations that produced an X and Y and radius location for the input image. The general idea of our state machine was that if no ball is found, we input the entire 320 x 240 image until a ball is found. When a ball is found, we then check to see what it&rsquos Y location is. If it is in the upper third of the image, on our next iteration we will only Canny edge detect on the top half of the image, thus reducing the number of pixels to operate on in half. If it is in the middle third, we will operate on the middle half of the image (1/4 to 3/4 of the height), and if it is in the bottom third, we will input the bottom half of the input image. We also attempt to input a compressed image by a factor of two (half width and half height) after finding a ball in the ALL region. By separating the images into regions based on where the ball was previously, we were able to get rid of unnecessary edge calculations.

The next limiting factor in our processing is our circular Hough transform. What we had been doing is computing the CHT on the entire input image result from the Canny edge detector, but this was slow. To speed things up, we decided to employ another regional technique. If we had a previous value for the ball&rsquos center and radius, we would make the input to the CHT a rectangular region that has a minimum X and Y of the previous center X and Y minus three times the previous radius, and a maximum X and Y of the previous center X and Y plus three times the radius. This we would box in the previous ball location with a guess of where the ball should be now. If it turns out our guess is wrong, on our next loop we expand the box to encompass the entire input region.

These techniques were much needed and increased our speed significantly. A table of the speed tests is included below. CED stands for Canny Edge Detector (can be fast or normal version). Fast Hough Regional is where we narrow down based on radius. Overall (bolded) you can see that the speed up was approximately 4 times, but we still lose approximately 20 FPS due to processing.


How to capture scientific images of Mars

Find out how to create full-colour images of the Red Planet and capture clouds, rocky features and polar caps.

This competition is now closed

Published: January 28, 2020 at 2:47 pm

Mars is best imaged using a high-frame-rate camera. Around opposition its magnitude is sufficient to allow imaging at low gain and high frame rates, optimal settings for the technique of ‘lucky imaging’.

Under typical seeing conditions, the recommended imaging resolution is 0.25 arcseconds per pixel. This can be extended to, say, 0.1 arcseconds per pixel under exceptional seeing.

Read more ‘Imaging for Science’ articles:

The optimal focal length for this can be derived using the formula:

Focal length = 206.3 x pixel size (microns) ÷ [desired arcsecond per pixel value]

We can simplify that formula to: focal length for 0.25-inch per pixel = 825.2 x pixel size (microns) and focal length for 0.1-inch per pixel = 2,063 x pixel size (microns).

As an example, for a 5.6 micron sensor, 0.25-inch per pixel resolution is achieved at 4,621mm and 0.1-inch per pixel at 11,553mm.

In practical terms these values are guides and the use of optical amplifiers such as Barlows or Powermates to get close to them is sufficient.

Mars rotates every 24h 37m. This means that a feature measuring 0.25 arcseconds at a favourable opposition will move its own width in around four minutes.

For this reason, capture sequences should be completed in under this time to avoid motion blur.

For 0.1 arcseconds resolution the time limit is slightly under two minutes. Monochrome cameras exacerbate this situation if you want full-colour images.

The cumulative time to take red, green and blue images, plus time to change filters and re-focus, needs to be under the resolution time limit.

Imaging Mars with a one-shot colour camera largely removes the constraint. A brighter image – all three channels being delivered at once – allows for faster frame rates and reduced overall capture times.

Low altitude appearances of Mars or any planet will be subject to atmospheric dispersion. This is an atmospheric effect that spreads the light of an object into a spectrum causing colour fringing.

The effect gets worse with diminishing altitude. The use of an atmospheric dispersion corrector is advised to correct this issue.

Hardware & software:

  • High-frame-rate camera
  • RGB imaging filters for use with mono camera
  • Speciality filters, eg, IR-pass
  • Filter wheel
  • Atmospheric dispersion corrector (ADC)
  • Large-aperture, long-focal-length telescope on a driven mount
  • A laptop
  • Capture software, eg, FireCapture or SharpCap
  • Image editor, e.g. GIMP or Photoshop

Using Filters

You can image Mars through filters to isolate specific aspects of its appearance. What kind of camera you’re using will dictate which filters work best.

For example, a monochrome camera with an RGB imaging filter can be used to create full-colour images.

Blue-filtered images are useful for showing clouds in the thin Martian atmosphere. Infrared pass filters also work well with Mars, producing crisp definition between the dark, exposed rock features, lighter deserts and polar caps.

Depending on the sensor response curve, either monochrome or colour cameras may be suitable for use with infrared pass filters.

Step 1 Owing to the time constraints necessary to create a full RGB capture sequence using a monochrome camera, a filter wheel is recommended. Manual or automated versions are available. A re-focus is required after each filter change.

Step 2 A typical full capture sequence should be completed in less than four minutes. Blue typically takes longer because it appears dimmer. Using your capture software’s level indicator, aim to capture at similar peak levels of around 70-80%.

Step 3 Use a registration-stacking application such as AutoStakkert! to process each capture file. The number of stacked frames depends on the sky quality but typically, for a total capture count of 3,000 frames, 10-30% works well.

Step 4 Individually processed frames can be wavelet-sharpened using RegiStax. Once done, an image editor such as GIMP or Photoshop can be used to assemble the individual colour channel results into a full RGB image.

Step 5 IR-pass captures can be processed in the same manner. Using an IR-pass image to increase luminance contrast in an RGB result should be stated on the image, as it may produce a false impression of relative feature intensity.

Step 6 The final image should be presented according to the requirements of the organisation to which you intend to send it. Date, time, observer, instrument detail, location, filters used and image orientation should be shown on the image.

Measuring features with WinJUPOS

Despite its name, WinJUPOS supports all the main planets, the Sun and the Moon. It’s useful for preparing imaging sessions, providing simulated views of features at specific dates and times.

In addition, it has an excellent image measurement system that can be used to pre-prepare images for analysis or subsequent image processing routines such as de-rotation, which effectively allows you to ‘undo’ a planet’s rotation to avoid motion blur.

WinJUPOS can also be used to create maps of Mars during an apparition which you can compare with previous apparitions to see how its surface features are changing.

Step 1 Open WinJUPOS and from the Program menu option click on Celestial Body and select Mars. From the Recording menu option select Image Measurement. In the window that appears, from the Imag. tab, click Open image (F7).

Step 2 Enter image values under the Imag. tab as requested. Select the Adj. tab and ensure the Draw Outline Frame box is ticked. Press F11 (or Outline Frame Automatic detection) to align frame to image.

Step 3 Adjust the outline frame to match Mars’s limb and orientation: arrow keys move the outline N rotates clockwise P rotates counter-clockwise PgUp enlarges PgDn shrinks space bar rotates by 180°. Use LD compensation to brighten the planet’s limb if required.

Step 4 Save as an .IMS (image settings) file via the Imag. tab’s Save button. Repeat for all capture images. It is recommended that once the outline frame has been set, leave it unadjusted for all similar images from the same session.

Step 5 To create a map from several .IMS files, select Analysis Map Computation… Click the Edit button and add the .IMS files to be used. Define where the output file should go in the Map file input box.

Step 6 Select the projection type required – the process is quick enough for experimentation – and press the Compile Map button (F12). WinJUPOS will automatically join .IMS files taken at different dates to provide a more complete picture.

Pete Lawrence is an experienced astrophotographer and a co-host ofThe Sky at Night. This guide originally appeared in the December 2018 issue ofBBC Sky at Night Magazine.


Redeeming Color Planetary Cameras

By: The Editors of Sky & Telescope September 28, 2015 0

Get Articles like this sent to your inbox

Advances in imaging technology should make amateurs give these cameras a second look.
By Dan Llewellyn in the May 2014 issue of Sky & Telescope

Planetary imagers these days routinely produce high-resolution photos of the Sun, Moon, and planets with high-speed video cameras. Most use a monochrome camera with individual color filters to record videos that then are stacked, sharpened, and combined into the final color image. But depending on your interests, you can eliminate the monochrome camera — with its complex filter wheels and expensive filters — and use a color video camera to record some of the highest-quality planetary images around.

Online imaging forums are almost universal in their recommendation to use a monochrome camera with separate red, green, and blue filters instead of a one-shot color (OSC) camera. That’s because color cameras are reputed to produce inherently lower-resolution images due to their filter matrix, known as the Bayer filter. That may have been true a few years ago, but changes in interpolation algorithms, chip sensitivity, and stacking software have made this problem a thing of the past.

Understanding Color Cameras

Both CCDs and CMOS sensors in all digital cameras start their lives as monochrome sensors. In order for a monochrome sensor to produce a color image, two things are necessary: a color filter array (CFA) permanently affixed over the sensor, and software to re-interpret the images as individual color channels. The vast majority of OSC cameras use the Bayer filter, named for its inventor, Bryce Bayer. This 4-pixel block of tiny color filters, arranged in a repeating grid of one red, two green, and one blue pixel over the entire sensor, was designed to mimic the human eye’s response to color and luminosity. The result is an image where 50% of the pixels are recorded though the green filters, 25% are red, and 25% are blue-filtered, all on the same grayscale image.

Your camera’s control software (or your preferred planetary stacking program) then separates the pixels into the three respective color channels and interpolates the “gaps” between the missing pixels on each channel to make a color image. This is where a popular misconception comes into play. A 4-pixel block that only samples one pixel in red should have the red information reduced by 75%, right? Wrong! Each pixel in an OSC camera reports information in all three color channels, regardless of which filter is over the pixel, when the image is run through an advanced debayering algorithm.

Color through Debayering

Digital imaging of the planets burst onto the scene in the early 21st century. Although most practitioners recommend using a high-speed monochrome video camera to take multiple images through color filters in a mechanical filter wheel, few realize it’s easier than ever to take great planetary images. Modern processing algorithms have caught up to color camera technology, enabling you to take images of Jupiter (above), Saturn (below), and Mars (below Saturn) without the need of additional equipment besides your telescope, a camera, and your PC computer.
Dan Llewellyn

A debayering (or demosaicing) algorithm interprets the color information from an OSC camera to reproduce the luminance and chrominance of the imaged target. The oldest, fastest, and worst debayering algorithm for planetary imaging is known as nearest neighbor. It simply takes the missing pixel values from its adjacent pixels. So in a 4-pixel block (2×2 array), the green-filter pixels will copy the red and blue pixels’ luminance values next to it and mix them together to make an RGB value for each green pixel. This is repeated on the red and blue pixels. The process has the unfortunate side effect of producing color fringing, which is enhanced when you sharpen the image.

Dan Llewellyn

Fortunately, today’s high-speed color planetary cameras allow us to avoid the problems of nearest neighbor debayering. The easiest option is to record raw video files and then debayer them later during post-processing. Nothing is done to the values but a straight capture. On most models, this is done by recording using the Y800, Y1600, or FORMAT 7 video codecs.

Another option is to record in raw debayered mode.This feature debayers the video frames directly in your camera, which then streams a color video to your computer’s hard drive. Although this method enables you to use more advanced debayering before stacking, the option produces color video files that are much larger than a raw video and requires that you have a high-speed camera interface and a fast computer processor with lots of memory. (Roughly speaking, you’ll download three times as much data in debayered mode than in raw.)

Dan Llewellyn

Finally, most color camera models offer the option to record videos in “color space debayered” mode. This is done using the codecs RGB, YUV411, 422, or 444. This mode enables you to use a predetermined color space applied to the video stream. I prefer to apply the RGB color space to my videos, although YUV options allow for better separation of luminance and color information in the recorded video. Regardless of the color space you use, each requires adjustment to achieve a neutral color balance, and you must change the debayering method from nearest neighbor before you start recording.

When processing raw bayer-filtered video files, you need a stacking program that gives you options to utilize the newer debayering algorithms, specifically High Quality Linear and Directional Filter. Algorithms such as these are much more effective because they examine both larger blocks (8×8 and larger), rows, and columns of pixels to derive a more accurate trichromatic representation.

The oldest debayer algorithm, known as nearest neighbor, simply looks at the closest adjacent pixels to fill in the missing information. This leads to color artifacts that can significantly degrade your final image (top). Sophisticated newer debayer algorithms, such as HQ Linear, examine a large radius of pixels to more precisely fill in the missing information, which produces a sharper, cleaner result (bottom).
Dan Llewellyn

It should be noted that RegiStax (www.astronomie.be/registax), the venerable go-to program for stacking since the dawn of planetary video stacking, uses the nearest neighbor algorithm exclusively. So if you prefer to stack color videos using RegiStax, you’ll need to debayer the data before stacking. The free camera control software FireCapture (http://firecapture.wonderplanets.de) comes with a stand-alone program called Debayer.exe that rewrites your raw video file using a selection of advanced debayer algorithms. Additionally, the program PIPP (https://sites.google.com/site/astropipp) offers multiple debayer options. For best results, use either of these programs before stacking your video in RegiStax.

Another option for stacking raw videos is the program AutoStakkert!2 (www.autostakkert.com). This program uses the advanced algorithm Bayer drizzle, which doesn’t interpolate at all. Instead, it takes advantage of the drift in planetary videos to fill in the missing spaces between pixels with real data. This method undermines the myth of color cameras producing inherently lower resolution.

Because all images and videos recorded with a color camera are recorded through tiny color filters placed over each pixel (left), a special computer program known as a debayer filter must separate the individually filtered pixels into their respective color channels (center), and then fill in the missing pixels in each color using an interpolation algorithm to create the final color result (right).
S&T: Leah Tiscione

At the Telescope: Using the Histogram

If you decide to image with a color camera, make sure you use the histogram tool when recording your videos. This feature displays a linear measurement of the signal in your video, enabling you to avoid overexposing the brightest regions. The histogram tool is critical for achieving color balance and exposure. If the control software that came with your camera does not have a live histogram tool, I recommend using FireCapture, which supports most popular camera models.

The benefit of using the live histogram is to let you adjust all three color channels to roughly equal levels, so that you can achieve a natural color balance. You’ll thereby set your white point, or color balance, for capture and ultimately produce more natural color-balanced images right from the start.

The histogram tools in FireCapture, IC Capture.AS، و FlyCap display the histogram as the 256 levels of gray on a standard 8-bit video display. Using this scale, I prefer to expose my videos to peak between roughly 64 and 96, or about 25–33% of the histogram. Exposing to much higher levels can lead to overexposure of the brightest areas of your target, which is impossible to recover during post-processing. In order to get the histogram within this range, you need to adjust your exposure. The image will look dim on your laptop monitor, but this is inconsequential: you can brighten the image during stacking

Exposure, Gain, and Frame Rate

Most amateurs using color cameras opt to record their videos in “raw” mode, which simply records the video as if it were a monochrome detector. The resulting image looks like the target was captured through a window screen. Although this option produces the smallest file size, it still requires debayering to convert into a color image.
Dan Llewellyn

Here’s where it’s important to understand the relationship between exposure, gain, and frame rate. You adjust the maximum intensity of the image by varying the exposure of your camera, which is the time the electronic shutter in your camera is exposing each frame. Frame rate is defined as how many pictures the camera can take in a second (fps). So there is an inverse relationship between the camera frame rate and exposure — the higher the frame rate used, the quicker the shutter has to be. This means if you’re using a high frame rate, you’ll need to increase the electronic gain to boost the image signal to keep it properly exposed.

If you keep your older raw color video files recorded using the Y800 video codec, you can debayer it using one of the many pre-processing programs such as Debayer.exe and then re-stack the result in RegiStax. The resulting image is almost always better than your previous attempts.
Dan Llewellyn

But be warned: gain adds electronic noise. For a color camera, you should limit the gain increase to as little as possible. I suggest using a modest frame rate to keep the gain settings low. When imaging through my Celestron C14 and my Point Grey Research Flea3 video camera, I use 15 fps when imaging Saturn, 20 to 30 fps for Jupiter, and 30 to 40 fps when shooting Mars. It’s much easier to stack 1,000 properly exposed video frames with low noise levels than 3,000 noisy, gain-amplified frames.

برغم من RegiStax has long been the go-to program for planetary video stacking, it exclusively uses the nearest neighbor algorithm to debayer raw video files. The result at left is a RegiStax result, whereas the right-half image was debayered using the HQ Linear algorithm found in the program Debayer.exe that comes with FireCapture. Nearly all the small-scale detail is noticeably sharper in the HQ Linear processed image.
Dan Llewellyn

Additional Benefits

Perhaps the biggest advantage to using a color camera is that all the color channels are in focus. There is no need to waste time refocusing each filter, as you must when imaging with monochrome cameras. This is a major advantage when imaging Jupiter, because the planet’s rapid rotation limits you to about 2 minutes of capture — longer, and you’ll lose fine detail in your image due to motion blur.

Color cameras also provide a relatively easy learning curve compared with tri-color imaging, not to mention they avoid the expense of purchasing a filter wheel and a set of color filters. Unless you’re interested in isolating the near-infrared wavelength of methane in Jupiter’s atmosphere, a monochrome camera is simply unnecessary for capturing excellent photos of the planets.

So whether you’re about to try your hand at planetary imaging or you’re contemplating a camera upgrade, consider testing a new color planetary camera yourself. You may find the benefits outweigh any perceived drawbacks.

Dan Llewellyn observes and images the planets from his home in Decatur, Georgia.


شاهد الفيديو: Images, Pixels and RGB (أغسطس 2022).