Досліджено сучасні бази даних біомедичних зображень. Показано, що отримання біомедичних зображень є дорогим і тривалим. Розроблено базу даних зображень передракових і ракових станів молочної залози "BPCI2100". База даних складається із 2100 файлів зображень та MySQL бази даних інформації медичних досліджень (інформація про пацієнта та ознаки зображення). З'ясовано, що ефективним засобом генерування зображень є генеративно-змагальні мережі. Розроблено архітектуру генеративно-змагальної мережі, яка складається із генератора та дискримінатора.
Дискримінатором є глибока згорткова нейромережа, на вхід якої надходять кольорові зображення розміром 128×128 пікселів. Ця мережа складається з шести згорткових шарів із розміром вікна 5×5 пікселів. Використано функцію активації типу Leaky ReLU для згорткових шарів. Для останнього шару використано сигмоїдну функцію активації. Генератором є нейромережа, яка складається з повнозв'язного шару та семи деконволюційних шарів з розміром вікна 5×5 пікселів. Для всіх шарів використано функцію активації Leaky ReLU. Останній шар використовує функцію активації гіперболічний тангенс. Для навчання генеративно-змагальної мережі використано засоби Google Cloud Compute Instance. Проведено генерування гістологічних і цитологічних зображень на підставі генеративно-змагальної мережі. Внаслідок значно збільшено навчальну вибірку для класифікаторів. Оригінальні гістологічні зображення поділені на 5 класів, цитологічні зображення – на 4 класи. Розмір оригінальної вибірки для гістологічних зображень становить 91 зображення, для цитологічних ‒ 78 зображень. Навчальні вибірки було розширено до 1000 зображень шляхом афінних перетворень (зсув, масштабування, поворот, відображення).
Навчання класифікатора на оригінальній вибірці дало точність ≈84 % для гістологічних та ≈75 % для цитологічних зображень. На вибірці зі згенерованих зображень вихідна точність класифікації становить ≈96,5 % для гістологічних та ≈95,5 для цитологічних зображень. Приріст точності становить ≈12 % для гістологічних та ≈20,5 % для цитологічних зображень. Проведена класифікація гістологічних і цитологічних зображень показала, що приріст точності класифікації становить ≈12 % для гістологічних та ≈20,5 % для цитологічних зображень. Комп'ютерні експерименти показали, що тривалість навчання генеративно-змагальної мережі для гістологічних зображень становить ≈9 год, для цитологічних ‒ ≈8,5 год. Перспективами подальших досліджень є розпаралелення алгоритмів навчання генеративно-змагальних мереж.
[1] American Society. (2019). Online atlas of the American Society for Cytopathology. Retrieved from: https://bethesda.soc.wisc.edu/. (Date of appeal: September 2019). [In Ukrainian].
[2] Benchmark dataset. (2019). UCSB Bio-Segmentation Benchmark dataset for testing computer vision algorithms, including segmentation and classification. Retrieved from: https://bioimage.ucsb.edu/research/bio-segmentation. (Date of appeal: September 2019). [In Ukrainian].
[3] Berezsky, O. M., Batko, Y. M., Berezka, K. M., Verbovyi, S. O., et al. (2017). Methods, algorithms and software for processing biomedical images. Ternopil: Economic Thought, TNEU, 350 p. [In Ukrainian].
[4] Berezsky, O. M., Melnyk, G. M., Nikolyuk, V. D., & Datsko, T. V. (2013). Database of digital histological and cytological images of various forms of breast cancer "CIFDB": Certificate of copyright registration to the work № 52743 of 23.12.2013. [In Ukrainian].
[5] Creswell, Antonia, White, Tom, Dumoulin, Vincent, Arulkumaran, Kai, Sengupta, Biswa, & Bharath, Anil A. (2018). Generative Adversarial Networks, an overview, (pp. 53–65). https://doi.org/10.1109/MSP.2017.2765202.
[6] Fine-needle Aspirate. (2019). Breast Cancer Wisconsin (Diagnostic) Data Set. The signs were obtained from digitized images of the Fine-needle Aspirate (FNA) breast tissue. The features reflect the characteristics of the cell nuclei. Retrieved from: http://archive.ics.uci.edu/ml/datasets/Breast+Cancer+Wisconsin+%28Diagnostic29 (Date of appeal: September 2019). [In Ukrainian].
[7] Frid-Adar, M., Idit Diamant, Eyal Khang, Michal Amitai, Jacob Goldberger and Hayit Greenspan. (2018). GAN-based Synthetic Medical Image Augmentation for increased CNN Performance in Liver Lesion Classification, (pp. 321–331). https://doi.org/10.1016/j.neucom.2018.09.013
[8] Guibas, John T., Virdi, Tejpal S., & Li, Peter S. (2017). Synthetic Medical Images from Dual Generative Adversarial Networks. 31st Conference on Neural Information Processing Systems (NIPS2017) and LongBeach and CA and USA, (p. 9).
[9] He Zhao, Huiqi Li, Sebastian Maurer-Stroh, & Li Cheng. (2018). Synthesizing Retinal and Neuronal Images with Generative. Adversarial Nets, journal = {Medical Image Analysis}, chapter= {49}, S1361-8415(18)30459-6. , (pp. 14–26). https://doi.org/10.1016/j.media.2018.07.001.
[10] Histology Guide. (2019). Virtual histology laboratory: Histology Guide. Retrieved from: http://www.histologyguide.com/index.html (Date of appeal: September 2019). [In Ukrainian].
[11] Kansas School. (2019). Histological online atlas for laboratory and cell biology courses at the University of Kansas School of Medicine. Retrieved from: http://www.kumc.edu/instruction/medicine/anatomy/hisoweb/index.html (Date of appeal: September 2019). [In Ukrainian].
[12] Kazeminiaa, Salome, Baurb, Christoph, Kuijperc, Arjan, Innekend, Bramvan, Navabb, Nassir, Albarqouni, Shadi, Mukhopadhyaya, Anirban. (2018). GANs for Medical Image Analysis", journal = {Department of Computer Science and TU Darmstadt and Germany Computer Aided Medical Procedures (CAMP) and TU Munich Germany}, (pp. 1–41).
[13] Lucas Theis. (2016). Lucas Theis Aaron "van den Oord y University of Tubingen" Ghent University 72072 Tubingen, Matthias Bethge, "A Note On The Evaluation Of Generative Models", Published as a conference paper at ICLR 2016, arXiv:1511.01844v3 [stat. ML] 24 Apr 2016, p. 10.
[14] Salimans, Tim, Goodfellow, Ian, Zaremba, Wojciech, Cheung, Vicki, Radford, Alec, & Chen, Xi. (2016). Improved Techniques for Training GANs. In arXiv, (pp. 2234–2242).
[15] Xian Wu, Kun Xu, & Peter Hall. (2017). A Survey of Image Synthesis and Editing with Generative Adversarial Networks. Tsinghua science and technology, 15. ISSNll1007-0214ll09/15llpp660-674.