グローバルナビゲーションへ

本文へ

フッターへ



研究業績


学術論文(査読有)
  1. Yasuda, Sota, Sendilkkumaar, Indrapriyadarsini, Ninomiya, Hiroshi, Kamio, Takeshi and Asai, Hideki:"addHessian: Combining quasi-Newton method with first-order method for neural network training", IEICE NOLTA, vol.13-N, issue 2, pp.361-366, Apr., 2022.
  2. Mahboubi, Shahrzad, Yamatomi, Ryo, Sendilkkumaar, Indrapriyadarsini, Ninomiya, Hiroshi, and Asai, Hideki:"On the Study of Memory-Less quasi-Newton Method with Momentum Term for Neural Network Training", IEICE NOLTA, vol.13-N, issue 2, pp.271-276, Apr., 2022.
  3. Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, Kamio Takeshi, and Asai, Hideki:"Accelerating Symmetric Rank-1 Quasi-Newton Method with Nesterov’s Gradient for Training Neural Networks", Algorithms, MDPI, 2022, Vol.15, issue 1, 6, https://doi.org/10.3390/a15010006, Jan., 2022.
  4. Mahboubi, Shahrzad, Sendilkkumaar, Indrapriyadarsini, Ninomiya, Hiroshi, and Asai, Hideki:"Momentum Acceleration of quasi-Newton based Optimization Technique for Neural Network Training", IEICE NOLTA, vol.12-N, issue 3, pp.554-574, July, 2021.
  5. Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, Kamio Takeshi, and Asai, Hideki:"A Nesterov’s Accelerated quasi-Newton method for Global Routing using Deep Reinforcement Learning", IEICE NOLTA, vol.12-N, issue 3, pp.323-335, July, 2021.
  6. Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, and Asai, Hideki:"aSNAQ : An Adaptive Stochastic Nesterov’s Accelerated Quasi-Newton Method for Training RNNs", IEICE NOLTA, vol.11, issue 4, pp.409-421, Oct., 2020.
  7. Mahboubi, Shahrzad, Sendilkkumaar, Indrapriyadarsini,Ninomiya, Hiroshi,and Asai, Hideki:"A Robust quasi-Newton Training with Adaptive Momentum for Microwave Circuit Models in Neural Networks", Journal of Signal Processing, vol. 24, no. 1, pp.11-17, Jan., 2020.
  8. Mahboubi, Shahrzad and Ninomiya, H.:"A Novel Training Algorithm based on Limited-Memory quasi-Newton Method with Nesterov’s Accelerated Gradient in Neural Networks and its Application to Highly-Nonlinear Modeling of Microwave Circuit", International Journal On Advances in Software, vol.11, no.3&4, pp.323-334, Dec., 2018.
  9. Ninomiya, H.:"A Novel quasi-Newton-based Optimization for Neural Network Training incorporating Nesterov's Accelerated Gradient", IEICE NOLTA, vol.E8-N, no.4, pp.289-301, Oct., 2017.
  10. Kobayashi, M., Ninomiya, H., Miura, Y., and Watanabe S.:"Reconfigurable Dynamic Logic Circuit Generating t-Term Boolean Functions Based on Double-Gate CNTFETs", IEICE Trans. on Fundamentals., vol.E97-A, no.5, pp.1051-1058, May, 2014.
  11. Ninomiya, H., Kobayashi, M., Miura, Y. and Watanabe S.:"Reconfigurable Circuit Design based on Arithmetic Logic Unit Using Double-Gate CNTFETs", IEICE Trans. on Fundamentals., vol.E97-A, no.2, pp.675-678, Feb., 2014.
  12. Kato, J., Watanabe, S., Ninomiya, H., Kobayashi, M. and Miura, Y.:"Circuit Design of 2-Input Reconfigurable Dynamic Logic Based on Double Gate MOSFETs with Whole Set of 16 Functions", Contemporary Engineering Sciences, vol.7, no.2, pp.87-102, 2014.
  13. Kato, J., Watanabe, S., Ninomiya, H., Kobayashi, M. and Miura, Y.:"Circuit Design of Reconfigurable Dynamic Logic Based on Double Gate CNTFETs Forcusing on Number of States of Back Gate Voltages", Contemporary Engineering Sciences, vol.7, no.1, pp.39-52, 2014.
  14. Kobayashi, M., Ninomiya, H. and Watanabe S.:"Circuit Design of Reconfigurable Logic Based on Double-Gate CNTFETs", IEICE Trans. on Fundamentals., vol.E96-A, no.7, pp.1642-1644, July. 2013.
  15. Ninomiya, H., Kobayashi, M. and Watanabe S.:"Reduced Reconfigurable Logic Circuit Design based on Double Gate CNTFETs using Ambipolar Binary Decision Diagram", IEICE Trans. on Fundamentals., vol.E96-A, no.1, pp.356-359, Jan. 2013.
  16. 阿倍俊和,坂下善彦,二宮 洋:"階層型ニューラルネットワークの学習に対するonline/batch ハイブリッド型準ニュートン法の有効性に関する研究", Journal of Signal Processing, vol.16, no.5, pp.451-458, 2012年9月.
  17. 二宮 洋:"パラメータ化オンライン準ニュートン法による階層型ニューラルネットワークの学習", 信学論A, vol.J95-A, no.8, pp.698-703, 2012年8月.
  18. Ninomiya, H.:"Microwave Neural Network Models Using Improved Online quasi-Newton Training Algorithm", Journal of Signal Processing, vol.15, no.6, pp.483-488, Nov., 2011.
  19. 二宮 洋:"改良型オンライン準ニュートン法によるニューラルネットワークの学習", 信学論A, vol.J93-A, no.12, pp.828-832, 2010年12月.
  20. Ninomiya, H.:"A Hybrid Global/Local Optimization Technique for Robust Training and its Application to Microwave Neural Network Models", Journal of Signal Processing, vol.14, no.3, pp.213-222, May, 2010.
  21. Ninomiya, H., Numayama, K. and Asai, H.:"Two-stage Tabu Search for Nonslicing Floorplan Problem Represented by O-Tree", Journal of Signal Processing, vol. 11, no. 1, pp.17-24, Jan., 2007.
  22. 富田親弘,二宮 洋,浅井秀樹:"不動点ホモとピー法に基づく階層型ニューラルネットワークの学習アルゴリズム", 信学論A, vol.J89-A, no.1, pp.61-66, 2006年1月
  23. Ninomiya, H., Yamagishi, H. and Asai, H.:"Three-Dimensional Module Packing using 3DBSG Structure", Journal of Signal Processing, vol. 9, no. 6, pp.439-445, Nov., 2005.
  24. 吉田昌弘,二宮 洋,浅井秀樹:"階層型ニューラルネットワークの汎化能力向上を目的とした逐次最小二乗ローカル学習法", Journal of Signal Processing, vol. 9, no. 1, pp.79-86, 2005年
  25. Yoneyama, T., Ninomiya, H. and Asai, H.:"Design Method of Neural Networks for Limit Cycle Generator by Linear Programming", IEICE Trans. on Fundamentals., vol.E84-A, no.2, pp.688-692, Feb.2001
  26. Kamo, A., Ninomiya, H., Yoneyama, T. and Asai, H.:"A Fast Neural Network Simulator for State Transition analysis", IEICE Trans. on Fundamentals., vol.E82-A, no.9, pp.1796-1801, Sept. 1999
  27. Ninomiya, H., Kamo, A., Yoneyama, T. and Asai, H.:"A Fast Algorithm for Spatiotemporal Pattern Analysis of Neural Networks with Multivalued Logic", IEICE Trans. on Fundamentals., vol.E81-A, no.9, pp.1847-1852, Sept. 1998
  28. Yamamoto, H., Ninomiya, H. and Asai, H.:"A Neuro-Based Optimization Algorithm for Rectangular Puzzles", IEICE Trans. on Fundamentals., vol.E81-A, no.6, pp.1112-1118, June 1998
  29. 二宮 洋, 中山武司, 浅井秀樹:"アナログニューラルネットワークによる接触検出関数を用いたタイリング問題の解法", 電子情報通信学会論文誌, A分冊(信学論A), vol.J80-A, no.11, pp.1951-1959, 1997年11月
  30. Yamamoto, H., Nakayama, T., Ninomiya, H. and Asai, H.:"Neuro-Based Optimization Algorithm for Three Dimensional Puzzles", IEICE Trans. on Fundamentals., vol.E80-A, no.6, pp.1049-1054, June 1997
  31. Ninomiya, H. and Asai, H.:"Neural Networks for Digital Sequential Circuits", IEICE Trans. on Fundamentals., vol.E77-A, no.12, pp. 2112-2115, Dec. 1994
  32. Kamio, T., Ninomiya, H. and Asai, H. :"A Neural Net Approach to Discrete Walsh Transform" IEICE Trans. on Fundamentals., vol.E77-A, no.11, pp. 1882-1886, Nov. 1994
  33. Ninomiya, H. and Asai, H.:"Design and Simulation of Neural Network Digital Sequential Circuits", The institute of Electronic, Information and Communication Engineers Transactions on Fundamentals of Electronics, Communications and Computer Sciences(IEICE Trans. on Fundamentals), vol.E77-A, no.6, pp.968-976, June 1994
国際会議プロシーディングス(査読有)
  1. R. Yamatomi, S. Mahboubi and H. Ninomiya , “Generative Model of Suitable Meme Sentences for Images Using AutoEncoder”, Proc. PRICAI, Vol. 14325, Springer, Singapore, pp. 237~248, Nov. 2023.
  2. S. Mahboubi, R. Yamatomi, Y. Samejima and H. Ninomiya, “A Study on Accelerating of Inertial Newton Algorithm for Neural Network Training”, Proc. All World Conference on Smart Trends in Systems, Security and Sustainability(WorldS4) 2023, Lecture Notes in Networks and Systems, vol 803. Springer, Singapore, pp. 177~186, Aug. 2023.(London)
  3. Mahboubi, Shahrzad and Ninomiya, Hiroshi:"Weight Difference Propagation for Stochastic Gradient Descent Learning", Proc. IARIA The Eighteenth International Multi-Conference on Computing in the Global Information Technology, ICCGI 2023, pp.12-17, March, 2023. (Virtual, Barcelona, Spain)
  4. Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, Takeshi Kamio and Asai, Hideki.:"A Stochatic Momentum Accelerated quasi-Newton Method for Neural Networks", Proc. 36th AAAI (Association for the Advancement of Artificial Intelligence) Conference on Artificial Intellegence, AAAI-2022, pp.12973-12974, Feb. 2022,
  5. Mahboubi, Shahrzad, Yamatomi, Ryo, Sendilkkumaar, Indrapriyadarsini, Ninomiya, Hiroshi,and Asai, Hideki:"On the Study of Memory-Less quasi-Newton Method with Momentum Term for Neural Network Training", Proc. 2021 IEICE Nonlinear Science Workshop (IEICE/NSW2021), Dec., 2021. (Online)
  6. Yasuda, Sota, Sendilkkumaar, Indrapriyadarsini, Ninomiya, Hiroshi, Kamio, Takeshi, and Asai, Hideki.:"addHessian: Combining quasi-Newton method with first-order method for neural network training", Proc. 2021 IEICE Nonlinear Science Workshop (IEICE/NSW2021), Dec., 2021. (Online)
  7. Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, Takeshi Kamio and Asai, Hideki.:"VLSI Physical Design Automation using Deep Reinforcement Learning", Poster presentation at WiML Workshop co-located with NeurIPS, Dec 2020,
  8. Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, Takeshi Kamio and Asai, Hideki.:"A Nesterov's Accelerated quasi-Newton method for Global Routing using Deep Reinforcement Learning", Proc. NOLTA 2020, pp.251–254, Nov., 2020. (Virtual)
  9. S Indrapriyadarsini, Shahrzad Mahboubi, Hiroshi Ninomiya, Takeshi Kamio, and Hideki Asai:"A Neural Network Approach to Analog Circuit Design Optimization Using Nesterov's Accelerated Quasi-Newton Method", Proc. IEEE/ISCAS 2020, DOI: 10.1109/ISCAS45731.2020.9181152, Oct., 2020. (Virtual, Seville, Spain)
  10. M. D. Sudeera H. Gunathilaka, Mahboubi, Shahrzad and Ninomiya, H.:"Acceleration Technique of Two-Phase Quasi-Newton method with Momentum for Optimization Problem", Proc. IARIA The Twelfth International Conference on Information, Process, and Knowledge Management, eKNOW 2020, pp.17-19, March, 2020. (Virtual, Valencia, Spain)
  11. Yasuda, Sota, Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, and Asai, Hideki.:"A Stochastic Variance Reduced Nesterov’s Accelerated Quasi-Newton Method", Proc. IEEE/ICMLA 2019, pp.1874-1879, Dec., 2019. (Boca Raton, Florida)
  12. Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, and Asai, Hideki.:"An Adaptive Stochastic Nesterov Accelerated Quasi Newton Method for Training RNNs", Proc. NOLTA 2019, pp.208–211, Dec., 2019. (Kuala Lumpur, Malaysia)
  13. Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, and Asai, Hideki.:"A Stochastic Quasi-Newton Method with Nesterov’s Accelerated Gradient", Machine Learning and KnowLedge Discovery in Databases, Lecture Notes in Artificial Intelligence, Springer, and Proc. The European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases, ECML/PKDD 2019, Part I, pp.743-760, Sept., 2019. (Würzburg, Germany)
  14. Mahboubi, Shahrzad, Sendilkkumaar, Indrapriyadarsini,Ninomiya, Hiroshi,and Asai, Hideki:"Momentum acceleration of quasi-Newton Training for Neural Networks", Proc. The 16th Pacific Rim International Conference on Artificial Intelligence, PRICAI 2019, pp.268–281, Aug., 2019. (Yanuca Island, Cuvu, Fiji)
  15. Sendilkkumaar, Indrapriyadarsini, Mahboubi, Shahrzad and Ninomiya, Hiroshi, and Asai, Hideki.:"Implementation of a modified Nesterov's Accelerated quasi-Newton Method on Tensorflow", Proc. IEEE/ICMLA 2018, pp.1147-1154, Dec., 2018. (Orlando, Florida)
  16. Mahboubi, Shahrzad and Ninomiya, H.:"A Novel Quasi-Newton with Momentum Training for Microwave Circuit Models Using Neural Networks", Proc. IEEE/ICECS 2018, pp.629-632, Dec., 2018. (Bordeaux, FRANCE)
  17. Mahboubi, Shahrzad and Ninomiya, H.:"A Novel Training Algorithm based on Limited-Memory quasi-Newton Method with Nesterov's Accelerated Gradient for Neural Networks", Proc. IARIA The Tenth International Conference on Future Computational Technologies and Applications, FUTURE COMPUTING 2018, pp.1-3, Feb., 2018. (Barcelona, Spain)
  18. Ninomiya, H.:"Neural Network Training based on quasi-Newton Method using Nesterov’s Accelerated Gradient", Proc. IEEE TENCON 2016, pp.51-54, Nov., 2016. (Singapore)
  19. Ninomiya, H.:"A Novel quasi-Newton-based Training using Nesterov's Accelerated Gradient for Neural Networks", Proc. 2016 International Conference on Artificial Neural Networks (ICANN'16), Part II, LNCS 9887, pp.540, Sep., 2016. (Barcelona, Spain)
  20. Ninomiya, H.:"Distributed Robust Training of Multilayer Neural Netwroks Using Normalized Risk-Averting Error", Proc. 2014 IEEE Symposium Series on Computational Intelligence (IEEE/SSCI'14, IEEE/CCMB'14), pp.134-140, Dec., 2014. (Orlando, Florida)
  21. Kobayashi, M., Ninomiya, H., Miura, Y., and Watanabe, S.:"DRDLC Generating t-Term Boolean Functions Based on DG-CNTFETs", Proc. 2014 RISP International Workshop on Nonlinear Circuits, Communications and Signal Processing (NCSP'14), pp.81-84, March, 2014. (Honolulu, Hawaii)
  22. Miura, Y., Ninomiya, H., Kobayashi, M. and Watanabe, S.:"An Universal Logic-Circuit with Flip Flop Circuit Based on DG-CNTFET", Proc. 2013 IEEE Pacific Rim Conference on Communications, Computers and Signal Processing (PacRim13), pp.148-152, Aug., 2013. (Victoria, Canada)
  23. Ninomiya, H.:"Dynamic Sample Size Selection based quasi-Newton Training for Highly Nonlinear Function Approximation using Multilayer Neural Networks", Proc. IEEE&INNS/IJCNN'13, pp.1932-1937, Aug., 2013. (Dallas, TX)
  24. Ninomiya, H.:"Dynamic Sample Size Selection in Improved Online quasi-Newton Method for Robust Training of Feedforward Neural Networks", The Fifth International Conference on Advanced Cognitive Technologies and Applications (COGNITIVE2013), May, 2013. (Valencia, Spain)
  25. Kobayashi, M., Ninomiya, H., Matsushima, T., and Hirasawa, S.:"ALinear Time ADMM Decoding for LDPC Codes over MIMO Channels", Proc. 2013 RISP International Workshop on Nonlinear Circuits, Communications and Signal Processing (NCSP'13), pp.185-188, March, 2013. (The Island of Hawaii, Hawaii)
  26. Kobayashi, M., Ninomiya, H., Matsushima, T., and Hirasawa, S.:"An Error Probability Estimation of the Document Classification Using Markov Model", Proc. 2012 International Symposium on Information Theory and its Applications (ISITA'12), pp.712-716, Oct., 2012. (Honolulu, Hawaii)
  27. Ninomiya, H.:"Parameterized Online quasi-Newton Training for High-Nonlinearity Function Approximation using Multilayer Neural Networks", Proc. IEEE&INNS/IJCNN'11, pp.2770-2777, Aug., 2011. (San Jose, California)
  28. Ninomiya, H.:"An Improved Online quasi-Newton Method for Robust Training and its application to Microwave Neural Network Models", Proc. IEEE&INNS/IJCNN'10(WCCI'10), pp.792-799, July, 2010. (Barcelona, Spain)
  29. Ninomiya, H.:"A Hybrid Global/Local Optimization Technique for Robust Training of Microwave Neural Network Models", Proc. IEEE/CEC'09(2009 IEEE Congress on Evolutionary Computation), pp.2956-2962, May, 2009. (Trondheim, Norway)
  30. Ninomiya, H., Wan, S., Kabir, H., Zhang, X., and Zhang, Q.J.:"Robust training of microwave nrural neteork models using combined global/local optimization techniques", Digest 2008 IEEE International Microwave Symposium(IEEE/IMS'08), pp.995-998, June, 2008. (Atlanta, Georgia)
  31. Ninomiya, H., Zhang, Q.J.:"Particle with Ability of Local search Swarm Optimization:PALSO for training of feedforward neural networks", Proc. IEEE&INNS/IJCNN'08, pp.3008-3013, June, 2008. (Hong Kong)
  32. Ninomiya, H., Numayama, K. and Asai, H.:"Two-staged Tabu Search for Floorplan Problem Using O-Tree Representation", Proc. IEEE/CEC'06(2006 IEEE World Congress on Computational Intelligence), pp.2733-2739, July, 2006. (Vancouver)
  33. Yamagishi, H., Ninomiya, H. and Asai, H.:"Three Dimensional Module Packing by Simulated Annealing", Proc. IEEE/CEC'05(2005 IEEE Congress on Evolutionary Computation), vol.2 of 3, pp.1069-1074, Sep., 2005. (Edinburgh, Scotland)
  34. Ninomiya, H., Tomita, C. and Asai, H.:"An Efficient Learning Algorithm for Finding Multiple Solutions Based on Fixed-Point Homotopy Method", Proc. IEEE&INNS/IJCNN'05, pp.978-983, July, 2005. (Montreal, Quebec)
  35. Numayama, K., Ninomiya, H. and Asai, H.:"Genetic Method for Floorplan by O-Tree in Consideration of Initial Solution", Proc. NCSP'05(RISP 2005 International Workshop on Nonlinear Circuits and Signal Processing), pp.207-210, March, 2005 (Honolulu, Hawaii)
  36. Yamagishi, H., Ninomiya, H. and Asai, H.:"Three Dimensional Module Packing using 3DBSG Structure", Proc. NCSP'05(RISP 2005 International Workshop on Nonlinear Circuits and Signal Processing), pp.195-198, March, 2005 (Honolulu, Hawaii)
  37. Yoshida, M., Ninomiya, H. and Asai, H.:"Regularizer for Local RLS Training Algorithm of Multilayer Feedforward Neural Networks", Proc. NCSP'04(RISP 2004 International Workshop on Nonlinear Circuits and Signal Processing), pp.137-140, March 2004 (Honolulu, Hawaii)
  38. Tomita, C., Yoshida, M., Ninomiya, H. and Asai, H.:"Note on learning algorithm based on Newton homotopy method for feedforward neural networks", Proc. NCSP'04(RISP 2004 International Workshop on Nonlinear Circuits and Signal Processing), pp.128-132, March 2004 (Honolulu, Hawaii)
  39. Ninomiya, H., Tomita, C. and Asai, H.:"An Efficient Learning Algorithm with Second-Order Convergence for Multilayer Neural Networks", Proc. IEEE&INNS/IJCNN'03, pp.2028-2032, July 2003 (Portland, Oregon)
  40. Ninomiya, H. and Sasaki, A.:"A Study on Generalization Ability of 3-Layer Recurrent Neural Networks", Proc. IEEE&INNS/IJCNN'02, pp.1063-1068, May 2002 (Honolulu, Hawaii)
  41. Ninomiya, H. and Sasaki, A.:"3-Layer Recurrent Neural Networks and their Supervised Learning Algorithm", Proc. IEEE&INNS/IJCNN'01, CD-ROM, July 2001 (Washington D.C.)
  42. Yoneyama, T., Ninomiya, H. and Asai, H.:"Design of Neuro-Based Limit Cycle Generator By Hysteresis Neural Networks", Proc. IEEE&INNS/IJCNN'00, CD-ROM, July 2000
  43. Yoneyama, T., Ninomiya, H. and Asai, H.:"Design of Neuro-Based Limit Cycle Generator Using Linear Programming Method", Proc. NOLTA'99, Nov. 1999
  44. Yoneyama, T., Ninomiya, H. and Asai, H.:"Design method of limit cycle generator by cyclic connected neural networks", Proc. ECCTD(European Conference on Circuit Theory and Design)'99, pp.535-538, Aug. 1999
  45. Yoneyama, T., Ninomiya, H. and Asai, H.:"Design method of neural networks for limit cycle generator", Proc. IEEE&INNS/IJCNN'99, CD-ROM, July 1999 (Washington D.C.)
  46. Ninomiya, H. and Kinoshita, N.:"A New Learning Algorithm without Explicit Error Back-Propagation", Proc. IEEE&INNS/IJCNN'99, CD-ROM, July 1999 (Washington D.C.)
  47. Kamo, A., Ninomiya, H., Yoneyama, T. and Asai, H.:"Neural Network Simulator for Spatiotemporal Pattern Analysis", Proc. IEEE/ICECS'98, vol.2, pp.109-112, Sept. 1998
  48. Kamo, A., Ninomiya, H., Yoneyama, T. and Asai, H.:"A Fast Neural Network Simulator for State Transition analysis", Proc. NOLTA'98, pp.1181-1184, Sept. 1998
  49. Yamamoto, H., Ninomiya, H. and Asai, H.:"Application of Neuro-Based Optimization to 3-D Rectangular Puzzles", Proc. IEEE&INNS/IJCNN'98 (WCCI'98), CD-ROM, May 1998 (Anchorage, Alaska)
  50. Yoneyama, T., Ninomiya, H. and Asai, H.:"Design of 3-valued Neural Networks with Cyclic Connection for Limit Cycle Generator", Proc. IEEE&INNS/IJCNN'98 (WCCI'98), CD-ROM, May 1998 (Anchorage, Alaska)
  51. Ninomiya, H., Kamo, A., Yoneyama, T. and Asai, H.:"An Efficient Algorithm for Spatiotemporal Pattern Analysis of Multivalued Neural Networks", Proc. IEEE&INNS/IJCNN'98 (WCCI'98), CD-ROM, May 1998 (Anchorage, Alaska)
  52. Yoneyama, T., Ninomiya, H. and Asai, H.:"Design of 3-Valued Neural Networks with Cyclic Connection for Limit Cycle Generator", Proc. NOLTA'97, vol.1 of 2, pp.277-280, Nov. 1997 (Honolulu, Hawaii)
  53. Ninomiya, H., Kamo, A., Yoneyama, T. and Asai, H.:"A Fast Algorithm for Spatiotemporal Pattern Analysis of Neural Networks with Multivalued Logic", Proc. NOLTA'97, vol.1 of 2, pp.273-276, Nov. 1997 (Honolulu, Hawaii)
  54. Yamamoto, H., Nakayama, T., Ninomiya, H. and Asai, H.:"Application of Neuro-Based Optimization Algorithm to Three Dimensional Cylindric Puzzles", Proc. IEEE/ICNN'97, vol.2 of 4, pp.1246-1250, June 1997 (Houston, Texas)
  55. Yamamoto, H., Ninomiya, H. and Asai, H.:"A Neuro-Based Optimization Algorithm for Rectangular Puzzles", Proc. IEICE/ITC-CSCC'97, vol.2 of 2, pp.1029-1032, June 1997
  56. Kamio, T., Adachi, H., Ninomiya, H. and Asai, H.:"A Design Method of DWT Analog Neuro Chip for VLSI Implementation", Proc. IEEE/IMTC'97, vol.2 of 2, pp.1210-1214, May 1997
  57. Kamio, T., Adachi, H., Ninomiya, H. and Asai, H.:"Discrete Walsh Transform Neuro Chip Using OTA Circuits", Proc. ICONIP'96, vol.2 of 2, pp.1063-1068, Sept. 1996 (Hong Kong)
  58. Ninomiya, H. and Asai, H.:"Recurrent Neural Networks for Digital Sequential Circuits", Proc. ICONIP'96, vol.1 of 2, pp.541-546, Sept. 1996 (Hong Kong)
  59. Ninomiya, H., Egawa, K., Kamio, T. and Asai, H.:"Design and Implementation of Neural Network Logic Circuits with Global Convergence", Proc. IEEE/ICNN'96, vol.2 of 4, pp.980-985, June 1996 (Washington D.C.)
  60. Kamio, T., Ninomiya, H. and Asai, H.:"Design and Implementation of Neuro-Based Discrete Walsh Transform Processor", Proc. IEEE/ICNN'96, vol.2 of 4, pp.926-931, June 1996 (Washington D.C.)
  61. Asai, H., Nakayama, T. and Ninomiya, H.:"Tiling Algorithm with Fitting Violation Function for Analog Neural Array", Proc. IEEE/ICNN'96, vol.1 of 4, pp.565-570, June 1996 (Washington D.C.)
  62. Yamamoto, H., Nakayama, T., Ninomiya, H. and Asai, H.:"Neuro-Based Optimization Algorithm for Three Dimensional Puzzles", Proc. IEICE/ITC-CSCC'96, vol.1 of 2, pp.377-380, June 1996 (South Korea)
  63. Nakayama, T., Ninomiya, H. and Asai, H.:"Neuro-Based Tiling Algorithm Using Fitting Violation Function of Polyominoes", Proc.IEEE/ISCAS'96, vol.4, May 1996 (Atlanta, Georgia)
  64. Onodera, K., Kamio, T., Ninomiya, H. and Asai, H.:"Application of Hopfield Neural Networks with External Noise to TSPs", Proc. NOLTA'95, vol.1 of 2, pp.375-378, Dec. 1995 (Las Vegas, Nevada)
  65. Ninomiya, H., Sato, K., Nakayama, T. and Asai, H.:"Neural Network Approach to Traveling Salesman Problem Based on Hierarchical City Adjacency", Proc. IEEE/ICNN'95, vol.5 of 6, pp.2626-2631, Nov. 1995 (Perth, Australia)
  66. Asai, H., Onodera, K., Kamio, T. and Ninomiya, H.:"A Study of Hopfield Neural Networks with External Noises", Proc. 1995 IEEE International Conference on Neural Networks (IEEE/ICNN'95), vol.4 of 6, pp.1584-1589, Nov. 1995 (Perth, Australia)
  67. Ninomiya, H. and Asai, H.:"Orthogonalized Steepest Descent Method for Solving Nonlinear Equations", Proc. IEEE/ISCAS'95, vol.1 of 3, pp.740-743, April 1995 (Seattle, Washington)
  68. Kamio, T., Ninomiya, H. and Asai, H.:"Convergence of Hopfield Neural Network for Orthogonal Transformation", Proc. 1995 IEEE International Symposium on Circuits and Systems (IEEE/ISCAS'95), vol.1 of 3, pp.493-496, April 1995 (Seattle, Washington)
  69. Asai, H., Kamio, T. and Ninomiya, H.:"Discrete Walsh Transform Processor Based on Hopfield Neural Network", Proc. 1995 IEEE Instrumentation & Mesurement Technology Conference (IEEE/IMTC'95), , pp.317-322, April 1995
  70. Kamio, T., Ninomiya, H. and Asai, H.:"Discrete Walsh Transform by Linear Programming Neural Net", Proc. ICONIP'94, vol.2 of 3, pp.809-814, Oct. 1994 (Seoul, South Korea)
  71. Nakayama, T., Ninomiya, H. and Asai, H.:"Neuro-Based Optimization for Tiling Problem", Proc. 1994 International Conference on Neural Information Processing (ICONIP'94), vol.2 of 3, pp.787-792, Oct. 1994 (Seoul, South Korea)
  72. Ninomiya, H. and Asai, H.:"Neural Networks for Digital Sequential Circuits", Proc. IEICE/NOLTA(International Symposium on Nonlinear Theory and its Application)'93, vol.2 of 4, pp.507-510, Nov. 1993 (Honolulu, Hawaii)
  73. Ninomiya, H. and Asai, H.:"Design and Simulation of Neural Network Digital Sequential Circuits", Proc. IEICE/JTC-CSCC'93, vol.1 of 2, pp.91-96, July 1993 (Nara, Japan)
その他(研究会・全国大会等)
  1. 山富 龍, マハブービ・シャヘラザード, 二宮 洋, “Transformerを用いた大喜利の生成に関する研究”, 電子情報通信学会総合大会, 情報・システムソサイエティ特別企画 ジュニア&学生ポスターセッション, pp. 128, 2024年3月.
  2. 李 洪企, 山富 龍, マハブービ・シャヘラザード, 二宮 洋, “ディープラーニングを用いた生成画像の識別に関する研究”, 電子情報通信学会総合大会, 情報・システムソサイエティ特別企画 ジュニア&学生ポスターセッション, pp. 129, 2024年3月.
  3. 堀 雄介, マハブービ・シャヘラザード, 二宮 洋, “大規模言語モデルを用いた特定キャラクターBotの実装に関する研究”, 電子情報通信学会総合大会, 情報・システムソサイエティ特別企画 ジュニア&学生ポスターセッション, pp. 55, 2024年3月.
  4. 山富龍, マハブービ・シャヘラザード, 二宮洋, “大喜利生成 AI に適したAutoEncoderの構造に関する研究”, 2023 NOLTAソサイエティ大会講演論文集, IEICE, NLS-3, 2023年6月.
  5. マハブービ・シェヘラザード, 二宮 洋, “時空間2次ダイナミクスモデルに対する慣性付適応的勾配アルゴリズムの有効性に関する研究”, 電子情報通信学会 信学技報 非線形問題研究会, NLP2023-3,pp. 11-15, 2023年5月.
  6. 山富 龍, マハブービ シャヘラザード, 二宮 洋, “AutoEncoderとPix2Seqを用いた大喜利生成AIの実装に関する研究 ~ Neural 0h!giri Generator ~”, 電子情報通信学会 信学技報 複雑系コミュニケーション研究会, CCS2022-73, pp.59-62, 2023年3月.
  7. 池田 麻輝, 山富 龍, マハブービ シャヘラザード, 二宮 洋, “Stable DiffusionとGHOSTを用いたプライバシー保護のための顔変換システムの提案”, 情報処理学会第85回全国大会, 1R-02.
  8. 山崎 太郎, 山富 龍, マハブービ シャヘラザード, 二宮 洋, “道路標識検出用SSDのためのUnityを用いたアノテーション自動化に関する研究”, 情報処理学会第85回全国大会, 6Q-04.
  9. 山富 龍, マハブービ シャヘラザード, 二宮 洋, “大喜利生成AIの実装に関する研究”, 情報処理学会第85回全国大会, 6V-07.
  10. 堀雄 介, マハブービ シャヘラザード, 二宮 洋,“キャラクターの特徴を持たせた雑談ChatBot実装に関する研究”, 情報処理学会第85回全国大会, 2W-09.
  11. 石川 悠樹, 三川 健太, 二宮 洋,“CorrectandSmoothを用いたアンサンブル手法に関する一考察”, 情報処理学会第85回全国大会, 7Q-08.
  12. 結城 慧, マハブービ シャヘラザード, 二宮 洋,“MindWaveMobile2による脳波測定のニューラルネットワークを用いたモデル化に関する研究”, 情報処理学会第85回全国大会, 5U-03.
  13. 山富龍, マハブービ・シャヘラザード, 二宮洋, “ 2次情報を用いた二重適応縮約型学習アルゴリズムにおけるネステロフの加速勾配の効果に関する研究”, 2022 NOLTAソサイエティ大会講演論文集, IEICE, NLS-30, 2022年6月.
  14. マハブービ・シェヘラザード, 二宮 洋, “慣性項による確率的重み差分伝播法の高速化に関する研究”, 電子情報通信学会 信学技報 非線形問題研究会, NLP2022-9,pp. 40-45, 2022年6月.
  15. 山富 龍, マハブービ・シェヘラザード, 二宮 洋, “Hutchinson近似に基づく行列対角化を用いた2次近似勾配学習法に関する研究”, 電子情報通信学会 信学技報 非線形問題研究会, NLP2021-89,pp.67-70, 2022年1月.
  16. マハブービ・シェヘラザード, 山富 龍, 二宮 洋, “重み差分伝播法を用いた確率的勾配学習に関する研究”, 電子情報通信学会 信学技報 非線形問題研究会, NLP2021-88,pp.61-64, 2022年1月.
  17. 鮫嶋優太, マハブービ・シェヘラザード, 二宮 洋, “NADIAN : ネステロフの加速ニュートン学習法に関する研究”, NOLTAソサイエティ大会講演論文集, IEICE, NLS-12, Jun 2021, Online.
  18. S. Indrapriyadarsini, Shahrzad Mahboubi, Hiroshi Ninomiya, Takeshi Kamio, Hideki Asai, “A modified limited memory Nesterov’s accelerated quasi-Newton”, NOLTAソサイエティ大会講演論文集, IEICE, NLS-37, Jun 2021, Online.
  19. Shahrzad Mahboubi, S. Indrapriyadarsini, 二宮 洋, 浅井 秀樹, “ 慣性付メモリーレス準ニュートン学習法に関する研究”, NOLTAソサイエティ大会講演論文集, IEICE, NLS-13, Jun 2021, Online.
  20. 安田 壮太, S. Indrapriyadarsini, 二宮 洋, 神尾 武司, 浅井 秀樹, “ニューラルネットワーク学習のための適応的な分散低減二次手法”, NOLTAソサイエティ大会講演論文集, IEICE, NLS-36, Jun 2021, Online.
  21. 藤瀬 和洋, S. インドラプリヤダルシニ, 神尾 武司, 二宮 洋 , 浅井 秀樹,“マルチエージェント深層強化学習による自動配線”, NOLTAソサイエティ大会講演論文集, IEICE, NLS-15, Jun 2021, Online.
  22. Venkatesh Bhargava Ram, S. Indrapriyadarsini, Takeshi Kamio, Hiroshi Ninomiya, Hideki Asai, “A Reinforcement Learning based Image Preprocessing for Object Detection”, NOLTAソサイエティ大会講演論文集, IEICE, NLS-16, Jun 2021, Online.
  23. 田中和真, マハブービ・シャヘラザード, 二宮 洋:“慣性項付き記憶制限準ニュートン法を用いた深層強化学習のTensorflowへの実装”, IEICE 総合大会, N-1-13, p.220, Online (2021年3月).
  24. マハブービ・シャヘラザード, センディルクマール・インドラプリヤダルシ二, 二宮 洋, 浅井秀樹:“適応的慣性項を用いた準ニュートン学習法に関する研究”, IEICE 総合大会, N-1, 広島 (2020年3月).
  25. センディルクマール・インドラプリヤダルシ二,マハブービ・シェヘラザード,二宮洋,浅井秀樹:“Neural Networkを用いたAnalog回路設計”, IEICE 総合大会, N-1, 広島 (2020年3月).
  26. 田中和真, マハブービ・シャヘラザード, 二宮 洋:“慣性項を用いた記憶制限準ニュートン法による深層強化学習”, IEICE 総合大会, N-1, 広島 (2020年3月).
  27. 安田壮太, マハブービ・シャヘラザード,センディルクマール・インドラプリヤダルシ二,二宮洋, 浅井秀樹:“確率的分散低減を用いたネステロフの加速準ニュートン法”, IEICE 総合大会,N-1, 広島(2020年3月).
  28. 久保仁志,二宮 洋,浅井秀樹:"MOGAを用いたCMOSオペアンプの最適化", 電子情報通信学会 信学技報 非線形問題研究会, vol.119, no.381, NLP2019-93,pp.45-48, 2020年1月.
  29. 藤瀬和洋,センディルクマールインドラプリヤダルシニ,マハブービシェヘラザード,二宮 洋,浅井秀樹:"様々な最適化法におけるCascade-correlationの性能調査", 電気学会電子回路研究会, ECT-019-093,2019年12月.
  30. ディバカラアビシェイク ベンカテシュ バルガワラン,センディルクマールインドラプリヤダルシニ,二宮 洋,浅井秀樹:"Neural Network Assistance for Determining Circuit Design Parameters", 電気学会電子回路研究会, ECT-019-088,2019年12月.
  31. 北川 信,センディルクマールインドラプリヤダルシニ,マハブービシェヘラザード,二宮 洋,浅井秀樹:"Knowledge Based Neural Network の概念を用いた学習モデルの効率について", 電気学会電子回路研究会, ECT-019-086,2019年12月.
  32. 佐藤佑哉,Shahrzad Mahboubi,S. Indrapriyadarsini,二宮 洋,浅井秀樹:"ネステロフの加速勾配を用いたBarzilai-Borwein法の高速化", 2019年 電子情報通信学会 総合大会, N-1-17,2019年3月.
  33. Shahrzad Mahboubi,S. Indrapriyadarsini,二宮 洋,浅井秀樹:"準ニュートン法における慣性項の影響に関する研究", 電子情報通信学会 信学技報 非線形問題研究会, vol.118, no.498, NLP2018-137,pp.69-74, 2019年3月.
  34. Shahrzad Mahboubi,二宮 洋:"慣性付2次近似勾配モデルを用いた記憶制限準ニュートン法の有効性に関する研究", 電子情報通信学会 信学技報 非線形問題研究会, vol.117, no.121, NLP2017-32,pp.23-28, 2017年7月.
  35. Shahrzad Mahboubi,二宮 洋:"ネストロフの加速勾配を用いたQuickprop学習法の高速化", 2017年 電子情報通信学会 総合大会, N-1-23,p.309,2017年3月.
  36. 三宅あかり,越森恵莉菜,二宮 洋:"ネステロフの加速勾配を用いた準ニュートン学習法に関する研究", 2016年 電子情報通信学会 ソサイエティ大会, N-1-12,2016年9月.
  37. 吉本昌史,小林 学,二宮 洋:"潜在クラスモデルのニューラルネットワークによる学習", 2016年 電子情報通信学会 ソサイエティ大会, N-1-11,2016年9月.
  38. 二宮 洋:"ネステロフの加速準ニュートン法による学習アルゴリズムの提案", 電子情報通信学会 信学技報 非線形問題研究会, vol.115, no.425, NLP2015-141,pp.87-92, 2016年1月.
  39. 嘉藤淳紀,渡辺重佳,二宮 洋,小林 学,三浦康之:"再構成可能論理回路の設計法と各種方式の比較", 電子情報通信学会 信学技報, VLD2015-77, CPSY2015-109, RECONF2015-59,pp.1-6, 2016年1月.
  40. 佐伯 誠,坂下善彦,二宮 洋:"粒子群最適化におけるローカル化及び寿命付きリーダーの有効性に関する研究", 情報処理学会 第77回 全国大会, 1,pp.259-260, 2015年3月
  41. 嘉藤淳紀,渡辺重佳,二宮 洋,小林 学,三浦康之:"再構成可能論理回路の設計と評価", 電子情報通信学会 信学技報, VLD2014-119, CPSY2014-128, RECONF2014-52,pp.35-40, 2015年1月.
  42. 嘉藤淳紀,渡辺重佳,二宮 洋,小林 学,三浦康之:"ダブルゲート型トランジスタを用いた再構成可能論理回路の設計法", 電子情報通信学会 信学技報, CPM2014-126, ICD2014-69,pp.21-26, 2014年11月.
  43. 佐伯 誠,坂下善彦,二宮 洋:"ローカル粒子群最適化における寿命付リーダーの有効性", 電子情報通信学会 基礎・境界ソサイエティ大会, A-2-4,2014年9月
  44. 嘉藤淳紀,渡辺重佳,二宮 洋,小林 学,三浦康之:"ダブルゲートMOS型トランジスタを用いた論理回路の検討", 電子情報通信学会 信学技報, SDM2014-78, ICD2014-47,pp.87-92, 2014年8月.
  45. 佐伯 誠,坂下善彦,二宮 洋:"寿命付きリーダーを用いたローカル粒子群最適化についての研究", 情報処理学会 第76回 全国大会, 1,pp.283-284, 2014年3月
  46. 佐伯 誠,坂下善彦,二宮 洋:"改良型分散準ニュートン法によるニューラルネットワークの学習", 電子情報通信学会 基礎・境界ソサイエティ大会, A-2-9,2013年9月.
  47. 二宮 洋:"動的サンプルサイズ選択法に基づく準ニュートン法による階層型ニューラルネットワークの学習", 電子情報通信学会 信学技報 非線形問題研究会, vol.113, no.116, NLP2013-38,pp.63-68, 2013年7月.
  48. 佐伯 誠,坂下善彦,二宮 洋:"分散並列環境における準ニュートン学習アルゴリズムの有効性", 電子情報通信学会 信学技報 非線形問題研究会, vol.112, no.389, NLP2012-111,pp.43-48, 2013年1月.
  49. 小林 学,八木秀樹,二宮 洋,平澤茂一:"MIMO通信における相互情報量基準に基づく量子化器の設計法", 電子情報通信学会 情報理論研究会 信学技報, IT2012-41,pp.59-64, 2012年9月.
  50. 阿部俊和,坂下善彦,二宮 洋:"Online/Batchハイブリット型準ニュートン法によるニューラルネットワークの学習アルゴリズム", 情報処理学会 第74回 全国大会, 2,pp.311-312, 2012年3月 ※全国大会 学生奨励賞受賞.
  51. 阿部俊和,坂下善彦,二宮 洋:"online/batchハイブリッド型準ニュートン法による階層型ニューラルネットワークのロバスト学習に関する研究", 電子情報通信学会 非線形問題研究会 信学技報, vol.111, no.276, NLP2011-105,pp.75-80, 2011年11月.
  52. 阿部俊和,坂下善彦,二宮 洋:"改良型オンライン準ニュートン法に対する学習データの与え方の影響に関する考察", 電子情報通信学会 非線形問題研究会 信学技報, vol.110, no.465, NLP2010-192,pp.163-168, 2011年3月.
  53. 阿部俊和,坂下善彦,二宮 洋:"勾配学習法に対する学習データの与え方の影響に関する研究", 情報処理学会 全国大会, 2,pp.323-324, 2011年3月.
  54. 二方弘文,坂下善彦,二宮 洋:"衝突回避を導入したFully Informed PSOによる多峰性関数の最適化", 情報処理学会 全国大会, 1,pp.391-392, 2011年3月.
  55. 二宮 洋:"パラメータ化オンライン準ニュートン法による階層型ニューラルネットワークの学習", 電子情報通信学会 非線形問題研究会 信学技報, vol. 110, no. 387, NLP2010-125,pp. 1-6, 2011年1月.
  56. 阿部俊和,坂下善彦,二宮 洋:"学習データの与え方を改良した勾配学習アルゴリズムを用いたニューラルネットワークの学習に関する研究", 電子情報通信学会 非線形問題研究会 信学技報, vol.110, no.82, NLP2010-9,pp.57-62, 2010年6月.
  57. 二方弘文,小林洋介,坂下善彦,二宮 洋:"種分化を導入したPSOによる複数解を持つ多峰性関数の最適化", 情報処理学会 全国大会, 2,pp.405-406, 2010年3月.
  58. 阿部俊和,坂下善彦,二宮 洋:"改良型online記憶制限準ニュートン法によるニューラルネットワークの学習", 情報処理学会 全国大会, 2,pp.447-448, 2010年3月 ※全国大会 学生奨励賞受賞.
  59. 二宮 洋:"改良型online準ニュートン法によるニューラルネットワークの学習", 電子情報通信学会 非線形問題研究会 信学技報, vol. 109, no. 269, NLP2009-115,pp. 187-192, 2009年11月.
  60. Ninomiya, H. and Zhang, Q.J.:"A Hybrid PSO and quasi-Newton Technique for Training of Feedforward Neural Networks", 電子情報通信学会 コンカレント工学研究会 信学技報, vol. 108, no. 176, CST2008-17,pp. 29-34, 2008年8月.
  61. 伊藤 歩, 二宮 洋:"Time Partition PSOによる動的多層ニューラルネットワークの学習", 電子情報通信学会 ソサイエティ大会, A-2-4,2007年9月.
  62. 吉田憲生, 二宮 洋:"パラメータフリーPSOによる多層ニューラルネットワークの学習", 電子情報通信学会 総合大会, A-2-30,2007年3月.
  63. 伊藤 歩, 二宮 洋:"PSOによる動的多層ニューラルネットワークの学習", 電子情報通信学会 ソサイエティ大会, A-2-7,2006年9月.
  64. 沼山公彦,二宮 洋,浅井秀樹:"二層近傍タブーサーチによるO-Tree構造を用いたフロアプラン問題の解法", 非線形問題研究会,信学技法, NLP2005-146, pp.53-58, 2006年3月
  65. 本保 新, 二宮 洋:"Particle Swarm Optimizaionを用いたパッキング問題の解法に関する研究", 電子情報通信学会 ソサイエティ大会, A-2-2,2005年9月.
  66. 山岸弘和,二宮 洋,浅井 秀樹:"3次元フロアプランのためのパッキング表現手法", 第18回回路とシステム軽井沢ワークショップ論文集, 2005年4月, pp.205-210, 2005年4月
  67. 山岸弘和,二宮 洋,浅井秀樹:"3DBSGを用いた3次元パッキング表現手法", VLSI設計技術,信学技法, 2004年12月
  68. 富田親弘,吉田昌弘,二宮 洋,浅井秀樹:"ホモトピー法に基づく階層型ニューラルネットワークの学習アルゴリズムに関する研究", 非線形問題研究会,信学技法, NLP2004-44, pp.25-29, 2004年9月
  69. 沼山公彦,二宮 洋,浅井秀樹:"初期解を考慮したO-Treeによるフロアプランの遺伝的解法", 非線形問題研究会,信学技法, NLP2004-41, pp.7-12, 2004年9月
  70. 山岸弘和,二宮 洋,浅井秀樹:"3DBSGを用いた3Dパッキング問題の解法に関する研究", 非線形問題研究会,信学技法, vol. 104, no. 50, NLP2004-10, pp. 53-58, 2004年5月
  71. 吉田昌弘,二宮 洋,浅井秀樹:"逐次最小二乗ローカル学習法の汎化能力に関する研究", 非線形問題研究会,信学技法, 2003年11月
  72. 吉田昌弘,二宮 洋,浅井秀樹:"ペナルティ関数法に基づく逐次最小二乗ローカル学習アルゴリズム", 非線形問題研究会,信学技法, 2003年9月
  73. 富田親弘,吉田昌弘,二宮 洋,浅井秀樹:"後退最急降下法に基づく階層型ニューラルネットワークの学習アルゴリズム", 非線形問題研究会,信学技法, 2003年7月
  74. 富田親弘,二宮 洋,浅井秀樹:"後退最急降下法を用いた階層型ニューラルネットワークに対する学習アルゴリズム", 電子情報通信学会 総合大会, 2003年3月
  75. 吉田昌弘,二宮 洋,浅井秀樹:"階層型ニューラルネットワークのローカル学習アルゴリズムに関する考察", 非線形問題研究会,信学技法, 2003年2月
  76. 二宮 洋,佐々木綾子:"3層リカレントニューラルネットワークの汎化能力に関する研究", ニューロコンピューティング研究会, 信学技法, NC2001-31, pp.65-72, 2001年6月
  77. 高崎雅史,二宮 洋:"非線形シナプスを有するニューラルネットワークの学習アルゴリズム", 電子情報通信学会,2001年総合大会, A-2-14, 2001年3月
  78. 佐々木綾子,二宮 洋:"フィードバック結合を有する3層ニューラルネットワークに関する研究", 電子情報通信学会,2001年総合大会, A-2-13, 2001年3月
  79. 佐々木綾子,二宮 洋:"3層リカレントニューラルネットワークとその学習アルゴリズム", 非線形問題研究会, 信学技法, NLP2000-133, pp.25-31, 2001年2月
  80. 米山 輝,二宮 洋,浅井 秀樹:"線形計画法によるニューラルネットワークリミットサイクル発生器の設計法", 第12回回路とシステム軽井沢ワークショップ論文集, pp.169-174, 1999年4月
  81. 木下直己,二宮 洋:"誤差の逆伝搬を必要としない学習アルゴリズム", 非線形問題研究会, 信学技法, NLP98-118, pp.53-60, 1999年3月
  82. 米山 輝, 二宮 洋, 浅井秀樹:"ニューラルネットワークによるリミットサイクル発生器の設計とその解析", 非線形問題研究会, 信学技法, NLP98-115, pp.31-38, 1999年3月
  83. 米山 輝, 二宮 洋, 浅井秀樹:"ニューラルネットワークによるリミットサイクル発生器の設計法", 非線形問題研究会, 信学技法, pp.47-54, 1998年12月
  84. 加茂 篤,二宮 洋,米山 輝,浅井秀樹:"回路シミュレータ開発支援ツールASSISTを利用したニューラルネットワークの時空間パターン解析システム", 非線形問題研究会, 信学技法, NLP97-119, pp.47-54, 1997年11月
  85. 中川朗洋,加茂 篤,二宮 洋,浅井秀樹:"ニューラルネットワークの時空間パターン解析用シミュレータ", 非線形問題研究会, 信学技法, NLP97-101, pp.17-24, 1997年10月
  86. 米山 輝, 二宮 洋, 浅井秀樹:"3値ニューロンの環状結合系におけるリミットサイクルに関する一考察", 非線形問題研究会, 信学技法, NLP97-66, pp.23-29, 1997年7月
  87. 山元敬之, 二宮 洋, 浅井秀樹:"アナログニューラルネットワークによる立体パズルの解法", 第10回回路とシステム軽井沢ワークショップ論文集, pp.351-356, 1997年4月
  88. 山元敬之, 二宮 洋, 浅井秀樹:"ニューラルネットワークによる立体パズルの解法", 非線形問題研究会, 信学技法, NLP96-112, pp.131-137, 1996年12月
  89. 安達晴康,神尾武司, 二宮 洋, 浅井秀樹:"ニューラルネットワークによる64ビットDWTプロセッサのチップ設計", 非線形問題研究会, 信学技法, NLP96-52, pp.49-56, 1996年7月
  90. 山元敬之, 二宮 洋, 浅井秀樹:"ニューラルネットワークによる円柱型パズルの解法", 非線形問題研究会, 信学技法, NLP96-18, pp.51-59, 1996年5月
  91. 二宮 洋, 浅井秀樹:"リカレントニューラルネットワークによるディジタル順序回路の設計", 第9回回路とシステム軽井沢ワークショップ論文集, pp.443-448, 1996年4月
  92. 神尾武司,安達晴康,二宮 洋, 浅井秀樹:"離散ウォルシュ変換ニューロチップの設計", 第9回回路とシステム軽井沢ワークショップ論文集, pp.431-436, 1996年4月
  93. 二宮 洋, 浅井秀樹:"ニューラルネットワークディジタル順序回路のための学習アルゴリズム", 非線形問題研究会, 信学技法, NLP95-87, pp.39-46, 1996年1月
  94. 中山武司, 二宮 洋, 浅井秀樹:"ニューラルネットワークによる接触検出関数を用いたタイリングアルゴリズムに関する考察", 非線形問題研究会, 信学技法, NLP95-86, pp.31-38, 1996年1月
  95. 中山武司, 二宮 洋, 浅井秀樹:"アナログニューラルネットワークによる接触検出関数を用いたタイリングアルゴリズム", 非線形問題研究会, 信学技法, NLP95-76, pp.93-100, 1995年11月
  96. 小野寺克明, 神尾武司, 二宮 洋, 浅井秀樹:"相関ノイズを加えたニューラルネットワークによるTSP解探査能力の評価", 非線形問題研究会, 信学技法, NLP95-75, pp.85-92, 1995年11月
  97. 神尾武司, 二宮 洋, 浅井秀樹:"ホップフィールド型ニューラルネットワークによる離散ウォルシュ変換器の試作と評価", 非線形問題研究会, 信学技法, NLP95-73, pp.69-76, 1995年3月
  98. 佐藤一路, 中山武司, 二宮 洋, 浅井秀樹:"都市隣接性に基づく巡回セールスマン問題のニューラルネットワーク解法とその階層化", 非線形問題研究会, 信学技法, NLP94-117, pp.105-112, 1995年3月
  99. 小野寺克明, 神尾武司, 二宮 洋, 浅井秀樹:"外部ノイズ印加型ニューロアルゴリズムに関する考察", 非線形問題研究会, 信学技法, NLP94-116, pp.97-103, 1995年3月
  100. 江川邦隆, 神尾武司, 二宮 洋, 浅井秀樹:"ニューラルネットワークディジタル回路の実装", 非線形問題研究会, 信学技法, NLP94-111, pp.57-64, 1995年3月
  101. 神尾武司, 二宮 洋, 浅井秀樹:"直交変換器の構成におけるHopfield型ニューラルネットワークの収束性", 非線形問題研究会, 信学技法, NLP-94-47, pp.45-52, 1994年9月
  102. 二宮 洋, 浅井秀樹:"直交化最急降下法による非線形方程式の解法", 非線形問題研究会, 信学技法, NLP-94-43, pp.15-20, 1994年9月
  103. 神尾武司, 二宮 洋, 浅井秀樹:"ニューラルネットワークによる離散ウォルシュ変換器の設計", 非線形問題研究会, 信学技法, NLP-94-14, 信学技報, pp.23-30, 1994年5月
  104. 二宮 洋, 浅井秀樹:"ニューラルネットワークディジタル順序回路の設計と解析", 非線形問題研究会, 電子情報通信学会技術研究報告(信学技法), NLP-93-12, pp.9-16, 1993年5月