This study was conducted to determine the effects of non-climatic environmental factors on performances and behavioural patterns of growing pigs. Two hundred and seventy growing pigs were confined and administered with three levels of spaces per pig(0.33, 0.44 and 0.66$m^2$) and three different numbers of pigs per pen(12, 15 and 18 pigs) from 30kg to 60kg body weight. This study was designed by using 3 $\times$ 3 factorial arrangement(three levels of spaces $\times$ three different numbers of pigs) and investigated the effects of main factors and the relationship between each factors. The result of this study were summarized as follows; 1. The 0.44$m^2$ of floor space per pig improved(p<0.01) the weight gain and the feed/gain during the growing phase. 2. The 15 pigs per pen showed the faster gain and improved feed/gain than the 12 or 18 pigs per pen during the growing phase(p<0.05). 3. The reduction of floor space of growing pigs caused the reduction of resting, non-aggressive social behaviour but eating, aggressive behaviour was increased(p<0.01). 4. Group size affected the behavioural patterns significantly(p<0.01) of growing pigs. The aggressive and eating behaviour increased but resting behaviour decreased by crowding in the growing pigs. 5. Therefore we concluded that growing pigs need 0.44$m^2$ per pig and 15 pigs per pen for the better raising condition.
합리적(合理的) 경제주체(經濟主體)는 예상되는 정책변화(政策變化)에 대처할 뿐만 아니라 정부정책(政府政策)을 일정한 방향으로 유도(誘導)하기도 한다. 이 경우 주어진 여건하(與件下)에서 매 순간 최선(最善)의 행위(行爲)를 택해 나가는 정책(政策)은 사회적(社會的) 최적(最適)을 이루지 못할 가능성(可能性)이 많다. 개별경제주체(個別經濟主體)가 정책입안자(政策立案者)의 행동방식(行動方式)을 미리 예견하고 자기에게 유리하도록 정책환경(政策環境)을 인위적으로 조성할 가능성이 있기 때문이다. 따라서 사회적(社會的) 최적(最適)의 달성(達成)을 위해서는 단기적(短期的)으로 최선(最善)이 못되고 또 동태적(動態的)으로 모순(矛盾)된 정책(政策)의 집행(執行) 요구되기도 한다. 그러나 동태적(動態的)으로 모순(矛盾)된 정책(政策)은 민간(民間)의 신뢰(信賴)를 얻지 못하며 따라서 실효(實效)를 거두지 못한다. 즉 정책(政策)의 최적성(最適性)과 신뢰성(信賴性) 사이에 대립(對立)이 발생(發生)한다. 본고(本稿)에서는 예견적(豫見的) 행위(行爲)를 하는 경제주체(經濟主體)와 정책입안자(政策立案者) 사이에 개재(介在)하기 쉬운 이같은 동태모순문제(動態矛盾問題) 그리고 그 부분적(部分的) 해결책으로 사전담보(事前擔保) 정책당국(政策當局)의 성가(聲價)메커니즘을 살펴보았다.
Hong, Ari;Lee, Ho Min;Choi, Young Hwan;Choi, Ji Ho;Kim, Joong Hoon
Proceedings of the Korea Water Resources Association Conference
/
2016.05a
/
pp.521-521
/
2016
상수도 관망은 수원에서 수요절점까지 물을 안정적으로 공급하는 것을 목표로 한다. 상수도 관망의 최적설계는 수리학적 제한조건 (절점의 수압, 관로의 유속)을 만족하는 범위에서 비용을 최소화하는 설계안을 얻는 것으로 Savic and Walters (1997)는 유전 알고리즘 (Genetic Algorithms, Holland 1975)을 적용한 상수도 관망 설계 프로그램인 GANET를 제안하였고, Maier et al. (1996)은 개미군집알고리즘 (Ant Colony Optimization Algorithm, Dorigo et al. 1996)을 상수도 관망 최적설계에 적용한 후 그 결과가 유전 알고리즘에 비해 우수함을 증명하는 등 상수도 관망 최적설계에 관한 연구가 활발히 진행되어 오고 있다. 유전알고리즘은 선택, 교차, 돌연변이의 반복계산 과정을 통하여 최적해를 찾는 최적화 기법이다. 이 과정에서 결정변수는 유전자 (Gene)의 집합으로 표현되며, 염색체 (Chromosome) 내에서 근접한 유전 인자들은 일종의 Building Block을 형성하게 된다. Building Block은 좋은 해를 갖는 유전 인자를 높은 확률로 보관하여 지역해에 빠질 가능성을 줄이는 반면, 유전형 (Genotype)이 표현형 (Phenotype)을 충분히 모방하여 표현하지 못한 경우 오히려 최적해의 탐색을 방해할 수 있다는 한계점을 갖는다. 유전 알고리즘을 상수도 관망 최적설계에 적용하였을 때에도 이 한계점은 여실히 드러난다. 관로의 관경을 결정변수로 설정한 후 유전형으로 표현하였을 때, 관망도 상에서 근접하지 않은 두 관로가 염색체 내에서 연속으로 나열된다면 두 관로 간의 연관성이 실제보다 크게 고려되기 때문이다. 한편, 하모니써치 (Harmony Search, Geem et al. 2001) 알고리즘은 즉흥 연주 (Improvisation)를 통해 최상의 화음을 만들어내는 현상으로부터 착안하여 만들어진 최적화기법으로 연산 기법은 무작위선택, 기억회상, 피치조정 등으로 구성되어 있으며, 결정변수에 해당하는 연주자가 독립적으로 행동하며 해를 탐색한다는 점에서 유전알고리즘과 큰 차이를 갖는다. 본 연구에서는 유전알고리즘의 Building Block에 의해 발생하는 오류를 개선하고자, 상수도 관망 최적설계 연구에 많이 사용되는 Hanoi 관망 (Fujiwara and Khang 1990) 관로의 정렬 순서를 여러 가지 기준으로 설정하여 관망데이터를 구축한 후 하모니써치와 유전 알고리즘을 적용하여 최적화를 수행하였고 그 결과를 비교하였다. 그 결과 유전 알고리즘과 달리 하모니써치 알고리즘의 경우, 관로의 나열 순서와 상관없이 우수한 최적해 탐색 결과를 보이는 것을 확인할 수 있었다.
Autonomous agents need considerable computational resources to perform rational decision-making. The complexity of decision-making becomes prohibitive when large number of agents are present and when decisions have to be made under time pressure. One of approaches in time-critical domains is to respond to an observed condition with a predefined action. Although such a system may be able to react very quickly to environmental conditions, predefined plans are of less value if a situation changes and re-planning is needed. In this paper we investigate strategies intended to tame the computational burden by using off-line computation in conjunction with on-line reasoning. We use performance profiles computed off-line and the notion of urgency (i.e., the value of time) computed on-line to choose the amount of information to be included during on-line deliberation. This method can adjust to various levels of real-time demands, but incurs some overhead associated with iterative deepening. We test our framework with experiments in a simulated anti-air defense domain. The experiments show that the off-line performance profiles and the on-line computation of urgency are effective in time-critical situations.
Reinforcement learning is a sub area of machine learning concerned with how an agent ought to take actions in an environment so as to maximize some notion of long-term reward. In the case of multi-agent, especially, which state space and action space gets very enormous in compared to single agent, so it needs to take most effective measure available select the action strategy for effective reinforcement learning. This paper proposes a multi-agent reinforcement learning model based on fuzzy inference system in order to improve learning collect speed and select an effective action in multi-agent. This paper verifies an effective action select strategy through evaluation tests based on Robocup Keepaway which is one of useful test-beds for multi-agent. Our proposed model can apply to evaluate efficiency of the various intelligent multi-agents and also can apply to strategy and tactics of robot soccer system.
An important issue in Multiagent reinforcement learning is how an agent should learn its optimal policy in a dynamic environment where there exist other agents able to influence its own performance. Most previous works for Multiagent reinforcement learning tend to apply single-agent reinforcement learning techniques without any extensions or require some unrealistic assumptions even though they use explicit models of other agents. In this paper, a Naive Bayesian based policy model of the opponent agent is introduced and then the Multiagent reinforcement learning method using this model is explained. Unlike previous works, the proposed Multiagent reinforcement learning method utilizes the Naive Bayesian based policy model, not the Q function model of the opponent agent. Moreover, this learning method can improve learning efficiency by using a simpler one than other richer but time-consuming policy models such as Finite State Machines(FSM) and Markov chains. In this paper, the Cat and Mouse game is introduced as an adversarial Multiagent environment. And then effectiveness of the proposed Naive Bayesian based policy model is analyzed through experiments using this game as test-bed.
Journal of the Korean Institute of Intelligent Systems
/
v.16
no.1
/
pp.72-78
/
2006
It is essential for robot to have the sensing and communication abilities in the swarm robot system. In general, as the number of robot goes on increasing, the limitation of communication capacity and information overflow occur in global communication system. Therefore a local communication is more effective than global one. In this paper, we propose the novel method for determining the optimal communication radius through the analyzing of the information propagation based on local communication. And we also propose a method of cooperative strategies and group behavior of swarm robot based on artificial immune system.
Journal of the Korean Institute of Telematics and Electronics S
/
v.36S
no.6
/
pp.67-75
/
1999
The sensing and communication abilities of a mobile robot are essential to cooperative behavior in distributed autonomous robotic systems. In general, as the number of robot goes on increasing, the limitation of communication capacity and information overflow occur in global communication capacity and information overflow occur in global communication system. Therefore a local communication is more effective than global one. In this paper, we analyze information propagation mechanism based on local communication. To find an optimal communication radius, we propose three methods with different conditions. Also, to avoid chaotic behavior which occurs when a robot obtains and loses information, we find stable condition of information propagation.
Proceedings of the Korean Institute of Intelligent Systems Conference
/
2000.05a
/
pp.245-248
/
2000
In this paper we improve the performance of autonomous mobile robot by induction of reinforcement learning concept. Generally, the system used in this paper is divided into two part. Namely, one is neural-fuzzy and the other is dynamic recurrent neural networks. Neural-fuzzy determines the next action of robot. Also, the neural-fuzzy is determined to optimal action internal reinforcement from dynamic recurrent neural network. Dynamic recurrent neural network evaluated to determine action of neural-fuzzy by external reinforcement signal from environment, Besides, dynamic recurrent neural network weight determined to internal reinforcement signal value is evolved by genetic algorithms. The architecture of propose system is applied to the computer simulations on controlling autonomous mobile robot.
이전 가능한 환경오염으로부터의 피해자가 오염으로 인해 발생하는 피해를 줄이기 위한 방안으로 자기보호조치(self-protective measure)를 제공할 수 있다. 이 때 피해자들이 서로 비협조적으로 행동할 경우 피해자들의 자기보호조치 제공은 환경오염으로 인해 발생하는 시장실패 이외에 피해자들이 자기보호조치를 적정량 이상으로 제공함으로써 추가적인 시장실패를 발생시키게 된다. 이러한 경우에 사회최적 상태에 도달할 수 있도록 하는 최선의 정책은 환경오염을 발생시킨 측과 자기보호조치를 과다하게 제공하는 피해자 모두에게 피구비안(Pigouvian) 세금을 부과하는 것이다. 만약 오염자가 방출되는 오염물의 양을 줄이기 위해 예방조치(preventive measure)를 취함에 있어서 그 죄가 피해자에게 주는 실질 효력이 불확실할 때 피해자의 반응은 자기보호조치의 예방조치에 대한 한계생산곡선의 모양에 좌우된다. 또한 자기보호조치의 제공과 예방조치의 효력에 대한 위험성간의 관계는 피해자의 생산함수 형태에 좌우된다.
본 웹사이트에 게시된 이메일 주소가 전자우편 수집 프로그램이나
그 밖의 기술적 장치를 이용하여 무단으로 수집되는 것을 거부하며,
이를 위반시 정보통신망법에 의해 형사 처벌됨을 유념하시기 바랍니다.
[게시일 2004년 10월 1일]
이용약관
제 1 장 총칙
제 1 조 (목적)
이 이용약관은 KoreaScience 홈페이지(이하 “당 사이트”)에서 제공하는 인터넷 서비스(이하 '서비스')의 가입조건 및 이용에 관한 제반 사항과 기타 필요한 사항을 구체적으로 규정함을 목적으로 합니다.
제 2 조 (용어의 정의)
① "이용자"라 함은 당 사이트에 접속하여 이 약관에 따라 당 사이트가 제공하는 서비스를 받는 회원 및 비회원을
말합니다.
② "회원"이라 함은 서비스를 이용하기 위하여 당 사이트에 개인정보를 제공하여 아이디(ID)와 비밀번호를 부여
받은 자를 말합니다.
③ "회원 아이디(ID)"라 함은 회원의 식별 및 서비스 이용을 위하여 자신이 선정한 문자 및 숫자의 조합을
말합니다.
④ "비밀번호(패스워드)"라 함은 회원이 자신의 비밀보호를 위하여 선정한 문자 및 숫자의 조합을 말합니다.
제 3 조 (이용약관의 효력 및 변경)
① 이 약관은 당 사이트에 게시하거나 기타의 방법으로 회원에게 공지함으로써 효력이 발생합니다.
② 당 사이트는 이 약관을 개정할 경우에 적용일자 및 개정사유를 명시하여 현행 약관과 함께 당 사이트의
초기화면에 그 적용일자 7일 이전부터 적용일자 전일까지 공지합니다. 다만, 회원에게 불리하게 약관내용을
변경하는 경우에는 최소한 30일 이상의 사전 유예기간을 두고 공지합니다. 이 경우 당 사이트는 개정 전
내용과 개정 후 내용을 명확하게 비교하여 이용자가 알기 쉽도록 표시합니다.
제 4 조(약관 외 준칙)
① 이 약관은 당 사이트가 제공하는 서비스에 관한 이용안내와 함께 적용됩니다.
② 이 약관에 명시되지 아니한 사항은 관계법령의 규정이 적용됩니다.
제 2 장 이용계약의 체결
제 5 조 (이용계약의 성립 등)
① 이용계약은 이용고객이 당 사이트가 정한 약관에 「동의합니다」를 선택하고, 당 사이트가 정한
온라인신청양식을 작성하여 서비스 이용을 신청한 후, 당 사이트가 이를 승낙함으로써 성립합니다.
② 제1항의 승낙은 당 사이트가 제공하는 과학기술정보검색, 맞춤정보, 서지정보 등 다른 서비스의 이용승낙을
포함합니다.
제 6 조 (회원가입)
서비스를 이용하고자 하는 고객은 당 사이트에서 정한 회원가입양식에 개인정보를 기재하여 가입을 하여야 합니다.
제 7 조 (개인정보의 보호 및 사용)
당 사이트는 관계법령이 정하는 바에 따라 회원 등록정보를 포함한 회원의 개인정보를 보호하기 위해 노력합니다. 회원 개인정보의 보호 및 사용에 대해서는 관련법령 및 당 사이트의 개인정보 보호정책이 적용됩니다.
제 8 조 (이용 신청의 승낙과 제한)
① 당 사이트는 제6조의 규정에 의한 이용신청고객에 대하여 서비스 이용을 승낙합니다.
② 당 사이트는 아래사항에 해당하는 경우에 대해서 승낙하지 아니 합니다.
- 이용계약 신청서의 내용을 허위로 기재한 경우
- 기타 규정한 제반사항을 위반하며 신청하는 경우
제 9 조 (회원 ID 부여 및 변경 등)
① 당 사이트는 이용고객에 대하여 약관에 정하는 바에 따라 자신이 선정한 회원 ID를 부여합니다.
② 회원 ID는 원칙적으로 변경이 불가하며 부득이한 사유로 인하여 변경 하고자 하는 경우에는 해당 ID를
해지하고 재가입해야 합니다.
③ 기타 회원 개인정보 관리 및 변경 등에 관한 사항은 서비스별 안내에 정하는 바에 의합니다.
제 3 장 계약 당사자의 의무
제 10 조 (KISTI의 의무)
① 당 사이트는 이용고객이 희망한 서비스 제공 개시일에 특별한 사정이 없는 한 서비스를 이용할 수 있도록
하여야 합니다.
② 당 사이트는 개인정보 보호를 위해 보안시스템을 구축하며 개인정보 보호정책을 공시하고 준수합니다.
③ 당 사이트는 회원으로부터 제기되는 의견이나 불만이 정당하다고 객관적으로 인정될 경우에는 적절한 절차를
거쳐 즉시 처리하여야 합니다. 다만, 즉시 처리가 곤란한 경우는 회원에게 그 사유와 처리일정을 통보하여야
합니다.
제 11 조 (회원의 의무)
① 이용자는 회원가입 신청 또는 회원정보 변경 시 실명으로 모든 사항을 사실에 근거하여 작성하여야 하며,
허위 또는 타인의 정보를 등록할 경우 일체의 권리를 주장할 수 없습니다.
② 당 사이트가 관계법령 및 개인정보 보호정책에 의거하여 그 책임을 지는 경우를 제외하고 회원에게 부여된
ID의 비밀번호 관리소홀, 부정사용에 의하여 발생하는 모든 결과에 대한 책임은 회원에게 있습니다.
③ 회원은 당 사이트 및 제 3자의 지적 재산권을 침해해서는 안 됩니다.
제 4 장 서비스의 이용
제 12 조 (서비스 이용 시간)
① 서비스 이용은 당 사이트의 업무상 또는 기술상 특별한 지장이 없는 한 연중무휴, 1일 24시간 운영을
원칙으로 합니다. 단, 당 사이트는 시스템 정기점검, 증설 및 교체를 위해 당 사이트가 정한 날이나 시간에
서비스를 일시 중단할 수 있으며, 예정되어 있는 작업으로 인한 서비스 일시중단은 당 사이트 홈페이지를
통해 사전에 공지합니다.
② 당 사이트는 서비스를 특정범위로 분할하여 각 범위별로 이용가능시간을 별도로 지정할 수 있습니다. 다만
이 경우 그 내용을 공지합니다.
제 13 조 (홈페이지 저작권)
① NDSL에서 제공하는 모든 저작물의 저작권은 원저작자에게 있으며, KISTI는 복제/배포/전송권을 확보하고
있습니다.
② NDSL에서 제공하는 콘텐츠를 상업적 및 기타 영리목적으로 복제/배포/전송할 경우 사전에 KISTI의 허락을
받아야 합니다.
③ NDSL에서 제공하는 콘텐츠를 보도, 비평, 교육, 연구 등을 위하여 정당한 범위 안에서 공정한 관행에
합치되게 인용할 수 있습니다.
④ NDSL에서 제공하는 콘텐츠를 무단 복제, 전송, 배포 기타 저작권법에 위반되는 방법으로 이용할 경우
저작권법 제136조에 따라 5년 이하의 징역 또는 5천만 원 이하의 벌금에 처해질 수 있습니다.
제 14 조 (유료서비스)
① 당 사이트 및 협력기관이 정한 유료서비스(원문복사 등)는 별도로 정해진 바에 따르며, 변경사항은 시행 전에
당 사이트 홈페이지를 통하여 회원에게 공지합니다.
② 유료서비스를 이용하려는 회원은 정해진 요금체계에 따라 요금을 납부해야 합니다.
제 5 장 계약 해지 및 이용 제한
제 15 조 (계약 해지)
회원이 이용계약을 해지하고자 하는 때에는 [가입해지] 메뉴를 이용해 직접 해지해야 합니다.
제 16 조 (서비스 이용제한)
① 당 사이트는 회원이 서비스 이용내용에 있어서 본 약관 제 11조 내용을 위반하거나, 다음 각 호에 해당하는
경우 서비스 이용을 제한할 수 있습니다.
- 2년 이상 서비스를 이용한 적이 없는 경우
- 기타 정상적인 서비스 운영에 방해가 될 경우
② 상기 이용제한 규정에 따라 서비스를 이용하는 회원에게 서비스 이용에 대하여 별도 공지 없이 서비스 이용의
일시정지, 이용계약 해지 할 수 있습니다.
제 17 조 (전자우편주소 수집 금지)
회원은 전자우편주소 추출기 등을 이용하여 전자우편주소를 수집 또는 제3자에게 제공할 수 없습니다.
제 6 장 손해배상 및 기타사항
제 18 조 (손해배상)
당 사이트는 무료로 제공되는 서비스와 관련하여 회원에게 어떠한 손해가 발생하더라도 당 사이트가 고의 또는 과실로 인한 손해발생을 제외하고는 이에 대하여 책임을 부담하지 아니합니다.
제 19 조 (관할 법원)
서비스 이용으로 발생한 분쟁에 대해 소송이 제기되는 경우 민사 소송법상의 관할 법원에 제기합니다.
[부 칙]
1. (시행일) 이 약관은 2016년 9월 5일부터 적용되며, 종전 약관은 본 약관으로 대체되며, 개정된 약관의 적용일 이전 가입자도 개정된 약관의 적용을 받습니다.