(+84) 236.3827111 ex. 402

Đề xuất giảm số lượng đột biến


Thứ nhất, “đối với những FOM mà tỷ lệ bị diệt cao trên tập dữ liệu thử thì khi kết hợp thành các HOM tỷ lệ bị diệt chắc chắn sẽ càng cao hơn”. Trên cơ sở nhận định này chúng tôi tiến hành phân loại FOM theo từng nhóm dựa trên tỉ lệ bị diệt rồi kết hợp chúng thành các HOM, cho tập dữ liệu thử thực thi trên các HOM này để xem xét tỉ lệ diệt theo từng phân nhóm. Nếu nhận định này là đúng thì để đánh giá và cải thiện chất lượng của bộ dữ liệu thử, việc lựa chọn các FOM tham gia vào HOM nên chăng chỉ cần kiểm tra các FOM có tỷ lệ bị diệt thấp. Khi đó sẽ giảm được đáng kể số lượng đột biến.

Thứ hai, với việc chọn hai FOM đầu cuối để tạo ra HOM như trong thuật toán Last_To_First của Polo và cộng sự đề xuất [Polo, 2008], các tổ hợp sau đây có thể xảy ra: (1) dễ -dễ (hai FOM dễ diệt kết hợp với nhau), (2) dễ-khó, (3) khó –khó. Theo nhận định của chúng tôi, khi các tổ hợp dễ-dễ kết hợp với nhau, HOM tạo ra chắc chắn sẽ dễ diệt. Trường hợp khó-khó kết hợp với nhau, HOM tạo ra sẽ khó diệt. Trường hợp dễ-khó kết hợp với nhau, HOM tạo ra dễ diệt hơn. Đề xuất của chúng tôi là sắp xếp các FOM theo tỉ lệ bị diệt giảm dần, sau đó áp dụng thuật toán Last_To_First cho các HOM được tạo ra là sự kết hợp của dễ-khó và tỉ lệ bị diệt có thể sẽ cao. Nếu vậy, đây sẽ là một cải tiến giúp nâng cao chất lượng của đột biến.