Умножение матриц с использованием обычной техники (ряд - столбец) занимает умножение и дополнения. Однако при условии, что записи равного размера (количество битов в каждой записи обеих матриц умножается) размера биты, операция сложения на самом деле происходит на биты.
Таким образом, кажется, что истинная сложность умножения матриц, если измеряться с помощью битовой сложности, должна быть ,
Это правильно?
Предположим, если кто-то создает алгоритм, который уменьшает сложность бита до вместо общего умножения и сложения, это может быть более надежный подход, чем, скажем, сокращение общего умножения и сложения как попытались исследователи, такие как Копперсмит и Кон.
Это действительный аргумент?